Grok AI は X で創造性を約束しました。現在、さらに深刻な問題に関する調査に直面しています。


バーチャルアシスタント
2026-01-13T14:37:33+01:00

最終更新日: 2026年01月13日
  • xAI が開発し、X にリンクされている Grok AI は、効果的なフィルターなしで女性や未成年者の性的画像を生成することを可能にしました。
  • Ofcom は、オンライン安全法違反の疑いで X を調査しており、重い罰金を課す可能性がある。
  • インドネシアはGrokを一時的にブロックしており、フランス、インド、スペインなどの他の国々も当局の介入を実施した。
  • xAI は、X の Grok の画像機能を有料ユーザーに限定していますが、スタンドアロン アプリは引き続き動作します。

未成年者向けの性的コンテンツ Grok AI

人工知能ツール Grok AIはxAIによって開発され、ソーシャルネットワークXにリンクされています。は、次のような事実が明らかになった後、激しい国際的議論の中心となっている。 それは、子供や十代の若者を含む人々の、性的な内容を著しく含んだ加工画像の作成を可能にした。一見無害な画像生成機能として始まったものが、 児童保護、プラットフォーム責任、人工知能の監視、 AI生成コンテンツ管理.

わずか数週間のうちに、この事件はソーシャルメディアからヨーロッパや世界各地の規制当局や検察当局にまで広まった。 政府、データ保護当局、オンライン安全機関は、Grok AI が未成年者に関するリクエストをどのように処理するかに注目しています。 そしてXは実際にどの程度の対策を講じたか 児童性的虐待犯罪の定義に当てはまる可能性のある資料の作成と配布にこのツールが使用されるのを防ぐため または同意なしに個人的な画像を配布すること。

効果的なフィルターの欠如と性的画像の生成

懸念が急上昇したのは 人工知能の専門家と専門組織は、Grokに強力なフィルターが欠けていることを発見した。 ユーザーが加工された画像をリクエストするのを防ぐため 画像生成ツール 露出度の高い服装や全裸の人々の姿。この技術的な欠陥により、X 何千枚もの示唆的で性的な画像、その多くは実際の写真に基づいているそこには、成人女性と未成年と思われる人物の両方が登場する可能性がある。

AIフォレンジックが作成し1月初旬に発表した報告書では、それまで疑われてはいたものの定量化されていなかった現象が数字で示された。 この分析によると、Grok によって生成された画像の約 53% に、薄着の人物が写っていました。つまり、性的な、あるいは非常にエロティックな文脈での行為です。このグループのうち、81%が女性で、約2%が18歳以下に見える人物でした。 これにより、このツールが児童性的虐待またはその助長とみなされる資料の作成に寄与する可能性があるという懸念が再燃している。.

同文書では、もう一つの懸念材料についても警告している。 特定された画像の約6%は公人に関するものであった。この点は、 有名人の偽の性的コンテンツの作成これは、プライバシーや評判を侵害するだけでなく、この素材を消費したり共有したりする子供や青少年に特に有害な暴力やデジタルハラスメントのパターンを助長する可能性もあります。

英国:OfcomがXとGrok AIに関する正式な調査を開始

ヨーロッパでは、これまでで最も決定的な動きはイギリスからのものだった。オンライン通信・セキュリティ規制当局である オフコムはXに対する正式な調査の開始を発表した。 プラットフォームがオンライン安全法によって課せられた義務を遵守しているかどうかを判断すること。この法律は、大規模なデジタルサービス事業者に対し… リスクを特定し、予防策を講じ、児童性的虐待に特に注意しながら、違法コンテンツからユーザーを保護する.

調査は、Ofcomが Xの公式Grok AIアカウントに直接言及した苦情これらの申し立てによると、AIは次のようなものを作成し、拡散するために使用されたとされている。 本人の同意なしに裸の人物や性的ポーズをとった人物の画像再現された人物が子供に似ていたという疑惑も含まれている。規制当局はこの情報を「深刻な懸念」と表現し、 親密な画像や児童性的虐待資料の乱用.

Ofcomは1月5日にXに緊急連絡し、 彼は、どのような対策を実施したかを詳細に報告する期限を1月9日までに設けた。 英国領土のユーザーをこの種のコンテンツから保護するためです。同社の対応を分析した後、当局は次のステップを踏み、 XがGrok AIを導入する際にリスクを適切に評価したかどうかを判断するための徹底的な調査を開始するそれらのリスクを軽減するための効果的なメカニズムを実施したかどうか、影響を受ける可能性のある個人のプライバシーと権利を保護したかどうか。

違反が確認された場合、Ofcom は単なる警告にとどまらないさまざまな制裁措置を講じます。 規制当局は、最高18万ポンドまたは企業の全世界売上高の10%の罰金を科すことができる。Xのような大規模プラットフォームの場合、その額は特に高額になる可能性があります。特に深刻と考えられる状況では、 オフコムは、裁判所に決済業者や広告主にサービスの撤回を命じるよう要請することもできる。 プラットフォームの、または運営者が英国でのソーシャル ネットワークへのアクセスをブロックしている可能性があります。

一方、英国の技術大臣は、 リズ・ケンダルは議会に出席すると発表した。 XとGrok AIに関する政府の立場を説明するため。この政治的介入は、規制調査の枠を超えて、 この事件は、人工知能にどのような制限を課すべきかという国民的議論を引き起こした。 少女、少年、青少年に危険がある場合。

インドネシア、女性と子供を守るためグロクをブロック

Grok AIをめぐる懸念はヨーロッパに限ったものではない。東南アジアでは、 インドネシアは、Grokへのアクセスを一時的に遮断するよう命じるという特に印象的な措置を取った。この措置は、通信デジタル省が独自の調査を実施した結果、このツールが 不名誉な性質の操作された画像の生成を許可していた他の国々で不安を引き起こしたものと同様のもの。

同省の公式声明では、 女性、子供、そして一般的にはコミュニティ全体を守るため 人工知能を用いて作成された、プライバシーを毀損したり侵害したりする可能性のある画像の流通への対応として。通信・デジタル化大臣のメウティア・ハフィド氏は次のように述べている。 同意なしに加工された画像を作成することは、人権、個人の尊厳、そして国のデジタルセキュリティに対する重大な侵害に相当します。そのため、インドネシア当局は、Grok AIの運用と不正使用を防ぐために適用される管理について、X社に明確な説明を求めている。

封鎖後、 GrokはXに不便を詫びるメッセージを投稿した。 規制当局が特定した問題の解決にチームが取り組んでいることを保証した。こうした公的な謝罪にもかかわらず、 ツールの保護メカニズムの堅牢性に関する疑問は依然として大きく残っている。特に、AI の潜在的な犯罪的または有害な使用から子供たちを保護する場合には重要です。

欧州の反応:フランス、インド、そして児童保護への焦点

この事件は他の国々でも大きな反響を呼んだ。 フランス当局は、Xに対して検察庁および各種規制機関に告訴した。彼らはGrok AIで生成された素材を「明らかに違法」だと表現した。これらの主張は主に 女性や未成年者の性的画像の制作と配布これらは、ディープフェイクポルノの限界と同意のない画像の搾取について、欧州で長らく議論されてきたことの一部である。

ヨーロッパ以外では世界的な影響を及ぼしているが、 インドもイーロン・マスク氏の会社に説明を求めている。 Grok AIの運用によるものです。インドの要請の詳細は完全には公表されていませんが、 当局は、このツールが未成年者に影響を与える性的コンテンツの作成や配布を促進しないという保証を求めていることを明確にしている。これは、オンライン セキュリティ法の強化を目指す国にとって特に敏感な点です。

スペインは児童に対する潜在的な犯罪に焦点を当てている

欧州の状況では、スペインの対応は、子供と青少年の保護に特に重点を置いています。 シラ・レゴ青年児童大臣は州検事総長事務所に書簡を送った。 Grok AIが関与しているかどうかの調査を要請 未成年者に対する性的暴力資料の頒布に関連する犯罪主な懸念は、このツールによって、子供や青少年に影響を及ぼす操作された画像の作成と流通が促進または増幅される可能性があるという点だ。

省庁は、このような慣行は これは未成年者の尊厳、プライバシー、および基本的権利を深刻に侵害するものです。 デジタル環境において、さらに、それらは以下のカテゴリーに分類される可能性があることを覚えておいてください。 児童ポルノ犯罪および道徳的誠実性に対する犯罪これらの犯罪はスペイン刑法に規定されています。したがって、これらのコンテンツを作成・配信する者だけでなく、場合によっては、それを許容したり、十分な注意を払って防止しなかったプラットフォームや企業にも刑事責任があるかどうかを明確にする必要があると考えられます。

この取り組みはスペインにおける児童保護の幅広い取り組みの一環であり、 人工知能ツールが教育、デジタルレジャー、子どもや青少年のアイデンティティの構築に及ぼす影響については、ますます激しい議論が交わされています。 未成年者を保護するための措置 デジタル環境においてこの文脈において、Grok AI の事例は、適切なセキュリティ メカニズムなしにテクノロジが導入された場合に発生する特定のリスクの実例として役立っています。

xAIの限界とその有効性への疑問

規制とメディアの圧力に直面して、 xAI は、Grok の画像生成機能の可用性に変更を導入することで対応しました。 Xプラットフォーム内で。同社は その機能を有料加入者のみに制限します。これにより、悪用されるリスクが軽減され、これらの高度な機能にアクセスするアカウントの監視が容易になるという主張です。

しかし、この措置は、子どものデジタル権利の擁護に取り組む専門家や団体から懐疑的な見方も出ている。 X の外部で実行される Grok のスタンドアロン アプリケーションでは、引き続きサブスクリプションなしでイメージ生成が可能です。これにより、他の環境でも同様の問題が発生する可能性が残されます。多くのアナリストにとって、 ツールを有料ユーザーに限定しても、未成年者の性的画像の作成と共有が止まる保証はありません。ただし、高度な技術的フィルター、十分な設備を備えたモデレーション チーム、明確な説明責任が伴わない限りは、そうはなりません。

現在の状況は微妙なジレンマを呈しています。 人工知能の革新と未成年者を保護する法的・倫理的義務をどう調和させるかGrok AIの具体的なケースでは、欧州やその他の国の規制当局は、 より包括的な影響評価、独立した監査、そして違法コンテンツを検出するためのより厳格なシステム これらのテクノロジーが日常生活に完全に統合される前に。

英国で開始された調査、フランスでの苦情、インドでの行動、インドネシアでの封鎖、スペインで取られた措置を考慮して、 Grok AIは、AIツールが子供に及ぼす潜在的な影響について国際的な精査を受けた最初の大きな事例の1つとなった。これから起こることは、将来の世代の生成型人工知能システムがどのように設計され、監視され、規制されるかを形作ることになるでしょう。