卒業アルバムの写真や学校行事の記念写真が、ある日突然「性的な画像」に作り変えられていたら――。いま米国で、そうした悪夢が現実になっています。「テネシー州の10代3人がイーロン・マスクのxAIを提訴、性的な画像を生成されたと主張」という報道が、生成AIの「暗い側面」に改めて注目を集めています。この記事では、訴訟の背景と、日本にも迫る同様のリスクについて解説します。
卒業写真が「性的コンテンツ」に変えられた
テネシー州の高校に通う3人の女子生徒が、イーロン・マスク率いるAI企業xAIを相手取り、カリフォルニア連邦裁判所に訴訟を起こしました。訴えの内容は衝撃的です。何者かがxAIのAIチャットボットGrokの画像生成機能を使い、彼女たちの実際の写真を基に、性的に露骨な画像を生成したというのです。
ホームカミングの写真や卒業アルバムの画像が素材として使われ、少なくとも18人の女子生徒の画像が生成されました。犯人は2025年12月末に逮捕され、生成したAI画像を他の児童性的虐待素材と「交換」していたことも判明しています。
3人の原告は集団訴訟の認定を求めており、同様の被害に遭った数千人規模の未成年者を代表することを目指しています。
「過激なコンテンツ」を差別化要因にした代償
この訴訟で特に問題視されているのは、xAIの姿勢です。訴状によれば、xAIは競合他社がAI画像生成に安全策を導入するなか、Grokが「スパイシー」なコンテンツを生成できることをあえて宣伝し、差別化を図っていました。つまり、児童の性的搾取に使われるリスクを認識しながら、防止策を意図的に講じなかったと原告側は主張しています。
非営利団体デジタルヘイト対策センターの調査は、この主張を裏付ける数字を示しています。同団体の推計では、Grokはわずか11日間で約2万3,000枚の児童の性的画像を生成したとされています。
被害を受けた3人の生徒は、不安障害やうつ症状、睡眠障害、社会的孤立といった深刻な精神的影響を報告しています。AIで生成された画像がインターネット上に半永久的に残り続ける恐怖も、彼女たちを苦しめています。
記者の視点:日本でも「対岸の火事」ではない
この問題は米国だけの話ではありません。日本の警察庁のデータによると、2025年1〜9月に性的ディープフェイクに関する相談は79件寄せられました。被害者の約8割は中高生で、さらに深刻なのは加害者の約半数が被害者と同じ学校の生徒だったという事実です。
日本では鳥取県が先駆けて、2025年に改正青少年健全育成条例で18歳未満のAI生成ポルノを規制対象に加えました。しかし国レベルでの法整備はまだ追いついておらず、政府は2026年度中に具体策をまとめる方針を示している段階です。
生成AIの画像生成機能は日々進化しており、スマートフォン1台あれば誰でも「偽の画像」を作れてしまう時代になりました。技術の進歩に法律が追いつかない「規制の空白」をどう埋めるかが、日米共通の喫緊の課題です。
問われる「AI企業の責任」と子どもたちの未来
今回の訴訟は、生成AI企業が自社技術の悪用にどこまで責任を負うべきかという根本的な問いを突きつけています。xAIは取材に回答していません。一方で、マスク氏が運営するSNSのXは「児童の性的搾取にはゼロ・トレランス(一切の容認なし)で対応する」と表明しています。
しかし、事後の対応だけでは不十分です。画像が一度ネット上に出回れば、完全な削除はほぼ不可能だからです。AIツールの設計段階から悪用を防ぐ仕組みを組み込む「セーフティ・バイ・デザイン」の考え方が、今後ますます重要になるでしょう。子どもたちを守るためにも、技術と法律の両面からの対策が急がれます。
