複数の米メディアにより、10代少女3人がAI企業xAIを提訴したと報じられた。
生成AI「Grok」による児童性的画像の生成・拡散が争点となり、AI企業の責任範囲と規制のあり方が国際的に問われている。
Grok巡り児童性的画像生成で提訴
2026年3月16日(米国時間)、米国で10代の少女3人が、イーロン・マスク氏が率いるxAIを相手取り訴訟を提起した。訴状によれば、同社の生成AI「Grok」は、顔や容姿をもとにした児童性的虐待画像(CSAM)の生成や流通を容認していたとされる。
問題は2025年12月から2026年初頭にかけて顕在化した。
ある報告書によると、わずか9日間で約440万枚のディープフェイクポルノ(※)画像がGrokにより生成されたと推定されており、これはGrokによる全生成画像の41%に当たるという。
訴状では、xAIが技術を外部企業にライセンス提供していた点も指摘されている。
これにより第三者がサブスクリプション経由で被害者の顔を用いた画像生成を行い、そのリクエストが同社サーバーを経由していたことから、同社の安全対策に不備があったと主張している。
少女の一人は匿名のInstagramメッセージを通じて、自身の生成画像がDiscordサーバーで共有されていることを知り、家族や警察とともに加害者の特定に至ったという。
なお、この「脱衣」画像の急増について欧州委員会は早急に調査を開始し、一部の国ではプラットフォーム規制の動きも広がっている。
※ディープフェイクポルノ:AIで実在人物の顔などを合成し、本人の同意なく性的コンテンツを生成する行為。
規制強化と技術革新のせめぎ合い
今回の事案は、生成AIの利便性とリスクが極端な形で衝突したケースといえる。高度な画像生成技術は広告やエンタメ領域での活用価値を持つ一方、悪用時には個人の尊厳や安全を不可逆的に損なう可能性がある。
今回の訴訟が契機となり、安全対策の標準化やガイドライン整備が進むかもしれない。AI企業に対する責任範囲が明確化されれば、業界全体の信頼性向上につながる余地がある。
一方で、規制の過剰適用により技術開発が停滞することも考えられる。生成AIは汎用技術であるため、一律の厳格規制が導入されれば、正当なクリエイティブ用途まで制約される懸念がありそうだ。
今後の展望としては、「用途別規制」や「リスクベース管理」への移行が現実的と考えられる。CSAMのような高リスク領域には強い制限を課しつつ、それ以外の領域では柔軟な運用を認める設計である。
このバランス設計が、AI時代の競争力と倫理の両立を左右するための重要な分岐点になるだろう。
関連記事:
米カリフォルニア州がGrokを調査開始 Xで拡散する生成AI性的偽画像問題

警察庁が公表 18歳未満の画像をAIで性的加工114件、被害9割が中高生

米AI「グロック」急伸 性的画像批判下でもシェア拡大が示す市場再編
