Grokの性的画像加工が波紋 約300万枚生成と推計、実在人物と子ども被害も

2026年1月22日、Xに搭載された生成AI「Grok」を悪用し、実在する人物の画像を性的に加工する被害が世界的に拡大していた実態が明らかになった。米英の非営利団体「デジタルヘイト対策センター(CCDH)」は、約11日間で約300万枚の性的画像が生成された可能性があると推計している。
Grokの画像編集機能、11日間で性的画像300万枚生成か
問題となったのは、X上で提供されていたGrokの画像編集機能である。
CCDHによると、この機能が追加された2025年12月29日から2026年1月8日までの間に、Grokが生成した画像は計約460万枚に達した。
同団体は、このうちランダムに抽出した約2万枚を分類・分析した結果、年齢や性別を問わず性的画像と判断されたものが約65%を占めていたと報告している。
さらに、子どもの性的画像とみなされるものも約0.5%含まれていた。
この割合を全体の生成枚数に当てはめると、性的画像は約300万枚、子どもの性的画像は約2万3千枚に上る計算となる。
加工元には著名人の写真や一般ユーザーの自撮り画像も多く含まれており、本人の同意を得ないまま性的表現へと変換・拡散できる状況が生じていた。
被害報告が相次いだことを受け、Xは1月9日に当該機能を有料会員限定とし、14日には露出が多い画像の編集を不可能にする対応を取っている。
英国当局が調査に着手したほか、インドネシアやマレーシアでは一時的なアクセス遮断措置が講じられ、日本政府もXに改善を求めるなど、各国で問題視されてきた。
生成AIの表現力が生む利便性と、人権侵害リスクの分岐点
今回の事例は、生成AIの高い表現力と手軽さが、人権侵害につながりうるリスクを内包していることを示唆した点で象徴的だと言える。
画像編集や生成は創作支援や広告、デザイン分野で大きなメリットをもたらす一方、悪意ある利用に対する抑止策が不十分な場合、被害が短期間で拡大する可能性も否定できない。
特に、実在人物や子どもが対象となった点は社会的影響が大きく、プラットフォーム側の管理責任の在り方が改めて問われる状況にある。
一方で、過度な機能制限や一律規制が、正当なクリエイティブ用途や技術革新を萎縮させる可能性も指摘されている。AI活用を巡っては、自由度の確保と安全性の担保をどう両立させるかが難題だ。
今後は、利用者認証の厳格化や生成物の検知・追跡技術の導入、未成年を含む人物画像の扱いに関する国際的な指針づくりが進展する可能性がある。
生成AIが社会基盤として定着する中で、利便性と倫理のバランスをどこに置くのかが、次の焦点になると考えられる。
関連記事:
Grokで露出度の高い服装編集を制限 Xが実在人物の無断加工を禁止へ

米カリフォルニア州がGrokを調査開始 Xで拡散する生成AI性的偽画像問題












