性的ディープフェイク被害に政府対応 生成AI悪用に備える

2026年1月6日、政府は生成AIを悪用した「性的ディープフェイク」を巡り、被害実態や技術動向を整理した上で適切に対応する方針を示した。国内外で深刻化する権利侵害への政府姿勢が改めて示された。
政府、性的ディープフェイク対策で実態整理を指示
生成AIなどを用いて実在する人物の性的な偽画像を作成・拡散する「性的ディープフェイク(※)」を巡り、政府は本格的な対応に向けた検討を進めるという。
木原官房長官は記者会見で、被害実態やサービスの実態、対策技術や国際的な動向を含めて整理し、関係省庁が連携して対応する必要性を強調した。
政府はすでに、巨大プラットフォーム事業者に対し、誹謗中傷などの違法・有害情報について、削除申請の方法や判断基準の公表を義務付ける法整備を進めているという。
木原長官は、こうした制度により、「インターネット上の権利侵害に対する事業者の自主的な取り組みを促している」と説明した。
背景には、海外を中心に被害が急拡大している現状がある。旧ツイッターであるX上では、AIチャットボット「Grok」を通じて、実在人物の画像が無断で性的に加工・拡散される事例が相次いでいる。
X側は、児童性的虐待素材を含む違法コンテンツが確認された場合、投稿削除やアカウントの永久凍結を行い、法執行機関とも連携すると表明している。
※性的ディープフェイク:生成AIなどを用いて、実在の人物の顔や身体を合成し、本人が関与していない性的画像や動画を作成する行為。プライバシー侵害や名誉毀損の問題が国際的に指摘されている。
規制と表現の線引きが焦点 事業者責任も重く
今後の焦点は、被害防止を目的とした規制強化と、表現の自由や技術革新とのバランスをとることだろう。性的ディープフェイクは、被害者の尊厳やプライバシーを深刻に侵害する一方、生成AIそのものは幅広い産業で活用が進んでいる。
過度な規制は、正当な研究開発やビジネス利用を萎縮させるリスクも否定できない。
一方で、プラットフォーム事業者の責任は今後さらに重くなる可能性がある。
削除対応や監視体制の強化は、被害抑止に一定の効果を持つと考えられるが、技術の進化に追いつけるかは不透明だ。
特に、生成AIを用いたコンテンツは検出が難しく、事後対応に依存せざるを得ない構造的課題が残る。
国際的には、欧州を中心にAI規制の議論が進んでおり、日本も無関係ではいられない。
政府が示した「実態整理」は、将来的な法整備やガイドライン策定への布石と見ることもできる。被害者救済と技術活用の両立をどう実現するかが、今後の政策判断を左右する重要な論点になりそうだ。
関連記事:
インド政府、AI生成物への識別ラベル義務化へ ディープフェイク拡散防止で規制強化案を公表












