ユニセフ、AIによる児童性的コンテンツ生成を違法化するよう各国へ要請

AIを用いた児童の性的コンテンツ生成が国際的に拡大していることを受け、2026年2月4日、国連児童基金(ユニセフ)がそれらを犯罪化するよう各国に要請したとロイターが報じた。
ユニセフ、AIによる児童性的画像生成の犯罪化を要請
ユニセフが、AIを利用して児童の性的画像や動画を生成・加工する行為が急増していることに懸念を示した。
ユニセフは、「ディープフェイク(※)悪用の被害は現実的かつ緊急を要する。子どもたちは法整備を待てない」と強調している。
問題視されているのは、既存の画像内の児童の衣服を剥ぎ取ったり改変したりして、ヌードや性的表現を捏造する行為である。
ユニセフによれば、過去1年間で少なくとも11カ国において約120万人分の児童画像が性的に加工されたとされたという。
同基金は各国に対し、AIを用いて児童性的コンテンツを生成することについて、犯罪と定義するよう求めた。
加えて、デジタル企業に対しては、検知技術への投資によるコンテンツ監視の強化を要請している。AI開発者には、モデルの悪用を防ぐための「設計段階からの安全性確保」とガードレール導入が不可欠だとした。
既に英国では2026年1月末、AIツールを用いた児童の性的画像生成を違法とする法案が発表されている。成立すれば世界初の事例となる見通しである。
※ディープフェイク:AIを用いて実在の人物の顔や声を別の画像・動画・音声に精巧に合成する技術。近年は悪用による権利侵害が国際的な問題となっている。
児童保護強化の一方で、AI規制と技術革新の両立が課題に
今回のユニセフの呼びかけは、児童保護を最優先とする国際的な合意形成を後押しし得るという点で意義がありそうだ。
児童ディープフェイクの生成が明確に違法となれば、捜査や摘発が容易になり、被害の抑止力が高まる効果が期待できる。被害者救済の枠組み整備にもつながるかもしれない。
一方で、規制の射程をどこまで広げるかには慎重さも求められるだろう。
生成AI全般への過度な制約は、正当な研究開発や表現活動を萎縮させるリスクを伴う。特にオープンソースAIや中小開発者にとって、遵守コストが重荷となる可能性は否定できない。
最近では、X(旧Twitter)上で対話型AI「Grok」を用い、実在の人物画像を無断で性的に加工する事例が問題視されている。こうした事象も、プラットフォーム責任と開発者責任の境界を再定義する契機になるだろう。
今後は、法規制と技術的対策をどう両立させるかが、AI時代の信頼性を左右する重要な分岐点になると考えられる。
関連記事:
Grokの性的画像加工が波紋 約300万枚生成と推計、実在人物と子ども被害も

性的ディープフェイク被害に政府対応 生成AI悪用に備える

Grokの性的画像生成に規制包囲網 EUと英国が違法性を問題視












