生成AIによる児童のディープフェイク被害が顕在化 警察庁が実例公表し対策強化へ

2025年6月23日、こども家庭庁が開催した児童のインターネット利用に関する有識者会議で、警察庁の担当者が生成AIを悪用したディープフェイクポルノの実例を紹介した。
児童を守るための教育強化と法的対応の必要性が浮き彫りとなっている。
警察庁、生成AIによる児童ポルノの実例を報告
こども家庭庁の「インターネットの利用を巡る青少年の保護の在り方に関するワーキンググループ」において、警察庁は生成AIを用いた児童のディープフェイクポルノ被害の実例を公表した。
具体的な実例としては、中学生の男子生徒が生成AIサイトを使い、同級生女子の着衣写真を裸に加工し、SNSで複数人に送信したとして名誉棄損の疑いで書類送検されたケースが公表された。
また、同級生の卒業アルバムの写真をAIで改変し、拡散した高校生に警告した事例、コンビニで盗撮した女子児童の画像に成人女性の裸画像を生成AIで合成した男が逮捕された事例など、深刻な事例が相次いで紹介された。
警察庁によれば、2024年中に「児童の画像が性的に加工された」旨の相談は100件を超え、そのうち生成AIの関与が確認されたものは17件にのぼった。
会議では、出席者から「児童ポルノ禁止法の対象にディープフェイクポルノを追加すべきだ」との意見も出された。現行法は実在する児童の被写体を対象とするが、AI生成による「実在しない被害」も児童の尊厳を著しく傷つけるとして、対象範囲の拡大が求められているようだ。
ディープフェイク対策に法整備の議論進むか
ディープフェイク技術は近年、画像生成の精度が飛躍的に向上しており、一般の中高生でも簡単に悪用できる環境となってしまっている。
性的悪用に関する懸念はかねてからあったが、実際に児童が加害者や被害者となる事例が公表されたことで、社会全体から注視される可能性は高いだろう。
学校教育や家庭でのリテラシー教育の強化に加え、法制度の見直しや企業側の技術的対策も不可欠になると思われる。SNS運営企業や画像生成サービスの提供者に対しても、フィルタリング機能の強化や利用者の年齢制限など、具体的な対応が求められる局面にあるといえる。
警察庁は今後、被害児童に寄り添いながら、法整備を含めた包括的な対応を検討するとしている。生成AIの進化が加速度を増す中、子どもたちの尊厳と安全をどう守るかが、社会全体に問われているのではないだろうか。