2026年4月24日、日本国内で女子陸上選手を標的とした性的ディープフェイク被害が拡大していることが明らかになったとメディアが報じた。人気チャットアプリ上で約800人規模のコミュニティーに画像が共有され、未成年を含む500人以上が被害に遭ったと報じられている。
性的ディープフェイクが競技現場に侵食
問題の画像や動画は、競技中や表彰式の写真をもとに生成AIで加工されたもので、実在の選手の裸や性的行為をしているかのように見せる内容だった。確認された投稿は350件以上にのぼり、コミュニティー参加者は約800人規模に達していた。
被害者には中学生から大学生まで幅広い年代が含まれ、競技団体や大会関係者の間でも動揺が広がっている。
従来の盗撮や画像流出とは異なり、公開された写真さえあれば加工が可能である点が、被害拡大の背景にあると考えられる。
こうした性的ディープフェイクは、近年の生成AIの高度化によって急速に一般化した。特別な技術を持たない個人でも、既存のツールを使えば短時間でリアルな偽画像を生成できる環境が整いつつある。
技術進化と規制の遅れ 競技と社会の課題に
今後、スポーツ界においては選手の肖像管理やデータ利用のルール整備が急務となるだろう。特に未成年選手の場合、精神的負担や競技継続への影響が深刻化する懸念があり、保護体制の再構築が求められる。
生成AIは本来、映像分析やパフォーマンス向上などポジティブな用途でも活用が進む技術である。今回のような問題は技術そのものではなく、悪用を抑止する制度と監視体制の整備が追いついていない点にある。
海外では性的ディープフェイクの制作や拡散を処罰対象とする法整備が進みつつあるが、日本では包括的な規制は限定的だ。AIの利用にはプラットフォーム側の対応強化とともに、利用者の倫理意識も問われる段階に来ている。
この問題は単なる個別事件にとどまらず、AI時代における「現実と虚構の境界」を揺るがす構造的リスクを示している。
スポーツの信頼性や選手の尊厳を守るための対応が、今後の競技環境を左右することになるだろう。
関連記事: