米OpenAIは対話型AI「ChatGPT」の悪用に関する詳細な事例報告書を公表した。
中国警察に関連する影響工作やロマンス詐欺、日本の高市早苗首相への中傷を意図した活動に関与したアカウントを停止したと明らかにした。
複数国にまたがる悪用を確認
2026年2月25日にOpenAIが公表した報告では、ChatGPTとソーシャルメディアのアカウントなど他のツールを組み合わせ、実在の組織や職業を装ってサイバー犯罪を行ったケースが示された。
マッチングアプリ運営者や法律事務所、米政府当局者を名乗るなど、信頼性を装う手口が用いられていたという。
中国発とみられる少数のアカウントは、OpenAIのモデルを使い、米国人やオンラインフォーラム、米連邦政府施設の所在地に関する情報を要求していた。
さらに顔入れ替えソフトの利用方法についても具体的な指示を求めていたとされる。
同一グループは州レベルの当局者や金融分野の政策アナリスト宛てに、有償コンサルテーションへの参加を促す英語メールも作成していた。
また、中国の法執行機関に関連する個人とつながるアカウントも停止された。
この人物は高市早苗首相を標的とした秘密裏の影響工作に関与していたとOpenAIは説明している。
加えて、複数のアカウントがインドネシア人男性を狙ったロマンス詐欺に利用されていたことも判明した。
架空の出会い系サービスの広告文を生成し、利用者を誘導したうえで高額な支払いを伴う作業を強要していた公算が大きい。
透明性向上と規制議論の加速
今回の事例は、生成AIが国境を越えて悪用される現実を改めて浮き彫りにしたと言える。
AI単体ではなく、SNSやメールなど既存のインフラと連動することで、詐欺や影響工作が高度化している点は見過ごせない状況にあるとみられる。
一方で、OpenAIが具体的な手口や停止措置を開示したことは、透明性の観点から一定の意義を持つだろう。
AI事業者自らが悪用事例を公表し、アカウント停止という具体的対応を示したことは、企業利用や公共分野での導入における信頼確保につながる可能性がある。
他方、悪用の詳細を明らかにすることは攻撃側に学習機会を与えるリスクも伴うと考えられる。
今後はモデル監視体制の高度化や本人確認の厳格化、各国当局との情報共有といった多層的な対策が求められる局面に入ったと言える。
生成AIの社会実装が進むなかで、利便性と安全性の均衡をどう設計するかが、次の競争軸になりそうだ。
関連記事:
OpenAIがDeepSeekのAI学習に米モデル蒸留疑い指摘 米中AI競争の新局面

