OpenAI、AI悪用の世界的事例を警告 中国など10件の脅威行動を年次報告で明示

2025年6月5日、米OpenAIは自社AIの悪用事例をまとめた年次報告書を公開した。
報告では、生成AIがサイバー攻撃や情報操作に利用された10件の事例が紹介され、うち4件に中国の関与が疑われている。
ロシアやイランなどによる活動にも言及されており、AIの軍事・政治的リスクが浮き彫りとなった。
生成AIがサイバー攻撃や情報操作に利用 OpenAIが10件の悪用を特定
OpenAIの年次報告書によれば、同社の生成AIツール「ChatGPT」などが世界の脅威アクターによって悪用された10件の事例が確認された。
報告書は、AI研究の進化に伴うセキュリティ上のリスクに焦点を当てており、「阻止した全ての活動は、脅威アクターがどのようにモデルを利用しようとしているかを理解する手がかりとなり、防御策の洗練につながる」と強調している。
具体的には、中国に関連しているとされるケースで、英語・中国語・ウルドゥー語によるSNS投稿を生成し、政治的に敏感な話題(台湾問題や米国国際開発庁の活動)への注目を誘導する手法が確認された。
こうした投稿は「メインアカウント」から発信され、複数の関連アカウントが自然な会話を装って拡散。中国の地政学的な関心と一致するテーマが含まれていた。
さらに、AIを利用したパスワードの総当たり攻撃(ブルートフォース攻撃)や、米軍関連の情報収集を目的とした行動も報告された。
OpenAIはこれらの行為に中国の関与があるとみているが、ロイターによると、中国外務省はその関与を否定している。
脅威は中国だけにとどまらず、ロシア、イラン、カンボジアといった他国の関与も報告されている。
生成AIの規制強化が急務 悪用の巧妙化で“いたちごっこ”の様相
脅威アクターがAIの防御機構をかいくぐる手法においては、AIの利用はますます創造的かつ高度になっている。
音声・映像生成AIの進化も、リスクをさらに拡大させている。
Googleの「Veo」やElevenLabsの「v3」など、高精度なマルチモーダルAI(※)の登場により、誤情報はよりリアルで信憑性の高いものとなりつつある。
生成されたコンテンツがフェイクと見抜けない水準に達すれば、社会的混乱や国際的誤解を招くリスクは飛躍的に高まる。
OpenAIの年次報告書で具体的な言語や拡散手法までが明示されたことは、悪用の技術的・戦略的手法を可視化する上で有効と評価できるだろう。
しかし、倫理的規範やグローバルな合意形成は依然として遅れており、「技術はグローバル、規制はローカル」という構図が続いていることもまた浮き彫りになった。
多くのAI企業を抱える米国でも、連邦レベルのAI規制が未整備であり、技術開発と悪用の間で“いたちごっこ”が続く現状がある。
このように技術が急速に進化し、悪用事例が具体化する中、制度面での対応が問われる。
技術の利便性とリスクの間で、いかにバランスを取るか――各国政府や開発企業には、透明性と安全性を両立させたグローバルな規範の整備が求められている。
※マルチモーダルAI:テキスト、画像、音声、映像など複数の情報形式(モーダル)を統合して処理・生成する人工知能モデルのこと。近年では、生成精度と応用範囲の広さが急速に進展している。