ChatGPTを用いた秘密工作、中国人グループの関与が拡大 OpenAIが悪用実態を報告

2025年6月5日、米OpenAIが公表した報告書により、中国人グループが対話型AI「ChatGPT」を秘密工作に悪用する事例が増加していることが判明した。活動は小規模ながら、手法と範囲が着実に拡大している。
チャットGPT悪用の中国グループ、複数の工作活動が確認
報告書によると、「ChatGPT」を利用して情報操作や影響工作を試みる中国人グループの存在が確認された。活動は現在のところ限定的であるとしながらも、利用される戦術や対象範囲が広がっていると指摘している。
具体的な事例として、台湾を批判する内容の偽ソーシャルメディア投稿を生成したChatGPTアカウントの使用が挙げられた。これらのアカウントに対して、OpenAIはすでに利用停止の措置を講じたという。
OpenAIはこれまでも、悪意ある利用の兆候が検出された際には定期的に報告書を発行しており、マルウェアの生成、フィッシング詐欺支援、偽情報拡散などのリスクに対して対策を強化している。
今回の報告では、中国人グループが中心となって秘密工作にAIを活用している点が明確化されたものの、中国政府からの公式な反応は現時点で確認されていないという。
AI悪用の国際リスク拡大 企業と各国政府に求められる対応
OpenAIの報告が示すのは、AIが新たな地政学的リスクのツールになりつつあるという現実だ。AIを使った秘密工作は従来の人力ベースの諜報活動と比べてコストが低く、発覚リスクも相対的に低いため、今後も他国勢力に模倣される可能性がある。
企業にとっては、AIの開発と提供におけるセキュリティ責任が一層重くなる。特に生成AIが悪用されれば、ブランド毀損や規制当局からの制裁といった深刻なリスクを招く。
OpenAIのように、不正使用の監視と迅速な対応が求められる状況は他のAIプロバイダーにも共通する課題となるだろう。
一方で、各国政府にとっても生成AIを用いた外国勢力の介入への備えが急務となる。特に民主国家では選挙干渉や世論誘導に利用されるリスクが高まるため、規制整備と技術的な監視体制の構築が不可欠である。
今回の報告書は、AIの技術進化がもたらす恩恵と同時に、越境的な悪用リスクの現実を突きつけており、企業・政府・市民それぞれにとっての警鐘と言える。