OpenAI、ChatGPT悪用の中国系アカウント停止 AIと国家安全保障を巡る攻防

2025年10月7日、米OpenAIは中国政府機関と関連があるとみられるChatGPTの複数アカウントを停止したと発表した。アカウント利用者が、SNS上の監視方法を質問したことなどが理由としている。
監視手法の指示や不正行為で停止 国家安全保障方針に抵触
米OpenAIは7日、対話型生成AI「ChatGPT(チャットジーピーティー)」の利用に関し、中国政府機関とつながりがあるとみられる複数のアカウントを停止したと明らかにした。SNS上の会話を監視する方法について詳細な説明を求める質問や、監視ツールの開発支援といった行為が確認され、同社の国家安全保障に関するポリシーに違反したと判断したためである。
同社はまた、複数の中国語のアカウントを停止した。これらのアカウントは、偽装メールを用いたフィッシング攻撃やマルウェア(※)の作成支援にもChatGPTを活用していたという。
OpenAIは2024年2月以降、社会的リスクへの対応策として、AIの悪用に関する調査と報告を継続しており、これまでに40件以上の不正ネットワークを停止・報告してきた。
今回の対応もその延長線上に位置づけられ、生成AIが国家レベルの諜報活動やサイバー攻撃に利用されるリスクを抑止する狙いがあるとみられる。
※マルウェア:コンピュータやネットワークに不正な動作をさせるよう設計された悪意あるソフトウェアの総称。情報窃取やシステム破壊などに用いられる。
AIの悪用抑止は不可避 安全保障と革新のせめぎ合い
今回の措置は、AI技術が安全保障の新たな前線に立たされている現実を象徴している。
AIが悪意ある国家や組織によってスパイ活動や監視に利用されるリスクを早期に遮断できるシステムの構築は急務である。このような驚異的な質問に対する回答についてAI企業が自主的に制限を設けることで、国家間のサイバー競争における「技術の暴走」を防ぎ、民主社会の安全基盤を維持する効果が期待される。
一方で、こうした制限は技術革新のスピードを抑制する可能性もある。
監視技術そのものは、企業の不正対策や法執行機関の捜査にも役立ち得るが、その線引きは極めて難しい。AIの利用範囲が過度に制限されれば、正当な研究開発や新規事業の機会まで失われる懸念があると言える。
将来的には、AI事業者が独自判断で対応するだけでなく、国際的なルールづくりや透明性の高い監視メカニズムが必要になるだろう。
AIが安全保障の要素となる中、国家・企業・市民の三者がどこまでの介入を許容するかという新たな合意形成が求められている。











