メインコンテンツへスキップ
最新ニュース 3分で読める

OpenAI、ChatGPT悪用の中国系アカウント停止 AIと国家安全保障を巡る攻防

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

2025年10月7日、米OpenAIは中国政府機関と関連があるとみられるChatGPTの複数アカウントを停止したと発表した。アカウント利用者が、SNS上の監視方法を質問したことなどが理由としている。

監視手法の指示や不正行為で停止 国家安全保障方針に抵触

米OpenAIは7日、対話型生成AI「ChatGPT(チャットジーピーティー)」の利用に関し、中国政府機関とつながりがあるとみられる複数のアカウントを停止したと明らかにした。SNS上の会話を監視する方法について詳細な説明を求める質問や、監視ツールの開発支援といった行為が確認され、同社の国家安全保障に関するポリシーに違反したと判断したためである。

同社はまた、複数の中国語のアカウントを停止した。これらのアカウントは、偽装メールを用いたフィッシング攻撃やマルウェア(※)の作成支援にもChatGPTを活用していたという。

OpenAIは2024年2月以降、社会的リスクへの対応策として、AIの悪用に関する調査と報告を継続しており、これまでに40件以上の不正ネットワークを停止・報告してきた。
今回の対応もその延長線上に位置づけられ、生成AIが国家レベルの諜報活動やサイバー攻撃に利用されるリスクを抑止する狙いがあるとみられる。

※マルウェア:コンピュータやネットワークに不正な動作をさせるよう設計された悪意あるソフトウェアの総称。情報窃取やシステム破壊などに用いられる。

AIの悪用抑止は不可避 安全保障と革新のせめぎ合い

今回の措置は、AI技術が安全保障の新たな前線に立たされている現実を象徴している。

AIが悪意ある国家や組織によってスパイ活動や監視に利用されるリスクを早期に遮断できるシステムの構築は急務である。このような驚異的な質問に対する回答についてAI企業が自主的に制限を設けることで、国家間のサイバー競争における「技術の暴走」を防ぎ、民主社会の安全基盤を維持する効果が期待される。

一方で、こうした制限は技術革新のスピードを抑制する可能性もある。

監視技術そのものは、企業の不正対策や法執行機関の捜査にも役立ち得るが、その線引きは極めて難しい。AIの利用範囲が過度に制限されれば、正当な研究開発や新規事業の機会まで失われる懸念があると言える。

将来的には、AI事業者が独自判断で対応するだけでなく、国際的なルールづくりや透明性の高い監視メカニズムが必要になるだろう。

AIが安全保障の要素となる中、国家・企業・市民の三者がどこまでの介入を許容するかという新たな合意形成が求められている。

Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・ディープテック領域のキャリアに興味がありますか?

業界特化メディアを運営する専門エージェントが、企業のカルチャー・技術スタック・選考ポイントまで踏まえてキャリアをご提案します。相談は完全無料です。