2026年5月5日、米商務省はGoogle DeepMind、Microsoft、xAIの3社と、新型AIモデルの事前審査に関する合意を締結したと発表した。公開前のAIを米政府が評価する仕組みであり、OpenAIやAnthropicに続いて米主要AI企業がすべて審査網に加わった。米国のAI政策は、競争促進から安全保障統合へと大きく舵を切り始めている。
米主要AI企業が政府審査網へ全面参加
今回の合意では、Google DeepMind、Microsoft、xAIの3社が、新たに開発したAIモデルを一般公開前に米政府へ提出し、安全性や国家安全保障上のリスク評価を受ける。審査を担うのは、米商務省傘下のAI標準・イノベーションセンター(CAISI)(※)である。
特徴的なのは、企業側が安全機能を一部弱めた状態のモデルも提供する点だ。これにより、通常環境では見えにくい危険性や脆弱性を政府側が検証しやすくなる。評価には政府横断組織「TRAINSタスクフォース」も加わり、機密環境でのテストや継続的なフィードバックを実施する。
AIモデルの能力は急速に向上しており、サイバー攻撃、自動化された情報工作、重要インフラへの干渉などへの悪用リスクが国際的に警戒されてきた。特に大規模言語モデルは汎用性が高く、単なるチャットツールではなく、国家レベルの影響力を持つ技術として扱われ始めている。
米国ではすでにOpenAIとAnthropicが同様の枠組みに参加していた。今回、GoogleやMicrosoft、xAIが加わったことで、米国の主要フロンティアAI企業がすべて政府の事前審査ネットワークに組み込まれた形になる。
※CAISI:米商務省傘下のAI標準・イノベーションセンター。先端AIモデルの安全性や国家安全保障リスクを評価する機関で、未公開AIの検証や継続監査を担う。
AI競争は「開発速度」から「国家管理」へ
今回の動きは、AI産業のルールが大きく変化し始めたことを示していると総括できる。
これまでAI企業は「いかに早く高性能モデルを公開するか」を競ってきたが、今後は「国家安全保障と両立できるか」が新たな競争条件になる可能性が高い。
政府による事前審査には、リスク抑制という利点がある。公開前に危険性を把握できれば、重大な悪用や社会混乱を未然に防ぎやすくなるためだ。特に軍事転用やサイバー領域では、AIの能力向上が直接的な安全保障課題になりつつある。
一方で、政府関与の強化には懸念も存在する。
審査の長期化によって開発スピードが低下する可能性があるほか、国家主導の基準が技術革新を制約するリスクも否定できない。AI市場では、中国勢との競争も激化しており、安全性と競争力をどう両立するかは今後の大きな焦点になる。
また、今回の枠組みは米国内にとどまらず、各国のAI規制にも波及する公算が大きい。欧州連合(EU)はすでにAI法整備を進めており、日本を含む各国でも政府主導の監督体制を求める議論が強まる可能性がある。
AIは民間テクノロジーでありながら、同時に国家戦略資産として管理される時代へ入り始めたと言えそうだ。
関連記事: