2026年3月6日、英紙Financial Timesは、米国政府がAI企業との契約において、政府がAIモデルを「あらゆる合法的用途」で利用できるよう義務付ける新たな契約指針を策定したと報じた。背景には、Anthropicと米国防総省の対立がある。
米政府、AIの「合法用途全面利用」契約を検討
報道によると、米政府はAI企業との契約において、政府がAIシステムを「あらゆる合法的な目的」で利用できるようにする指針案を策定した。政府と取引を希望する企業は、自社のAIモデルについて取り消し不能の利用ライセンスを政府に付与することが求められるという。
この指針案は、政府調達を統括する米国一般調達局(GSA)が作成したもので、民間企業とのAI契約に広く適用される想定だ。AIサービスの調達を強化する米政府の取り組みの一環であり、国防分野で検討されている契約条件の考え方も反映されているとされる。
こうした動きの背景には、AIの軍事利用を巡る企業と政府の摩擦がある。2026年3月5日、米国防総省はAIスタートアップのAnthropicを「サプライチェーン(供給網)上のリスク(※)」に指定し、政府請負業者が同社の技術を軍関連業務で利用することを禁止した。
両者は数カ月にわたり、AIの軍事利用の制限を巡って対立していたとされる。国防総省は同社の安全対策が軍事用途を過度に制限していると主張しており、今回の措置はその延長線上にある可能性がある。
さらに指針案では、AIシステムの出力について「党派的またはイデオロギー的な判断を意図的に組み込んではならない」とする規定も盛り込まれている。政府調達におけるAIの中立性を担保する狙いがあるとみられる。
※サプライチェーン上のリスク:政府や企業の調達網において、安全保障や情報漏洩などの危険がある企業・技術を排除するために指定されるリスク分類。近年はAIや半導体など戦略技術分野で重要視されている。
AI国家利用拡大の利点と企業の倫理課題
もしこの指針が正式に導入されれば、米政府によるAI活用は大きく拡大する可能性がある。政府がAIモデルの利用権を広く確保することで、情報分析やサイバー防衛、軍事シミュレーションなど国家安全保障分野でのAI導入は加速するだろう。AIが安全保障の中核技術と位置付けられる中、国家主導の利用枠組みを整備する動きは今後強まる可能性がある。
一方で、AI企業にとっては倫理方針との衝突が課題となりうる。近年の生成AI企業は、軍事用途や暴力的用途への利用を制限する安全ポリシーを掲げるケースが増えている。政府契約の条件として「合法用途の全面利用」が求められれば、企業が独自に設ける利用制限の余地は狭まる可能性がある。
また、研究者やエンジニアの価値観との摩擦も想定される。AI開発コミュニティでは軍事利用への慎重論も根強く、企業の方針次第では人材確保やブランド評価に影響が出る可能性も否定できない。
結果として、AI産業の競争軸は技術力だけでなく「国家との関係性」にも広がる可能性がある。政府主導のルール形成が進めば、AI企業は市場機会と倫理方針のバランスをどう取るかという新たな経営判断を迫られる場面が増えるとみられる。
関連記事:
米政府機関がアンソロピックAI使用停止 国務省はGPT-4.1へ切り替え

アンソロピック、米国防総省の軍事AIドローンコンペに応募していた 提案採択されず
