2026年2月28日、米AI大手OpenAIが同社のAIモデルを米国防総省の機密ネットワークに導入することで合意したとBloombergが報じた。サム・アルトマンCEOは、安全原則を契約に明記したと説明している。
国防総省とAI導入で正式合意
今回の合意により、OpenAIのAIモデルは米国防総省の機密ネットワーク上で運用されることになる。
アルトマン氏はXへの投稿で、自社が重視する二つの原則を明示した。一つは国内における大規模監視の禁止、もう一つは自律型兵器システム(※)を含む武力行使において人間が責任を負うことである。
アルトマン氏は、「国防総省はこれらの原則に同意し、法律や政策に反映させている。われわれはそれらを合意内容に盛り込んだ」としており、国防総省側も承知した形だ。
さらにアルトマン氏はモデルが適切に作動するための技術的安全策も構築すると説明しており、防衛用途における運用管理体制の整備を進める。
軍事AI活用の拡大と統制の課題
今回の動きは、生成AIが商用領域を越え国家安全保障分野へ本格的に組み込まれる転換点と位置付けられる可能性がある。情報分析や意思決定支援の高度化という利点が想定され、防衛分野でのAI活用は今後一段と拡大すると考えられる。
一方で、軍事用途への関与は倫理的・政治的リスクも伴う。AIが意思決定過程に組み込まれることで、責任の所在や誤作動時の影響範囲が問われる場面は増えるだろう。
企業としての原則を契約に明記した点は透明性確保の一歩と言えるが、実際の運用監督がどこまで機能するかは今後の焦点となる。
民間AI企業と政府機関の関係はより緊密化する可能性があり、技術革新と規範整備のバランスが問われる局面に入ったと言える。
※自律型兵器システム:人間の直接的操作なしに目標選定や攻撃判断を行う能力を持つ兵器の総称。国際的に規制や倫理を巡る議論が続いている。
関連記事:
アンソロピックに米国防総省が警告 DPA適用でAIが国家安全保障に組み込まれる可能性
