2026年3月3日、米AI企業OpenAIのサム・アルトマンCEOは、米国防総省とのAI導入契約を急ぎ過ぎたとし、契約内容を明確化する追加条項を検討していると明らかにした。
OpenAI、国防総省契約の追加条項を検討
OpenAIのサム・アルトマンCEOは、米国防総省とのAI導入契約について「機会に乗じたずさんな」行動だったと述べ、契約締結を急ぎ過ぎたとの認識を示した。
発言はX上で行われたもので、現在は契約の原則をより明確化するための追加条項を盛り込む作業を進めているという。
具体的には、AIが米国民の監視に利用されないことや、国家安全保障局などの情報機関がOpenAIのサービスに依存できない仕組みを契約に盛り込む方向で進めていると説明した。
同社は2月27日、AIモデルを国防総省の機密ネットワークに導入することで合意したと公表していた。
一方、競合のAI企業アンソロピックは、自社技術が大規模監視や自律型兵器に使われない保証を求めて国防総省と対立している。
アルトマン氏は「AI技術には、まだ対応できていないことが多く、安全性のために必要な代償についても十分に理解できていない分野が数多くある」と述べ、今回の件を「良い教訓」になったとの考えを示した。
軍事AIの透明性と企業倫理の試金石
今回の動きは、AI企業が国家安全保障分野とどのような関係を築くべきかという問題を改めて浮き彫りにしたと言える。
生成AIは情報分析やサイバー防衛、戦略シミュレーションなど多くの軍事用途で活用可能であり、政府との契約は巨大市場への入口となり得る。
一方で、監視社会や自律兵器への転用リスクは、AI企業の社会的責任を問う重大な論点だ。技術企業が国家機関と協力する場合、利用範囲や倫理的制約を契約上でどこまで具体化できるかが重要になるだろう。
今回のOpenAIの契約見直しは、生成AI時代における軍事AIガバナンスの初期的な試行とも言える。今後は契約条項の透明性や利用範囲の規定が、AI企業と政府の協力関係の新たな標準になる可能性がある。
関連記事:
OpenAI、米国防総省の機密ネットワークへAI導入 安全原則合意で軍事分野に本格展開

