OpenAI、米国防総省と2億ドル契約 AIが国家安全保障に本格参入へ

2025年6月16日、米国防総省はAI開発企業OpenAIと2億ドル規模の契約を締結した。
軍事およびエンタープライズ分野における国家安全保障課題への対応を目的としたAIプロトタイプ開発を行う。プロジェクトの完了は2026年7月を予定している。
OpenAI、国家安全保障領域でAI活用を本格化
米国防総省はOpenAIと約2億ドルの契約を結び、AI技術を活用した国家安全保障対応能力の強化に乗り出した。
今回の契約では、軍事分野およびエンタープライズ領域において、医療、調達、サイバー防衛といった多様な課題に対応するAIプロトタイプの開発が求められる。完了予定は2026年7月とされている。
OpenAIは公式ブログで、対象となるユースケースには「軍人およびその家族の医療サービス向上」「プログラム・調達関連データの効率的なアクセス」「サイバーセキュリティの強化」などが含まれると説明。これらすべての活用には、OpenAIが定める利用ポリシーとガイドラインの順守が求められるとしている。
CEOのサム・アルトマン氏は今年4月、元NSA長官で現OpenAI取締役のポール・ナカソネ氏との対談で、「われわれは国家安全保障の分野に携わらなければならないし、携わることを誇りに思っており、本当にそうしたいと思っている」と語っていた。
民間技術を公共セクターへ導入する動きは加速しており、その中でAIは中核技術として位置づけられつつある。
軍事利用の透明性と倫理が今後の焦点に
AIの国家安全保障分野への適用は、効率性や正確性の向上といった大きなメリットが期待できる一方で、倫理的・法的なリスクにも直面していると考えられる。
特にAIが意思決定プロセスに介在する場面では、誤作動や偏見による判断ミスが重大な問題を引き起こしかねない。
また、民間企業が開発したAIが軍事目的に使われることへの社会的な懸念も根強い。
Googleが過去に軍事プロジェクト「Project Maven」への参加を巡って社内から強い反発を受けた例もあり、OpenAIの今回の契約についても、社内外での透明性と説明責任が問われる可能性がある。
とはいえ、AIが戦略的資産として各国政府に注目されている現状において、民間主導の先端技術と公共部門の連携は今後さらに進展するだろう。
OpenAIの方針と行動が、今後の「軍事×AI」分野の倫理的ガイドライン策定にも影響を与えることは間違いないと考えられる。