Anthropicのダリオ・アモディCEOは、米国防総省から求められていたAIの軍事活用拡大について譲歩を拒否する声明を発表した。
国家安全保障向けの提供は継続しつつ、特定用途は認めない立場を明確にしている。
国防総省のAI活用拡大要求を拒否
米国時間2026年2月26日、Anthropicは米国防総省から要求されているAIの軍事分野における活用拡大について、受け入れない方針を表明した。ダリオ・アモディCEOが声明を公表したものである。
Anthropicはこれまで、「Claude」などのAIモデルを国防総省や国家安全保障機関に提供してきた。
用途は情報分析、モデリング・シミュレーション、作戦計画、サイバー作戦など、ミッションクリティカル(※)な領域に及ぶ。
また、米国がAI分野で優位を維持できるよう、中国共産党関連企業によるClaude利用を制限するなど、政府に協力してきた経緯がある。
一方、国防総省との契約には「国内における大規模監視」および「完全自律型兵器」は含まれていない。
Anthropicは、これらは今後も契約に含めるべきではないとの立場を示した。
国内のAI駆動型大規模監視は基本的自由やプライバシーにリスクをもたらすとし、完全自律型兵器については安全装置が存在しないとしている。
また、戦争省(The Department of War)は「あらゆる合法的使用」に同意し、安全対策を撤廃するAI企業のみと契約するとの声明を出した。
Anthropicが安全対策を維持する場合、契約から排除し「サプライチェーンリスク」に指定するという。
これに対しAnthropicは、「立場を変えず、良心に従い、彼ら(国防総省)の要求を受け入れることはできない」とし、仮に契約が解除された場合でも、進行中の軍事計画や重要任務に支障が出ないよう他プロバイダーへの円滑な移行を支援すると表明している。
※ミッションクリティカル:停止や誤作動が重大な損害を招く重要業務領域を指す。
安全重視と軍事需要の緊張
今回の発表は、国家安全保障向けにAIを提供しつつも、用途に明確な制限を設ける姿勢を示した点に特徴があると言える。
安全対策を維持することで、企業としての倫理基準や民主主義的価値との整合性を保とうとする意図が読み取れる。
一方で、国防総省が安全対策の撤廃を条件に契約先を選別する方針を示したことで、調達先の再編が進む可能性もある。
安全基準を緩和する企業が優先されれば、技術供給の構図は変化しかねない。
軍事分野におけるAI活用は拡大基調にあるが、どこまでを許容範囲とするかという基準づくりが今後の焦点になるだろう。
企業の安全方針と国家の安全保障ニーズがどのように折り合うかが、業界全体の方向性を左右することになりそうだ。
関連記事:
アンソロピックに米国防総省が警告 DPA適用でAIが国家安全保障に組み込まれる可能性

Anthropic公表、中国AI3社がClaude蒸留 安全保障リスクを懸念

