AI企業アンソロピックが米国防総省のドローン群制御技術コンペに応募していたと、ブルームバーグが関係者の話として2026年3月3日に報じた。
アンソロピックは軍事AIの利用範囲を巡り国防総省と交渉を続けていたが、最終的に提案は採択されなかったと関係者が明らかにした。
米国防総省のAIドローン群制御コンペに応募
ブルームバーグは、AI開発企業アンソロピックが2026年、米国防総省が実施する賞金付きコンペティションに提案を提出していたと、事情に詳しい関係者の話として報じた。
対象となるのは音声制御によって自律型ドローンの群れを指揮する技術であり、同社の対話型AI「Claude」を活用する構想だったと関係者が明らかにしている。
このコンペは賞金総額1億ドルの研究開発プロジェクトで、ソフトウェア開発から実環境での試験まで5段階で進行する計画である。
初期段階ではソフトウェア開発に焦点を当て、その後は実機プラットフォームを用いた検証が予定されている。
開発対象は空や海など複数領域にまたがるドローンの動きを統合的に制御するシステムで、後段階では状況把握や情報共有、発射から任務終了までの一連の運用プロセスの開発が求められている。
関係者によると、アンソロピックは当初、ドローンのスウォーム(群れ)制御技術の開発が自社のレッドライン(※)を越えるものではないと判断していた。
提案では人間がシステムを監視し、必要に応じて停止できる仕組みを想定しており、AIが自律的に標的を選定したり攻撃を決定したりする設計ではなかったとされる。
同社は最終的に採択企業には含まれなかった。
採択された提案にはイーロン・マスク氏のSpaceXとxAIによる案のほか、防衛テクノロジー企業による提案が含まれており、いずれもOpenAIがパートナーとして参加していたという。
※レッドライン:企業や組織が越えてはならないと定める倫理的・運用上の境界線。AI企業では軍事利用や監視用途などの制限として設定されることが多い。
軍事AIを巡る企業倫理と市場競争
今回の事例は、AI企業が軍事分野とどのような距離感で関わるべきかという課題を象徴するものとなりそうだ。
アンソロピックは軍事用途のAIについて一定の協力姿勢を示しながらも、完全自律型兵器や大規模監視といった用途には明確な制限を設けている。
こうした倫理的基準を維持する姿勢は、AI技術の社会的信頼を確保する上で一定の意義を持つと言える。
一方で、防衛分野はAI技術の巨大な市場でもある。
各国政府が自律型ドローンや軍事AIへの投資を拡大する中で、企業が参加を見送れば競争力の面で不利になる可能性もある。
実際に今回のコンペでは他のAI企業や防衛テクノロジー企業が提案を採択されているため、軍事AIを巡る企業間競争は今後さらに激しくなると考えられる。
ドローン群制御技術の導入は作戦面での利点がある一方、AIが戦闘判断に関与することへの倫理的懸念も無視できない。
AI企業が技術開発と倫理基準の両立をどのように図るかは、今後の軍事AI政策や国際的なルール形成にも影響を与えるテーマとなりそうだ。
関連記事:
米軍がイラン攻撃にアンソロピックAI活用 使用停止命令下で
