米フォーブスは、米AI企業アンソロピックが、米国防総省による「サプライチェーン上のリスク」指定を巡り、トランプ政権を提訴したと報じた。
アンソロピックは、この指定により連邦政府契約の多くから排除されたと主張している。
国防総省の供給網リスク指定で提訴
米国防総省がアンソロピックを「サプライチェーン上のリスク」に指定したことを受け、同社はトランプ政権を相手取り、カリフォルニア州連邦裁判所に訴訟を提起したと、フォーブスが2026年3月9日に報じた。
訴状では、この措置が「前例がなく違法」であり、アンソロピックの「保護された言論」に対する処罰に当たると主張している。
今回の指定により、政府機関や政府契約企業がアンソロピックのAI「Claude(クロード)」を政府業務で使用することが禁止される状況になった。これを受け、同社は裁判所に対し指定の差し止めを求めている。
訴状では、トランプ大統領のSNS「トゥルース・ソーシャル」や、ピート・ヘグセス国防長官のXへの投稿が引用されている。
これらの発信を受け、財務省や連邦住宅金融局(FHFA)など他の政府機関がClaudeの利用停止に追随したと同社は主張した。
またアンソロピックは、政府契約の喪失によって「即時的かつ回復不可能な収益損失」が生じていると説明している。
政府と契約する企業の間でも、提携停止や契約解除を検討する動きが出ているという。
背景には、AI技術の利用範囲を巡る政府との対立がある。アンソロピックは2025年7月に国防総省と2億ドル(約316億円)の契約を締結していたが、米国内での大規模監視や完全自律型AI兵器への利用に関する安全基準の削除要求を拒否したとされる。
これを受け、ヘグセス長官は2月27日に同社をサプライチェーンリスクに指定すると発表し、先週正式決定された。
AI安全原則と国家安全保障の衝突
今回の訴訟は、AI企業の安全原則と国家安全保障政策の関係を巡る議論を浮き彫りにしたと言える。
AI技術は防衛分野での活用が拡大している一方、企業ごとに利用制限の基準が設けられており、その差異が政府調達との摩擦を生む可能性がある。
アンソロピックは、「責任あるAI開発」という理念を掲げているため、監視用途や完全自律型兵器への利用に対しては慎重な立場を取っているとみられる。
企業側が技術の利用範囲を自主的に制限することは、安全性の観点では一定の意味を持つと考えられる。
一方で、政府調達においては供給網の信頼性や運用上の柔軟性が重視される傾向にあると推察できる。
防衛用途では技術的な制約が作戦運用に影響する可能性もあるため、企業の安全原則と政策目的の間で調整が必要になる場面も想定される。
今後の司法判断は、AI企業が政府契約に参加する際の条件や責任範囲を巡る重要な指標となり得る。
AI技術が国家安全保障と密接に結びつく中で、企業倫理と政策要請のバランスをどう取るのかという課題は、今後も議論の焦点になり続けるだろう。
関連記事:
トランプ大統領、米政府機関のアンソロピック使用停止 国務省はGPT-4.1へ
