2026年4月19日、米ニュースサイトのアクシオスは、米国家安全保障局(NSA)がアンソロピックの生成AI「クロード・ミトス」を使用していると報じた。同社は安保リスク企業に指定されており、政府内での運用との整合性が問われている。
NSA、リスク指定AIを運用か
アクシオスの報道によると、米国家安全保障局(NSA)がアンソロピックの最新生成AI「クロード・ミトス」を活用している可能性が浮上した。NSAは国防総省傘下で通信傍受や情報分析を担う機関であり、導入される技術は国家安全保障に直結する性質を持つ。
一方でアンソロピックは、トランプ政権により安全保障上のリスク企業に指定され、政府調達から排除される方針が示されている。このため、同一政府内で評価と実運用に乖離が生じている構図となる。
ミトスの具体的な用途は明らかではないが、関係者の話として国防総省内でも広く使用されていると伝えられている。同モデルはOSなどの脆弱性を特定する能力に優れるとされ、サイバー防衛やシステム監査への応用が想定される。
技術優先の利点と統治リスク
今回の動きは、安全保障領域におけるAI活用のメリットとリスクを同時に浮き彫りにする可能性がある。まず利点として、ミトスのような高性能モデルを導入することで、サイバー攻撃の検知や脆弱性分析の精度が向上し、対応速度の短縮につながる可能性がある。特に国家レベルの防衛では、こうした即応性が競争優位につながると考えられる。
一方で、リスク指定企業の技術を使用することは、サプライチェーン上の不確実性や情報漏洩リスクを内包する可能性がある。政府としての方針と実運用が一致しない状態が続けば、対外的な信頼性の低下や政策の一貫性欠如を招く懸念も指摘される。
さらに、ミトスは不正利用への懸念から限定提供にとどめられている非公開モデルであり、その扱いには高度なガバナンス(※)が求められる可能性がある。国家機関による利用が正当性を補強する可能性がある一方、規制の強化や利用制限の議論を加速させる契機となることも考えられる。
今後は、AIベンダーのリスク評価と実際の性能価値をどのように統合するかが重要な論点となる見通しだ。各政府機関が個別判断で導入を進めれば統制が分断される可能性もあり、統一的な評価基準の整備が求められる局面にある。AIが安全保障の中核技術となる中、その統治のあり方は引き続き議論の対象となるだろう。
※ガバナンス:組織や国家において、ルールや方針に基づき意思決定や運営を統制・管理する仕組み。AI分野では安全性や透明性を確保する枠組みを指す。
関連記事: