Anthropic、米政府向け機密AI「Claude Gov」発表 国家安全保障機関での導入が進行中

2025年6月5日、米AI企業Anthropicは、国家安全保障に関わる顧客専用に設計されたAIモデル「Claude Gov」を発表した。
既に米政府機関での導入が始まっており、AIと安全保障の連携が加速している。
国家安全保障機関専用のAI「Claude Gov」登場
Anthropicは、国家安全保障を担う米政府機関向けに特化した新しいAIモデル「Claude Gov」シリーズを発表した。
米国時間6月5日、同社の公式プレスリリースによって明らかにされた。
「Claude Gov」は、作戦立案、諜報活動、脅威分析など、多様な機密用途に対応できるよう設計されている。
言語および方言理解の能力を強化しており、サイバーセキュリティ関連データの解析にも対応するという。
Anthropicは、「Claude Govはすでに米国の最高レベルの国家安全保障機関で導入されており、これらモデルへのアクセスは、こうした機密環境で活動する者に限定されている」と明言しており、アクセスは厳しく制限されていると説明している。
開発には政府機関からのフィードバックが反映され、安全性テストの基準も同社の既存モデルと同様に満たしているという。
Anthropicは、「Claude Gov」についても「安全かつ責任あるAI」であることを強調している。
機密性の高い環境で活用される本モデルは、既存の商用AIとは一線を画しており、政府とAI企業との連携の深化を象徴する動きであると言える。
政府向けAI活用が拡大 安全保障と産業競争力の両立へ課題も
Anthropicによる「Claude Gov」の発表は、政府向けAI市場の拡大を示すと同時に、企業と国家との関係が再構築されつつあることを示唆している。
2025年1月にはOpenAIが「ChatGPT Gov」を発表し、特定ユースケースへの最適化が進んでいた。
GoogleのAIも既に米州兵による災害対応に利用されており、主要企業は政府との協業に軸足を移し始めている。
これらの動きは、7月に予定されているトランプ政権の「AI Action Plan」発表を見据えた布石とも読み取れる。
バイデン政権時代に推進されていたAIの倫理的運用や規制の枠組みは、トランプ大統領の下で大幅な見直しが進行しており、AI業界は規制緩和と政府支援を天秤にかけた戦略調整を迫られている。
一方で、政策の変更や予算の削減により、研究開発の持続性が左右される可能性があるなど、政府依存が高まることで生じるリスクも見逃せない。
政府側も、特定のAI企業に依存することで、情報が企業に流れるリスクもある。
政府の機密情報の安全な取り扱いと、企業の商業的展開のバランスをどう取るかが、今後の技術開発における重要な争点になるだろう。