2026年2月23日、米AI新興企業のAnthropicは、中国のAI企業3社が同社の生成AIモデル「Claude」を不正利用し自社モデルの改良に用いたと公表した。
安全対策を欠いた派生モデルが拡散すれば、国家安全保障上の重大リスクにつながる恐れがあると警告している。
中国3社がClaudeを大量蒸留
Anthropicによると、中国の新興AI企業であるDeepSeek、Moonshot AI、MiniMaxが、約2万4,000件の偽アカウントを用いて1,600万件超のClaudeとの対話を生成していた。
「蒸留(distillation)(※)」と呼ばれる手法で自社モデルを訓練し、性能向上を図ったという。
今回のケースでは、利用規約や地域アクセス制限に違反する形で実行されたと指摘している。
中国企業の「蒸留」問題については、他社からも懸念の声が挙がっている。
対話型AI「ChatGPT」を展開するOpenAIも今月12日、米下院の対中戦略特別委員会に対し、中国企業が米主要AI企業のモデルを複製し自社学習に利用していると警告していた。
なお今回の件に関してDeepSeek、Moonshot AI、MiniMax3社からの声明は得られていない状況であるという。
※蒸留(distillation):高性能な大規模AIモデルの出力結果を学習データとして利用し、より小規模なモデルに知識や推論能力を移転する技術。効率的な性能向上が可能だが、権利や契約違反の問題を伴う場合がある。
技術革新の加速と安全保障リスク
「蒸留」の技術そのものは、計算資源を抑えつつ高性能モデルを構築できる点で合理性がある。新興企業や研究機関にとっては、開発スピードを飛躍的に高める手段になり得る。結果としてAIの民主化が進み、市場競争が活性化する可能性もある。
一方で、正規の安全対策やガードレールを経ないモデルが流通すれば、有害情報生成やサイバー攻撃支援などのリスクが増幅しかねない。
仮にそれらのモデルがオープンソースとして公開された際には、各国政府の統制を超えて拡散し、国家安全保障上の脅威へ発展する懸念もある。
今後はAPI監視の高度化やアクセス制御の強化が進むと考えられる。
同時に、国境を越えたAIガバナンスの枠組み整備が不可欠になるだろう。
生成AIを巡る競争は単なる性能比較ではなく、「安全設計と統治能力」を含めた総合戦へ移行しつつあるのかもしれない。
関連記事:
OpenAIがDeepSeekのAI学習に米モデル蒸留疑い指摘 米中AI競争の新局面

アンソロピック、インドでエージェント型AI「Claude Code」導入加速 開発現場が変化

DeepSeek、半導体規制下でもAI競争へ 効率化論文で設計思想を提示

