NVIDIAとフランスのMistral AIが協業強化 オープンAIモデルをクラウドからエッジへ拡張

2025年12月12日、米NVIDIAは仏AI企業Mistral AIと協力し、新たなオープンモデル群「Mistral 3」ファミリーの展開を加速すると発表した。
NVIDIA公式ブログが伝えたもので、同モデルはNVIDIAプラットフォーム向けに最適化され、分散型AIの実装を現実のものとする。
NVIDIA最適化のMistral 3を発表、分散型AIを推進
Mistral AIは、オープンソースの多言語・マルチモーダルモデル「Mistral 3」ファミリーを公開した。
最上位モデルのMistral Large 3はMixture-of-Experts(※)構造を採用し、全ニューロンを常時稼働させず、重要なエキスパートのみを動的に活性化する設計となっている。
Mistral Large 3は410億のアクティブパラメーターと6,750億の総パラメーター、最大25万6,000トークンのコンテキストウィンドウを備え、エンタープライズAI向けに高い拡張性と効率性を提供する。
さらに、NVIDIAのGB200 NVL72システムと組み合わせることで、高度な並列処理とハードウェア最適化が可能となり、前世代のH200と比較して最大10倍の性能向上を達成した。
これにより、推論コスト削減やエネルギー効率の改善が期待される。
またMistral AIは、大規模モデルに加えて小規模モデル「Ministral 3 スイート」も公開した。
RTX搭載PCやJetsonなどのエッジ環境向けに最適化されており、クラウドからデータセンター、エッジまで一貫して利用できる点が特徴だ。
現状は、Llama.cpp や Ollamaを通じて使用できる。
モデルは、2025年12月2日から提供が開始されている。
※Mixture-of-Experts(MoE):複数の専門的サブモデル(エキスパート)を内蔵し、入力に応じて必要な部分のみを動作させるアーキテクチャ。計算効率と拡張性に優れる。
オープンモデル拡大の利点と課題、企業AIの行方
今回の発表は、AIを特定のクラウドに集約せず、必要な場所で動かす「分散型インテリジェンス」への流れを加速させるものと言える。
オープンモデルである点は、研究者や企業が自由に検証・改良できるという大きなメリットを持つ。
一方で、オープンであるがゆえに、セキュリティ管理やガバナンスは利用者側の責任が重くなりやすい。
特にエンタープライズ利用では、安全性確保や運用体制の整備が導入判断の鍵になる可能性がある。
今後、NVIDIA NeMoやTensorRT-LLMなどとの統合が進み、NVIDIA NIMとして提供されれば、企業はオープンモデルを前提としたAI基盤をより容易に構築できるだろう。
結果として、独自AIを内製・運用する企業が増え、AI活用の主導権がクラウド事業者から利用企業へと徐々に移る展開も考えられる。
関連記事:
エヌビディア、仏ミストラルAIと提携 欧州独自AI基盤の構築へ前進












