NVIDIA、オープンモデル「Nemotron 3」発表 Nano・Super・Ultraの3モデル展開

米NVIDIAはオープンモデル群「NVIDIA Nemotron 3」を発表した。
Nano、Super、Ultraの3モデルを展開し、オープン性と効率性を重視した設計で、業界横断的なAI活用を後押しする。
Nanoは米時間2025年12月15日より提供を開始し、SuperおよびUltraは2026年上半期の提供を予定している。
Nemotron 3発表、Nano即日提供し3サイズ展開
2025年12月15日、NVIDIAは、エージェント型AIの構築を目的としたオープンモデルファミリー「Nemotron 3」を発表した。
モデルはNano、Super、Ultraの3種類で構成され、Nanoは発表当日の12月15日から利用可能となっている。SuperおよびUltraは2026年上半期の提供開始を予定している。
Nemotron 3は、ハイブリッド潜在Mixture-of-Experts(※)アーキテクチャを採用する。
Nanoは約300億パラメータ規模で、推論時に最大約30億パラメータがアクティブ化される設計となっている。
最大100万トークンのコンテキストウィンドウを備え、長文処理や複数ステップのタスクに対応する。
NVIDIAによれば、Nemotron 3 Nanoは前世代のNemotron 2 Nanoと比べ、トークンスループットが最大4倍に向上し、リーズニング用トークン生成量を最大60%削減した。
これにより推論コストの低減を実現したとしている。独立評価機関Artificial Analysisは、同規模帯のモデルの中で高い効率性と精度を備えると評価した。
あわせてNVIDIAは、約3兆トークン規模の事前学習・事後学習・強化学習データセット、強化学習用ライブラリ「NeMo Gym」「NeMo RL」、評価基盤「NeMo Evaluator」を公開した。
モデルとツールはGitHubやHugging Faceを通じて提供され、Nemotron 3 Nanoは各種推論サービスやAmazon Bedrock経由で利用できる。
※Mixture-of-Experts:入力内容に応じて複数のサブモデルの一部のみを選択的に起動する手法。総パラメータ数を増やしつつ、推論時の計算量やコストを抑えやすい特徴がある。
オープンモデル化が促す効率化と運用上の課題
Nemotron 3のオープン提供は、エージェント型AIの開発と運用におけるコスト削減と柔軟性向上につながる可能性がある。
複数サイズのモデルを用途に応じて使い分けることで、単一の大規模モデルに依存せず、効率的なAIワークフローを構築しやすくなる点は大きな利点と言える。
一方で、マルチエージェントAIの本格運用では、モデルの振る舞い管理や安全性確保が重要な課題になると考えられる。
オープンモデルは透明性が高い反面、実運用における権限管理や誤動作時の影響範囲を開発者自身が設計・管理する必要がありそうだ。
今後、SuperおよびUltraが提供開始されれば、軽量なNanoで日常的な処理を行い、高度な推論が必要な場面のみ大規模モデルに振り分ける運用が広がる可能性がある。
オープンモデルを前提としたエージェント設計と運用体制の成熟が、企業のAI活用を左右する要素の一つとなりそうだ。
関連記事:
Zoom、NVIDIAと協業 金融・医療・行政に高性能AIエージェント「AI Companion 3.0」提供












