NVIDIA、次世代AI基盤「Vera・Rubin」発表 推論性能5倍で2026年後半に投入

米NVIDIAはCES 2026の基調講演で、AIデータセンター向けの新CPU「Vera」と新GPU「Rubin」を正式発表した。
Blackwell後継として推論性能5倍を掲げ、2026年後半に主要クラウドやOEM経由で提供する。
NVIDIA、VeraとRubinを正式発表
2026年1月5日、米NVIDIAは米ラスベガスで開催されたCES 2026の基調講演において、AIデータセンター向けの新型CPU「Vera」と新型GPU「Rubin」を正式発表した。
いずれも同社CEOのジェンスン・フアン氏が登壇する場で公開され、従来から示されていた製品ロードマップが具体化した形となる。
Rubinは現行世代GPU「Blackwell(B300/B200/B100)」の後継に位置づけられ、新しいGPUアーキテクチャとHBM4メモリを採用する。
NVFP4(※)での演算性能は、推論が50PFLOPS、学習が35PFLOPSとされ、Blackwell世代の10PFLOPSと比べて推論で5倍、学習で3.5倍に向上した。
メモリ帯域幅はHBM4により22TB/sとなり、Blackwell比で約2.8倍に拡大する。
GPUあたりのNVLink帯域幅は3.6TB/sで、こちらも従来比2倍の水準となる。
CPUのVeraは、Armアーキテクチャを採用し、NVIDIAがカスタム設計したOlympusコアを88基搭載する。
独自の仮想マルチスレッディング技術により最大176スレッドとして利用でき、SOCAMM規格のLPDDR5Xメモリを最大1.5TB、帯域幅1.2TB/sで構成可能とされた。
加えて、NVIDIAはVera 1基とRubin 2基を1モジュールに統合した「Vera Rubin」や、36モジュールを1ラックに集約する「Vera Rubin NVL72」を用意する。
※NVFP4:AI向けに想定された低精度演算形式の一つ。演算量を抑えつつ処理効率を高めることを目的としている。
AIインフラ競争に与える影響
VeraとRubinの投入により、AIデータセンターにおける計算資源の効率は大きく引き上げられる可能性がある。
推論・学習の性能向上とトークン単価の低下は、企業が同じ予算でより多くのAI処理を実行できる環境を整え、エージェント型AIやMoEモデルといった高度な手法の実用化を後押しすると考えられる。
一方で、HBM4や高速インターコネクトを前提とする構成は、供給量や価格、導入難度の面でリスクも伴う。
先端メモリの調達制約や消費電力、冷却設計の高度化は、GPU性能の向上だけでは解決できない課題として残る。
結果として、大規模投資が可能なクラウド事業者や一部の大企業に優位性が集中する構図が強まる可能性もある。
今後は、2026年後半の提供開始以降、主要CSPやOEM経由での実装事例がどの程度の速度で広がるかが焦点となり得る。
Rubin世代の性能が実運用でどこまで引き出されるか、また供給の安定性が確保されるかによって、AIインフラ競争の主導権がさらにNVIDIAに傾くのか、それとも代替アーキテクチャとの競争が活性化するのかが左右される局面に入るだろう。
関連記事:
NVIDIA、オープンモデル「Nemotron 3」発表 Nano・Super・Ultraの3モデル展開











