エヌビディアの最新GPU「ブラックウェル」、AI学習性能やチップ効率が大幅に向上

2025年6月4日、米半導体大手エヌビディアの最新GPUアーキテクチャー「ブラックウェル」が、AIの学習能力を従来比で大幅に向上させたことが明らかになった。
ブラックウェル、前世代比で2倍超の処理性能を達成
エヌビディアが開発した新アーキテクチャー「ブラックウェル」が、AI学習(※1)用チップとしての性能において、前世代の「ホッパー」を大きく上回る結果を示した。
具体的には、MLコモンズ(※2)の性能試験によって、ブラックウェル1チップあたりの処理速度が、ホッパーの2倍以上に達したと明らかになった。
さらに、2496個のブラックウェルチップを使用したテストでは、AI学習プロセスをわずか27分で完了した。この水準の速度をホッパーで実現するには、実に3倍以上のチップが必要だったという。
処理速度や必要なチップ数の削減は、コスト削減と運用効率の両面で企業にとって重要な意味を持つ。
ブラックウェルの登場により、AI開発企業は、より少ない設備で高精度な学習環境を構築できるようになる。
最前線の研究開発において、競争力の更なる向上が期待できる。
※1 AI学習:大規模なデータセットを用いてAIモデルに知識やスキルを与える工程。AIの開発スピードを大きく左右する要素となる。
※2 MLコモンズ:機械学習のベンチマーク試験を行う米国の非営利団体で、業界標準の性能評価を提供する組織。
AIチップ需要の質が変化 小型高性能化が新潮流に
AI関連市場では近年、「推論(※3)」と呼ばれる実行フェーズへの関心が高まりつつあるが、AIの学習工程における半導体の性能は依然として重要な指標とされている。
特に、チップの「数」ではなく「質」で差がつく時代が到来している。
エヌビディアから出資を受けるAIクラウド企業コアウィーブのCPO(最高製品責任者)チェタン・カプール氏は、「AI業界では10万個以上の均質なチップ群を創出するより、個別のAI学習作業に対応したより小さなチップ群をサブシステムとして組み合わせる傾向があり、そうした手法を使えば、大規模モデルの学習時間を減らしたり、学習速度を引き上げたりできる」と述べている。
こうした構成によって、モデルの学習時間短縮と柔軟なスケーリングが可能になると分析している。
チップの省スペース化と高性能化が両立すれば、データセンターの電力負荷や冷却コストの削減にもつながるはずだ。これは、環境負荷の低減という観点からも大きな意義を持つと思われる。
今後、ブラックウェルのような新型GPUがAI開発の現場に急速に普及すれば、資本力の有無にかかわらず、多くの企業が高度なAIシステムを構築できる環境が整うだろう。
今回のエヌビディアの技術革新も、AI産業の勢力図を再編する契機となりそうだ。
※3 推論:AIが学習済みのモデルを用いて、実際のデータに対して判断・出力を行うプロセス。学習フェーズとは異なり、実行時の応答速度や効率が重視される。