NVIDIA、分散したデータセンターを結ぶ「Spectrum-XGS Ethernet」発表 AIスーパーファクトリー構築へ

現地時間2025年8月22日、米NVIDIAは分散データセンターを統合し、ギガスケールのAIスーパーファクトリーを可能にする新技術「Spectrum-XGS Ethernet」を発表した。
既存のネットワークの制約を解消し、AI需要の急拡大に対応する狙いだ。
複数データセンターを統合しギガスケールAI基盤を形成
NVIDIAが公開した「Spectrum-XGS Ethernet」は、既存のSpectrum-X Ethernetプラットフォームに統合される新技術である。
現在は、AI需要の増大により単一施設での電力や容量に限界が生じ、システムを構成するサーバーの台数を増やすことでシステムの処理能力を高める、「スケールアウト」を行う必要性が高まっている状況だ。
しかし従来のイーサネット環境では遅延やジッターが大きく、パフォーマンスの予測可能性に欠ける点が課題だった。
Spectrum-XGS Ethernetはこの課題を解決するために開発されたスケーラブル技術だ。NVIDIAはデータセンターを相互接続する「スケールアクロス」という新たな概念を導入し、部品のスペックを上げるスケールアップや、サーバーそのものを増やすスケールアウトに続く新しいアプローチとして位置付けた。
都市や国境を超えた施設間を結び、大規模なAIファクトリーを構築することを目的とする。
Spectrum-XGS Ethernetは、距離に応じてネットワークを動的に調整するアルゴリズムを持ち、輻輳制御や遅延管理を高度に自動化する。
さらに、NVIDIAのマルチGPUライブラリNCCLの性能を約2倍に高め、地理的に分散したクラスターでも予測可能な通信を実現するという。
CEOのジェンスン・フアン氏は「都市、国、大陸を超えてデータセンターを巨大なギガスケールのAIスーパーファクトリーに接続することが可能になりました」と強調した。
AIインフラの拡張を加速も、エネルギーとコスト課題残る
Spectrum-XGS Ethernetがもたらす最大のメリットは、地理的に離れたデータセンターを単一のAIファクトリーとして運用できる点にある。
これにより数百万台規模のGPUを接続し、AIモデルの学習や推論を大規模に効率化できる。
一方で、巨大規模のAI基盤を構築することは、電力消費や冷却コストの増大を伴うリスクもある。
NVIDIAはシリコンフォトニクスを含む技術革新で効率性の改善を図るとするが、持続可能性の観点ではエネルギー政策や規制の影響を受ける可能性が高い。
市場では、AI向けインフラにおける性能とコストのバランスが競争力を左右する要素となる。
今後、AIスーパーファクトリー構想がグローバル規模で現実のものとなるかは、技術革新と制度設計の両輪が噛み合うかどうかにかかっていると言える。