ASUS JAPANは、米NVIDIAのGTC 2026でVera Rubin採用の液冷AIインフラを発表した。ラックからエッジまで一貫したAI基盤を提供することで、優れた電力効率とコスト最適化を可能にする。
ASUS、液冷AIインフラを包括展開
ASUSは、NVIDIA Vera Rubin NVL72を基盤とした「ASUS AI POD」を中心に、完全液冷型のAIインフラ群を発表した。米国で2026年3月16日〜3月19日に開催された「NVIDIA GTC 2026」で発表され、2026年4月16日に改めて公表された。
運用面ではPUE(※1)やTCO(※2)の削減を前提とした設計が強調されており、電力効率とコスト最適化を両立するAIインフラとして位置づけられる。
フラッグシップの「XA VR721-E3」は最大227kWの熱設計電力に対応し、ワット当たり性能を従来比で最大10倍に高める設計となる。兆規模パラメータのAIモデルを前提としたラックスケール処理に対応している。
同時に、液冷・空冷・ハイブリッド冷却を組み合わせた複数のサーバー群も提示された。GPUを液冷化しCPUを空冷とする構成や、フル液冷モデルなどを揃え、既存データセンターから段階的に移行できる設計としている。
さらに、「フィジカルAI」の完全なエコシステムを確立したことも発表された。
大規模モデルの学習を牽引する「ExpertCenter Pro ET900N G3」や、超小型基盤「Ascent GX10」により開発されたモデルが、推論エンジン「PE3000N」へと引き継がれることで、自律走行やセンサー統合に必要なリアルタイム計算を可能にする。これにより、AIが物理世界で「認識・推論・行動」することを支援するという。
加えて、NVIDIA NemoClawとの統合により、エージェンティックAI(※3)の安全な社内運用を支援することも発表されている。オンプレミス環境での自律型AI活用により、企業の機密データを守りつつ、安全で拡張性の高い自動化ワークフローを構築可能にする。
※1 PUE:データセンター全体の消費電力に対するIT機器の電力割合を示す指標。低いほど効率が高い。
※2 TCO:システム導入から運用までにかかる総所有コストのこと。
※3 エージェンティックAI:自律的に判断し複数タスクを連携実行するAIシステム
電力効率競争と導入格差の行方
今回の発表が示す最大のメリットは、AIインフラにおける電力効率の抜本改善であろう。
液冷技術によって高密度化と省電力化を同時に実現できれば、データセンターの制約は緩和され、AI導入のスケール拡大は後押しされると考えられる。特に電力供給が制約となる地域では、競争優位を左右するための重要な要素になる可能性が高い。
一方で、液冷インフラは初期コストが高く、保守や障害対応も複雑化しやすいと考えられるため、導入には設備投資や専門的な運用体制が不可欠となるはずだ。
さらにエージェンティックAIの活用は、セキュリティやガバナンスの高度化を伴うため、企業側の統制能力が問われる局面は増えることになりそうだ。
今後は、こうした高効率インフラを前提とした「AIファクトリー」化が進む一方、導入できる企業とそうでない企業の格差が拡大する可能性がある。クラウド依存からオンプレミス回帰の流れも含め、AI戦略そのものが再編されるかもしれない。
関連記事:
NVIDIA、次世代AI基盤「Vera・Rubin」発表 推論性能5倍で2026年後半に投入

AIデータセンター建設を加速 液冷インフラを3社連携で一括提供へ

PFN・IIJ・JAIST、水冷AIデータセンターを白井で運用開始 省エネ基盤へ
