Supermicro、液冷対応のDCBBSでAIデータセンター構築を加速

2025年5月15日、米SupermicroはAI対応データセンター向けの新ソリューション「DCBBS(Data Center Building Block Solutions)」を発表した。液体冷却技術を核とした統合型の構成により、高性能GPUを効率的に運用でき、導入期間と運用コストの削減を同時に狙える構成が特徴である。
液冷×GPU2048基の拡張性 DCBBSで実現する効率化と高速導入
Supermicroが公開したDCBBSは、AIワークロードに最適化された液体冷却型のビルディングブロックソリューションであり、サーバー、ストレージ、ネットワーク、ラック、冷却装置からサービスまでを包括的にカバーするという。
この仕組みにより、AIデータセンターの構築や運用における複雑性を大きく軽減できると見られている。
最大256ノードから成るスケーラブルユニットの「AI Factory DCBBS」では、各ノードに液冷式「Supermicro NVIDIA HGXシステム」が搭載され、1ノードあたり8基のNVIDIA Blackwell GPUが組み込まれる。これにより、2048基のGPUを相互接続する超大規模なAI処理基盤を構築できる仕組みだ。
接続インフラには800Gb/sに対応したNVIDIA Quantum-X800 InfiniBandまたはSpectrum X Ethernetが採用されており、演算リソースを高速かつ安定的に活用できる。
冷却面では、SupermicroのDLC-2(※)の技術を採用しており、空冷と比較して最大40%の電力および水の消費量を削減できるとされる。
また、冷却効率の向上により設置スペースも最大60%削減できるとされ、コスト面および物理的制約の両面において導入企業にとってメリットが大きいとみられる。
AI市場への波及とSupermicroの展望
Supermicroは、DCBBSの導入後も包括的なサポート体制を提供する構えだ。
オンサイト支援に加えて、システム管理を効率化するツール「SuperCloud Composer」を提供し、AIクラスターの構成、監視、トラブル対応、拡張に至るまでを一元管理できる環境を整えているとしている。
これは、単なる製品販売ではなく、長期運用における安定性も視野に入れた設計といえるだろう。
一方で、液冷型インフラには専用の配管設計や定期的な冷却液のメンテナンスが必要であり、初期投資や保守体制の構築に未だ一定のハードルがあると考えられる。導入後のサポート体制を整えるとはいえ、液冷における漏洩リスクや冷却ユニットの障害時対応といったリスク管理のノウハウが十分に行き届いていない企業では、導入が慎重になる可能性もあるだろう。
今後の鍵となるのは、運用フェーズでの安定性と、現場のニーズを汲み取った製品アップデートの継続であると考えられる。Supermicroがその両立に成功すれば、同市場での存在感はさらに高まるだろう。
※DLC-2(Direct Liquid Cooling):プロセッサやGPUに直接冷却液を循環させる方式で、空冷よりも効率的に発熱を処理できる冷却技術の一つ。