KDDIとHPE、AIデータセンターで協業 次世代冷却技術で環境負荷低減へ

2025年6月26日、KDDIと日本ヒューレット・パッカード(HPE)は、大阪府堺データセンターの稼働開始に向けて連携を発表した。空冷と直接液冷を併用する冷却技術で、高性能・省エネを両立させたAIインフラの稼働を2025年度中に開始する。
堺市に次世代AI拠点 KDDIとHPEが冷却技術で連携
KDDIとHPEは、大阪堺市において2025年度内の稼働を予定しているAIデータセンターで連携を深める。施設には、NVIDIAの最新AIチップ「Blackwell」を搭載したラックスケールシステム「NVIDIA GB200 NVL72 by HPE」が導入され、高密度なAI演算処理に対応する構成となる。
同システムは、HPEが長年にわたり開発・運用してきた高度な冷却技術を活用し、空冷と直接液冷を併用するハイブリッド型冷却方式を採用。これにより、大規模なAI処理時の発熱を効率的に抑制し、冷却に必要なエネルギー消費を最小限に抑える。
KDDIはこの施設を、兆単位パラメータの生成AIを高速に学習・推論できる拠点と位置づけ、AI時代の事業基盤「WAKONX」構想の中核に据える。同施設から、企業や研究機関向けにクラウド経由でGPUサーバーの提供も予定している。
KDDI代表取締役社長の松田浩路氏は、「HPEが有するスーパーコンピューティング領域での豊富な知見と先進的な冷却技術は、今後のAIデータセンターの発展に大きく寄与すると確信している」と語っており、両社は共同でマーケティングにも取り組む構えだ。
生成AIや高性能計算(HPC)など多様な分野での社会実装を支える拠点として、2025年度内の稼働を目指している。
環境負荷軽減と商用AI活用の拠点に 波及効果と課題も
今回の施設は、演算能力の飛躍的向上と同時に、環境負荷の低減にも寄与するモデルケースとなる可能性がある。特に、直接液冷を活用することにより、従来型データセンターよりも冷却コストとエネルギー消費を大幅に削減できる利点がある。
また、KDDIが提供を予定するクラウドベースのGPUリソースは、スタートアップや中小企業にとっても手軽に高性能AIを活用できる機会を提供し、AI開発の裾野拡大が見込まれる。NVIDIA Blackwell搭載システムを用いた高速処理は、創薬、製造、言語モデルなど広範な用途に活用されることが想定される。
一方で、直接液冷の導入には専門的な設計と高コストな初期投資が必要であり、国内での広範な普及には時間がかかるとみられる。運用面では、冷却装置や配管系統のメンテナンス性も問われる点となるだろう。
今後、同施設が商用AI活用の中核インフラとして機能すれば、他地域や他事業者による追随も期待される。KDDIとHPEの取り組みは、国内のAI開発とデータセンター環境の転換を促す先行事例として注目される。