ソフトバンク、新AI計算基盤を本格稼働 国産LLMと国内AI供給はどう変わるか

2025年12月25日、ソフトバンクは最新GPUを用いたAI計算基盤の稼働開始を発表した。「NVIDIA GB200 NVL72」を採用し、国産LLM「Sarashina」の開発やGPU提供サービスに活用する。日本国内のAI開発基盤強化に対する動きだ。
GB200 NVL72採用、国内最大級のAI計算基盤が始動
ソフトバンクは12月22日、「NVIDIA GB200 NVL72(※)」を搭載したAI計算基盤を稼働させた。同システムは、1ラックに36基のNVIDIA Grace CPUと72基のNVIDIA Blackwell GPUを統合するラックスケール型AI基盤であり、従来のGPUサーバー構成と比べて圧倒的な高密度処理を可能にする。
今回稼働した基盤は、計1,224基のNVIDIA Blackwell GPUで構成されている。今後は4,000基超まで段階的に拡張され、最終的には10.6EFLOPS(※)規模の計算性能を備える計画だ。
冷却方式には、GPUやCPUを直接冷却する液冷(Direct-to-Chip)構造を採用した。発熱量の大きい最新AIチップを効率的に冷却することで、高負荷時でも安定した性能を維持しつつ、電力効率の向上を図る設計となっている。
本基盤は、顧客専用のGPUリソースを提供するアクセラレーテッドコンピューティングサービスに加え、SB Intuitionsが開発する国産LLM「Sarashina」の商用サービス開発に活用される。学習から運用までを国内基盤で運用できる点が特徴だ。
GB200 NVL72(※):NVIDIAが提供するラック統合型AI計算システム。Grace CPUとBlackwell GPUを高密度接続し、大規模AI学習向けに設計されている。
EFLOPS(※):1秒間に10の18乗回の浮動小数点演算を行う性能指標。大規模計算基盤の能力比較に用いられる。
国産AI基盤の加速装置か 期待される効果と残る課題
このAI計算基盤の稼働は、日本の生成AI開発にとって一定の追い風となる可能性がある。
経済安全保障推進法に基づくクラウドプログラム認定を受けた計算資源として提供が進めば、海外クラウドへの依存を相対的に抑えつつ、国内企業や研究機関が最先端GPUにアクセスしやすくなる余地が生まれる。
特に国産LLMの育成という観点では、高性能GPUを国内で安定的に確保できる環境が整うことは、開発体制を支える一要素になり得る。
「Sarashina」が実運用レベルへ進化した場合、日本語特化型AIの競争力強化につながる可能性も考えられる。
一方で、最先端GPUへの集中投資にはコストや運用面のリスクが伴う。
消費電力の増加や冷却設備への負荷は無視できず、需要が想定以上に拡大した場合には、リソース配分や価格設計が課題として顕在化する可能性がある。
今後は、この計算基盤をどの範囲まで外部に開放し、国内AIエコシステム全体とどう連動させていくかが注目点となる。自社利用にとどまらず、産業基盤として機能した場合、日本のAI競争力強化に寄与するシナリオも描ける。
関連記事:
政府、国産AIに1兆円支援へ ソフトバンクなど参画の新会社設立

ソフトバンクとSB Intuitions、国産LLMを商用API化 「Sarashina mini」で企業の生成AI活用を支援












