ソフトバンク、LLM向けAI計算基盤構築 NVIDIA GPU 4000基超搭載

2025年7月22日、ソフトバンクは国内最大規模となるAI計算基盤の構築を完了したと発表した。
米NVIDIA製の最新GPU「Blackwell」を4000基以上搭載し、日本語特化の大規模言語モデル(LLM)開発を推進する。
NVIDIAの最新GPU4000基超で構成、計算処理13.7EFLOPSに
ソフトバンクが7月22日に構築を完了したAI計算基盤は、米NVIDIAの最新GPU「Blackwell」を採用した「NVIDIA DGX B200」システムを4000基以上搭載し、「DGX SuperPOD」として構成された。
同構成でのSuperPODは、世界的にも最大級の計算能力を有するとされ、ソフトバンクが構築したAI計算基盤全体では、GPUが1万基超、総計算性能は13.7EFLOPS(※)に達する。
また、次世代ネットワーク技術「Quantum-2 InfiniBand」を採用し、大容量データの高速転送に対応。さらに、企業向けAI開発基盤「NVIDIA AI Enterprise」にも準拠しており、開発から運用までの効率化とセキュリティの確保を実現する。
このAI基盤はまず、ソフトバンク傘下のSB Intuitionsが活用する。
同社は2024年度に約4600億パラメーターの日本語LLMを構築しており、2025年度中には700億パラメーターの商用モデル「Sarashina mini」の提供を予定している。
今回の基盤により、複数の高性能LLMを継続的に学習させる体制を整え、より高度な国産LLMの開発に弾みをつける構えだ。
※EFLOPS(エクサフロップス):1秒間に100京回の浮動小数点演算を行う能力を示す単位。AIの処理性能を表す基準として用いられる。
計算資源の国産化でLLM開発競争に本格参入 普及と安全保障の両立へ
ソフトバンクが今回構築したAI計算基盤は、自社グループでのLLM開発にとどまらず、国内企業や研究機関への外部提供も視野に入れている。計算資源の国内整備が進むことで、日本全体の生成AI開発力を底上げするインフラとして機能する可能性が高い。
特に注目すべきは、同基盤が経済安全保障推進法に基づく経済産業省の「特定重要物資クラウドプログラム供給確保計画」に認定されている点である。これにより、商用利用だけでなく、政府や防衛分野における高信頼なクラウド基盤としての活用も想定される。
AI活用が拡大する中、安定して国産の計算資源を確保できることは、戦略的にも重要な意味を持つと言える。
一方、国内でこれほど大規模なAI計算基盤を運用するには、膨大な電力消費や運用コスト、データ倫理などの課題も伴うと考えられる。特に、LLMの学習過程で用いるデータの品質や偏りがモデル性能に直結するため、透明性ある運用体制の構築が求められるだろう。
今後は、他のテック企業やスタートアップとの連携によって、計算資源のシェアリングやオープンなLLMエコシステムの形成が進む可能性がある。