ソフトバンクは法人向けクラウド「AIデータセンター GPUサーバー」において、NVIDIA GB200 β版の提供を開始した。
Blackwell世代GPUを活用した専有型インフラにより、日本国内での生成AI開発環境の高度化が進む見込みだ。
GB200を専有提供、短期利用も可能
2026年3月17日、ソフトバンクは、AI計算基盤を活用したクラウドサービスにおいて、NVIDIAのラックスケールAIシステム「GB200 NVL72」を利用できる「NVIDIA GB200 β版」の提供を開始した。
1ラックに36基のGrace CPUと72基のBlackwell GPUを搭載する大規模構成を、コンピュートトレイ単位で専有利用できる。
NVIDIA GB200 β版の利点は、コンピュートトレイから専有して利用できるため、従来の共有型クラウドとは異なり、他ユーザーとリソースを分離した環境での運用が可能となる点だ。
これにより、生成AIの学習や大規模シミュレーションなど、高負荷処理において安定した性能を確保できる設計とされる。
加えて、最短7日間から利用できるため、PoCや短期検証用途での利用を想定している。
また、OSやジョブ管理環境を事前構築した状態で提供されるため、導入時のセットアップ負荷が軽減される。
JupyterLabなどのWeb UIにも対応しており、ブラウザ上での開発・実行が可能になるなど、従来のコマンドライン中心の運用からの転換も進む。
月額料金は456.9万円からとされ、既存のH100やA100プランと比較して上位性能帯に位置付けられる。
国内AI基盤の高度化とコストの壁
今回のGB200導入は、日本国内におけるAI計算インフラの高度化を象徴する動きといえる。
特に、LLM(※)の学習や大規模推論では、GPU性能に加え、ノード間通信やメモリ帯域の最適化が重要となり得る。その観点から、ラック単位で設計されたGB200は、こうした要件の対応を意識した設計と言えるだろう。
専有型での提供は、セキュリティやパフォーマンスの観点で企業利用に適しており、金融・製造・通信といった分野での本格的なAI活用を後押しする要素になると考えられる。
一方で、月額数百万円規模のコストは導入障壁として機能し、中小企業やスタートアップにとっては依然としてアクセスが限定的となる可能性もある。
また、Blackwell世代GPUの早期提供は競争優位性につながる一方、β版としての提供である点から、運用面での最適化や安定性の検証が今後の課題となるだろう。
国内クラウド事業者による高性能GPU基盤の拡充は進みつつあるが、グローバルハイパースケーラーとの性能・価格競争は今後一層激化していくと考えられる。
※LLM:大規模言語モデル。膨大なテキストデータを学習し、人間のような文章生成や対話を可能にするAIモデル。生成AIの中核技術として活用が拡大している。
関連記事:
ソフトバンク、最新GPUのAI計算基盤を稼働 NVIDIA採用で国産LLM供給強化
