メインコンテンツへスキップ
最新ニュース 3分で読める

ソフトバンク、「NVIDIA GB200 β版」をクラウド提供 LLM開発を加速する専有GPU基盤が登場

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

ソフトバンクは法人向けクラウド「AIデータセンター GPUサーバー」において、NVIDIA GB200 β版の提供を開始した。
Blackwell世代GPUを活用した専有型インフラにより、日本国内での生成AI開発環境の高度化が進む見込みだ。

GB200を専有提供、短期利用も可能

2026年3月17日、ソフトバンクは、AI計算基盤を活用したクラウドサービスにおいて、NVIDIAのラックスケールAIシステム「GB200 NVL72」を利用できる「NVIDIA GB200 β版」の提供を開始した。
1ラックに36基のGrace CPUと72基のBlackwell GPUを搭載する大規模構成を、コンピュートトレイ単位で専有利用できる。

NVIDIA GB200 β版の利点は、コンピュートトレイから専有して利用できるため、従来の共有型クラウドとは異なり、他ユーザーとリソースを分離した環境での運用が可能となる点だ。
これにより、生成AIの学習や大規模シミュレーションなど、高負荷処理において安定した性能を確保できる設計とされる。
加えて、最短7日間から利用できるため、PoCや短期検証用途での利用を想定している。

また、OSやジョブ管理環境を事前構築した状態で提供されるため、導入時のセットアップ負荷が軽減される。
JupyterLabなどのWeb UIにも対応しており、ブラウザ上での開発・実行が可能になるなど、従来のコマンドライン中心の運用からの転換も進む。
月額料金は456.9万円からとされ、既存のH100やA100プランと比較して上位性能帯に位置付けられる。

国内AI基盤の高度化とコストの壁

今回のGB200導入は、日本国内におけるAI計算インフラの高度化を象徴する動きといえる。
特に、LLM(※)の学習や大規模推論では、GPU性能に加え、ノード間通信やメモリ帯域の最適化が重要となり得る。その観点から、ラック単位で設計されたGB200は、こうした要件の対応を意識した設計と言えるだろう。

専有型での提供は、セキュリティやパフォーマンスの観点で企業利用に適しており、金融・製造・通信といった分野での本格的なAI活用を後押しする要素になると考えられる。
一方で、月額数百万円規模のコストは導入障壁として機能し、中小企業やスタートアップにとっては依然としてアクセスが限定的となる可能性もある。

また、Blackwell世代GPUの早期提供は競争優位性につながる一方、β版としての提供である点から、運用面での最適化や安定性の検証が今後の課題となるだろう。
国内クラウド事業者による高性能GPU基盤の拡充は進みつつあるが、グローバルハイパースケーラーとの性能・価格競争は今後一層激化していくと考えられる。

※LLM:大規模言語モデル。膨大なテキストデータを学習し、人間のような文章生成や対話を可能にするAIモデル。生成AIの中核技術として活用が拡大している。

ソフトバンク株式会社 ニュースリリース

関連記事:

ソフトバンク、最新GPUのAI計算基盤を稼働 NVIDIA採用で国産LLM供給強化

RELATED ARTICLEソフトバンク、最新GPUのAI計算基盤を稼働 NVIDIA採用で国産LLM供給強化2025年12月25日、ソフトバンクは最新GPUを用いたAI計算基盤の稼働開始を…Read
Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

記事を寄稿しませんか?

Web3・AI領域の専門家からの寄稿を募集中。掲載は編集部名義、内容は事前審査のうえ掲載可否をご連絡します。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・DeepTech領域でのキャリアをお考えですか?

業界専門のコンサルタントが、あなたに最適なキャリアパスをご提案します。