ソフトバンク、AIデータセンター向けGPU対応OS「Infrinia AI Cloud OS」発表

ソフトバンク株式会社は、AIデータセンター向けのソフトウエアスタック「Infrinia AI Cloud OS」を開発したと発表した。
GPUやKubernetesを統合管理する新基盤は、日本発のAIインフラ戦略として注目できる。
ソフトバンク、AIデータセンター向け新OSを発表
ソフトバンクは2026年1月21日、AIデータセンターの構築・運用を包括的に支えるソフトウエアスタック「Infrinia AI Cloud OS」を開発したと発表した。
ソフトウエアスタックとは、システムやアプリケーションの構築・運用に必要な複数のソフトウエアや機能を組み合わせて提供するものを指す。
AIデータセンターを運用する事業者が本OSを導入すれば、マルチテナント対応のKubernetes(※) as a Service(KaaS)や、大規模言語モデルの推論をAPIで提供するInference as a Serviceを、自社GPUクラウドの機能として実装可能になる。
これにより、AIモデルの学習から推論までを柔軟かつ効率的に提供できる体制が整う。
このスタックが開発された背景には、生成AIやロボティクス、創薬分野などでGPU需要が急拡大し、利用形態が高度化している現状がある。
従来のGPUクラウド構築には高度な専門知識と煩雑な作業が必要だったため、この課題を解決するために、「Infrinia AI Cloud OS」が開発されたという。
ソフトバンクは今後、自社GPUクラウドサービスへ「Infrinia AI Cloud OS」の導入を予定しているほか、海外データセンターやクラウド環境への展開も進める方針だ。
※Kubernetes:コンテナ化されたアプリケーションの配置や拡張、運用を自動化するオープンソース基盤。
運用OSが競争力に AIインフラの次の主戦場
「Infrinia AI Cloud OS」のメリットは、GPU性能そのものではなく、運用・管理を担うソフトウエアを競争軸に据えた点だろう。
物理構成から推論APIまでを統合することで、AIデータセンター事業者の参入障壁を下げ、市場拡大を後押しする可能性がある。
一方で、特定OSへの依存が進むことで、将来的な他基盤への移行や相互運用性が制約されるかもしれない。また、海外ハイパースケーラーが提供する統合型GPUクラウドとの競争が激化すれば、価格やエコシステム構築が課題となり得る。
AIインフラの価値は「計算資源の量」から「いかに効率的に使わせるか」へ移行していると考えられる。日本発のクラウドOSが、運用ソフトウエアを武器に国際市場で存在感を示せるかが、今後の焦点になるだろう。
関連記事:
OpenAIとソフトバンク、SB Energyと戦略提携 AI時代の電力と計算基盤を一体構築

ソフトバンク、米データセンター向けAI機器工場に30億ドル投資












