2026年2月16日、日本のソフトバンク株式会社は米Advanced Micro Devices(AMD)と連携し、AMD Instinct GPUを次世代AIインフラに活用する共同検証を開始したと発表した。GPUを柔軟に分割し、用途に応じて最適配分する仕組みの実装を目指す。
AMD Instinctで次世代AI基盤検証
ソフトバンクは、AIアプリケーション向けに開発を進めてきたオーケストレーターを拡張し、AMD Instinct GPUの活用を前提とした共同検証を開始した。AIモデルの規模や同時実行数といった要件に応じてGPUを分割し、最適に割り当てる機能を開発した点が中核である。
生成AIの普及に伴い、大規模言語モデル(LLM)(※)を活用したサービス需要は急拡大している。しかし、モデルのパラメーター数や利用状況によって必要な計算資源は大きく変動するため、従来の一律割り当てではGPUリソースの逼迫や余剰が発生しやすかった。
今回の検証では、AMD Instinct GPUが備えるGPUパーティショニング機能(※)をオーケストレーターに統合することで、1台のGPUを複数の論理デバイスとして活用可能にした。これにより、複数のAIアプリケーションを同一GPU上で効率的に稼働させる環境の構築を目指す。
両社は今後も技術評価を継続し、次世代AIインフラとしての実用性や拡張性を検証していく方針だ。
計算資源を柔軟に制御できる基盤の確立が、企業向けAIサービスの高度化に直結するとみられる。
※大規模言語モデル(LLM):膨大なテキストデータを学習し、自然な文章生成や対話を可能にするAIモデル。高性能化には大規模な計算資源を必要とする。
※GPUパーティショニング機能:1台のGPUを複数の論理的な区画に分割し、それぞれを独立した計算資源として利用できる技術。リソース効率の向上に寄与する。
柔軟運用の利点と残る課題
GPUを動的に分割し再配分できる仕組みは、データセンター運用の効率化に直結する。利用状況に応じてリソースを細かく制御できれば、過剰投資を抑えながら高い稼働率を維持できる。特にクラウド型AI基盤では、多様な顧客ニーズに即応できる点が競争優位となる。
一方で、分割管理の高度化は運用の複雑化を招く。リソース干渉の回避やセキュリティ分離の徹底、パフォーマンス保証の設計など、新たな技術課題も顕在化するだろう。ハードとソフトの統合最適化が不可欠である。
AI需要が拡大を続けるなか、GPU確保は企業競争力を左右する戦略資源となりつつある。
今回の共同検証が商用基盤へと発展すれば、日本発のAIインフラ運用モデルとして国際市場で存在感を示す展開も想定される。
関連記事:
ソフトバンク、AI向けGPUクラウド事業化へ 国産基盤を即時提供

