日本のGMOインターネット、NTT東日本、NTT西日本、QTnetは、IOWN APNを活用した東京-福岡間の遠隔分散型AIインフラの技術実証を完了したと発表した。
GPUとストレージを離れた場所に置いても、実用的なAI開発が可能であることを示した。
東京-福岡間でもAI学習性能を維持
2026年3月30日に発表された実証では、東京のGMOインターネットグループ第2本社と、福岡のQTnetデータセンターをIOWN APN(※)の100GbE回線で接続し、福岡側にGPUサーバー「NVIDIA HGX H100」、東京側に高速ストレージ「DDN AI400X2」を配置した。
検証期間は2025年11月から2026年2月までで、画像分類のResNetと大規模言語モデルLlama2 70Bを対象に、遠隔ストレージ利用時の学習性能が測定された。
結果として、Llama2 70Bの学習時間はローカル環境が24.87分、遠隔環境が24.99分となり、性能差は約0.5%にとどまった。
ResNetでもローカル13.72分に対し遠隔14.38分で、データ読み込みを伴う処理でも、学習データの最適化によって実用水準を維持できることが確認された。
GPUと大容量ストレージは物理的に隣接している必要があるとされてきたが、今回の結果はその前提を見直す材料となる。
なお、4社は本結果について、特定の検証環境で得られたものであり、あらゆる環境で同等の性能を保証するものではないとしている。
また、4社はこれに先立ち、2025年7月に疑似遠隔環境による事前実証も行っていた。
※IOWN APN:NTTが進める次世代ネットワーク構想「IOWN」における光ベースの通信基盤。高速大容量かつ低遅延を特徴とし、離れた拠点間でのデータ処理や計算資源の連携を支える技術である。
分散AI基盤の実装が広がる可能性
この実証が持つ意味は、計算資源とデータを同じ場所に集約しなくてもAI開発を進められる可能性を示した点だと言える。
従来は、学習に必要なデータをクラウド側へ転送したり複製したりする運用が一般的だったが、今後はデータを自社や自組織の管理下に置いたまま、遠隔地のGPUを活用する構成が現実味を帯びる。
データ移送の手間や重複管理の負担の軽減が期待され、企業のAI運用の柔軟性を高める可能性がある。
特に、金融、医療、防衛、行政のように内部統制やデータ越境規制への配慮が重い領域では、有力な選択肢になりうる。
もっとも、実用化にあたっては、今回の結果が特定の検証環境に基づくものであり、距離やネットワーク構成、ワークロードの違いによって性能が変動しうる点は踏まえる必要があるだろう。
GPUとストレージ間の距離、ネットワーク構成、ワークロードの性質によって性能が変動する余地は残る。
今後は個別ユースケースごとの適用判断が重要になるが、IOWN APNが単なる通信回線ではなく、AI基盤を支える社会インフラとして位置づけられていく流れは強まりそうだ。
関連記事:
GMOインターネットグループ、超高速CMS「KUSANAGI」のプライム・ストラテジーを傘下に AI×Web基盤を強化
