2026年3月13日、米AI半導体企業セレブラスと米アマゾンは、AIサービス高速化に向けた半導体供給で提携したとロイターが報じた。AWS上で両社のチップを組み合わせ、生成AIの推論処理を分業化する新構成が導入される見通しである。
推論処理を分業化、AWSで実装へ
今回の提携では、生成AIの「推論」工程を「プレフィル」と「デコード」の2段階に分け、それぞれを異なる半導体で処理する構成が採用される。アマゾンの独自チップ「トレイニアム3」が入力処理を担い、セレブラスの半導体が出力生成を担当する役割分担となる。
両者はAWSのデータセンター内で接続され、独自のネットワーキング技術により連携する仕組みである。
セレブラスは、従来主流である高価な広帯域幅メモリー依存の設計とは異なるアプローチを採用し、効率性を重視したチップを開発してきた企業だ。同社はすでに大規模な供給契約を締結しており、今回の提携によりAWSの顧客基盤へ一気に展開される可能性がある。
契約規模は非公開だが、個人開発者から大企業までAWS利用者がこの構成を利用可能になるとされる。従来は単一GPUに依存していた推論処理が、クラウド上で分業化される点は大きな転換といえる。
分業型AI基盤の可能性とリスク
今回の構成がもたらす最大のメリットは、応答速度とコスト効率の両立にある。処理工程ごとに最適化された半導体を割り当てることで、無駄な計算資源を削減できるため、生成AIサービス全体のパフォーマンス向上が期待される。特にリアルタイム性が求められるチャットボットやコーディング支援では優位性が高まる可能性がある。
一方で、複数のチップを連携させる構成はシステム全体の複雑性を増大させる。障害発生時の切り分けや最適な負荷分散の設計には高度な運用ノウハウが求められ、導入コストや管理負担が増すリスクもある。また、特定ベンダー間の結合が強まることで、ロックインの懸念も指摘されるだろう。
今後は、こうした分業型アーキテクチャが業界標準となるかが焦点となる。
もし他のクラウド事業者や半導体企業が同様の戦略を採用すれば、AIインフラ競争は単体性能から「構成設計」へと軸足を移すと考えられる。
関連記事:
Amazon、中東AWSデータセンターにドローン攻撃 クラウドにも地政学リスク

OpenAI、セレブラスと巨額半導体契約 AIインフラ競争は新局面へ
