オープンAI、初の非エヌビディア製半導体に転換か グーグルTPU活用で依存分散へ

2025年6月27日、米オープンAIがグーグルのAI半導体「TPU(テンソル・プロセッシング・ユニット)」の使用を開始したと関係者が明かした。エヌビディア製GPUに依存してきた構造からの脱却を図る動きとして注目できる。
オープンAI、グーグルTPUの利用を開始
米メディア「ジ・インフォメーション」やロイターが報じたところによれば、オープンAIはチャットGPTなどの製品運用において、グーグルのAI専用半導体TPUを借り受けて活用し始めたという。
報道によると、同社がエヌビディアのGPU以外の半導体を本格的に導入するのは初のケースだという。これは、ハードウェア供給元の多様化にとどまらず、支援者であるマイクロソフトのインフラ依存から脱却しようとする意図もある可能性がある。
TPUは、グーグルが社内向けに開発してきた専用チップであり、近年は外部企業への提供も徐々に進めている。
オープンAIはグーグルクラウドを通じて、これらのリソースを利用する形で導入しているとみられる。
背景には、AIサービスの利用拡大に伴い、推論処理の負荷やコストが増大している現状がある。
高性能なGPUの調達競争が激化するなか、代替チップの採用によってリスク分散とコスト最適化を狙ったものと見られる。
推論コスト削減と依存回避が狙いか
TPUの導入によって、計算資源の選択肢が増え、コストの最適化や可用性の向上が期待できる。また、TPUは推論処理においてGPUよりもコスト効率が高いとの見方もあるため、商用サービスの収益性を高める手段にもなり得る。
一方で、グーグルは最高性能のTPUに関しては競合他社への提供を控えており、オープンAIが利用できるリソースには制約があるようだ。
導入規模や性能の面で、エヌビディアの牙城を一挙に崩すものではないとの見方もできる。
今回のTPU導入は、オープンAIが長期的にインフラのポートフォリオを見直す過程の一環であると考えられる。
単一のベンダーやデータセンターに依存し続ける体制は、生成AIの需要拡大に対して脆弱であるため、複数のクラウド・半導体基盤を組み合わせるアーキテクチャへの移行が業界全体で進むと予想できる。
今後の鍵は、ハードウェアそのものの性能だけでなく、それを統合・最適化するソフトウェアレイヤーの柔軟性と運用効率にあると思われる。
オープンAIがこの変化にどう対応していくかが、競争力維持の成否を左右する決定的な要素となるだろう。