Google、初の推論専用TPU「Ironwood」を発表 AIコンピューティングに新時代到来か

2025年4月9日、米ラスベガスで開催された「Google Cloud Next 2025」にて、Googleは初の推論専用TPU「Ironwood(アイアンウッド)」を正式発表した。AI処理の効率化を追求した本製品は、Google Cloudを通じて2025年後半に提供が開始される見通しである。
AI推論に特化した高性能チップ「Ironwood」
発表によると、本製品は最大で4614TFLOPS(※1)の計算性能を誇り、特にFP8(8ビット浮動小数点)の演算性能においては、初代TPU v2と比較して飛躍的な向上を果たしている。
電力効率も極めて高い。前世代のTrilliumと比較して約2倍、2018年に登場した初代TPUと比較すれば約30倍の効率を実現しているという。これにより、生成AIなどリソースを大量に消費する処理でも、持続可能な運用が可能となる。
また、各チップには192GBの高帯域幅メモリ(HBM)が搭載され、帯域幅は7.2TBpsに及ぶ。この設計により、大規模な言語モデルやマルチモーダルAIの処理にも対応可能だ。
さらに、最大9216チップで構成されるポッドへとスケール可能であり、総計算能力は42.5EFLOPSに達する。この数値は、世界最大級のスーパーコンピュータである「El Capitan」の24倍以上となる。
Ironwoodはスケーラビリティと処理能力の両面において、従来のAIチップを凌駕する設計といえるだろう。Googleの10年以上の技術革新の集大成であり、AIコンピューティングの重心が訓練から推論へ移行していることを示している。
AI HypercomputerとPathwaysが生み出す「推論の時代」
GoogleはIronwoodの発表と同時に、Google CloudのAI Hypercomputerに統合する計画も明かしている。これにより、Ironwoodの演算能力がGoogleの次世代AIインフラ全体に分散され、Cloud上で一貫した推論処理が実現されることになる。
注目すべきは、Google DeepMindの次世代AIアーキテクチャ「Pathways(※2)」に対応している点だ。数万規模のチップを使ったスケールアウト型AI演算が可能となり、従来の「単一モデル・単一タスク」から「マルチモーダル・多タスク型」AIへの進化が加速すると期待される。
こうした推論特化型ハードウェアは、AIの社会実装を一層後押しする可能性がある。
検索エンジンや生成AI、自動運転、ヘルスケアなど幅広い分野での応用が見込まれ、業務効率やユーザー体験に大きな変化をもたらすだろう。
生成AIの台頭で、推論精度と速度がプロダクト価値に直結する時代が訪れつつある。ハードウェア、クラウドインフラ、AIアルゴリズムがシームレスに統合される時代において、Ironwoodの登場はその起点となるのではないだろうか。
※1 TFLOPS(テラフロップス):1秒間に1兆回の浮動小数点演算を行える計算能力を指す単位。AI処理においては、この数値が高いほど複雑な処理を高速に実行できる。
※2 Pathways:Google DeepMindが開発するAIアーキテクチャで、1つのモデルで複数のタスクやデータタイプに対応可能な構造を持つ。大規模分散処理との親和性が高く、次世代AIの基盤技術とされている。