AWSがTrainium3 UltraServerを一般提供 次世代AIモデル訓練の速度とコストを刷新

2025年12月2日、米Amazon Web Services(AWS)は次世代AIチップ「Trainium3」を搭載したEC2「Trn3 UltraServer」の一般提供を開始した。
高速化と省電力性を両立し、生成AIモデルの訓練コストを引き下げる基盤として注目できる。
Trainium3搭載Trn3 UltraServer、訓練性能を大幅強化
AWSは新たに提供を開始した仮想サーバーサービス「Amazon EC2 Trn3 UltraServer」に、同社4世代目となるAI専用チップ「Trainium3」を採用した。
Trainium3は3nmで製造され、2.52PFLOPsのFP8演算性能、144GBのHBM3e(※)と4.9TB/sの帯域を備え、前世代比で1.5倍のメモリ容量と1.7倍の帯域を実現する。
高密度ワークロードと並列ワークロードの両方に対応するMXFP8/MXFP4といった混合精度演算形式をサポートしており、精度と速度のバランスを最適化する設計になっている。
新たに提供するサーバー、Trn3 UltraServerは最大144基のTrainium3を搭載でき、総計362PFLOPsのFP8演算性能を提供する。
EC2 UltraClusters 3.0では数十万規模のチップに拡張可能で、研究開発向けの大規模学習環境を構築できる点が特徴だ。
サーバ同士を接続するNeuronSwitch-v1は接続帯域を2倍に高め、MoEや強化学習などの分散学習を高速化する。
実測ベースでは、Trainium3はTrn2 UltraServer比で最大4.4倍の性能、3.9倍のメモリ帯域、4倍の性能/Wを示し、推論効率と電力消費の改善が顕著である。
AWS Bedrock上でのモデル提供時には、Trainium3による効率改善によりトークン数/電力が最大5倍効率化される。
※HBM3e:高帯域幅メモリ。AI向けに最適化されたメモリ規格で、大規模モデルの訓練に必要な高いメモリ帯域と容量を提供する。
AI研究基盤としての普及加速 性能向上の恩恵と導入上の課題
今回の提供開始により、研究者や企業は既存フレームワークを変更せずに大規模モデルの訓練を加速できるだろう。
ハードウェア層への深いアクセスが開放されることで、AI性能エンジニアはカーネル最適化や独自実装を通じて性能を引き出しやすくなると考えられる。
コスト面では、推論あたりの電力効率が向上したことで、運用費削減の効果が見込まれる。長文脈モデルや動画生成など計算要求の大きい領域では、Trainium3の特性が直接的な競争力につながる可能性がある。
AWSが強調する“ベストなトークン経済性”は、多量の出力を生成するエージェント型モデルに特に響くだろう。
一方で、高性能化に伴い、効率的な分散学習設計やデータ基盤の見直しが避けられず、導入初期に技術的負荷が生じるリスクも残る。
また、GPU中心の既存エコシステムからの移行には検証工数が必要で、すべての企業が即時にメリットを享受できるとは限らない。
とはいえ、研究者コミュニティとのオープンな協働姿勢により、環境整備が進むほど普及速度は加速すると考えられる。
関連記事:
AdobeとAmazonが連携発表 生成AIで創造性と顧客体験を再構築へ

ソニーがAWSのAI基盤を全社導入 安全なエージェント活用で創造性とファン体験が進化

AWSが次世代AI「Amazon Nova 2」を公開 推論精度と価格性能比を大幅刷新












