アマゾンウェブサービス(AWS)は3日、「AWS re:Invent 2025」イベントで、トレイニウム3(Trainium3)チップを搭載した「Amazon EC2 Trn3 UltraServer」の発売を発表した。
同サーバーはAIシステムの急増する計算需要に対応し、顧客がAIアプリケーションをより効率的かつ経済的に運用できるよう支援すると会社側は説明した。特に3ナノメートル(nm)プロセスで製造したトレイニウム3チップは、より大規模なAIモデルをより高速に学習させ、より多くのユーザーに対して低コストでサービスを提供できるとしている。
Trn3 UltraServerは最大144個のトレイニウム3チップへ拡張可能で、最大362 FP8ペタフロップス(PFLOPs)の性能を提供し、レイテンシーを4倍低減するなど、前世代比で性能を向上させた。これによりモデル学習時間を数カ月から数週へ短縮し、同時により多くの推論要求を処理して、投入時期および運用コストを削減する。
OpenAIのGPT-OSSモデルを用いたテスト結果では、Trn2 UltraServer比でチップ当たりスループットが3倍、応答速度が4倍に向上し、企業が少ないインフラでもAIアプリケーションを拡張し、ユーザー体験を改善できることを示した。
AWSはトレイニウム4の開発に着手し、次世代フロンティアの学習および推論を支援する予定である。トレイニウム4は少なくとも6倍のFP4処理性能、3倍のFP8性能、4倍のメモリ帯域幅などの性能改善を目標とする。特にトレイニウム4はエヌビディアNVLink Fusion(NVIDIA NVLink Fusion)の高速チップ接続技術をサポートするよう設計される。
会社側は「継続的なハードウェアおよびソフトウェアの最適化は、AIモデルをさらに高速に学習させ、より多くの推論要求を処理できる基盤を整え、高負荷のAIモデル学習と推論ワークロードに最適化された柔軟で高性能なプラットフォームを実現することが期待される」と述べた。