これまでで最もパワフルな TPU で、大規模なモデルやデータセットを効率的にトレーニングしてサービングします。
Google Cloud Next '25 で発表された Ironwood は、Google の第 7 世代 Tensor Processing Unit(TPU)であり、大規模な AI 推論に特化して設計された初の TPU アクセラレータです。Google の社内サービスと Google Cloud のお客様向けに TPU を開発してきた豊富な経験に基づいて、Ironwood は、大規模言語モデル(LLM)、Mixture of Experts(MoE)、高度な推論タスクなどのモデルの計算とメモリの要求に対応するように設計されています。Google Cloud の AI ハイパーコンピュータ アーキテクチャ内でトレーニングとサービングの両方のワークロードをサポートします。
大規模言語モデル(LLM)向けに最適化: Ironwood は、LLM や生成 AI アプリケーションの需要の高まりに対応できるように特別に設計されています。
相互接続技術の強化: TPU の相互接続技術の向上により、通信がより高速化され、レイテンシが低減されます。
ハイ パフォーマンス コンピューティング: 幅広い推論タスクで大幅なパフォーマンス向上を実現します。
サステナブルな AI: Ironwood は、Google Cloud のサステナビリティへの取り組みを継続し、最適化されたエネルギー効率で優れたパフォーマンスを提供します。
Ironwood は、計算密度、メモリ容量、相互接続帯域幅を増加させ、電力効率を大幅に向上させます。これらの機能は、要求の厳しい AI のトレーニングおよびサービングのワークロード、特に大規模で複雑なモデルを扱うワークロードで、高スループットと低レイテンシを実現できるように設計されています。Ironwood TPU は、Google Cloud の AI ハイパーコンピュータ アーキテクチャ内で動作します。
関心をお持ちの場合は、早期アクセスにご登録ください。