
これまでで最もパワフルな TPU で、大規模なモデルやデータセットを効率的にトレーニング、ファインチューニング、サービングします。
Ironwood は、これまでで最もパワフルで高性能、かつエネルギー効率に優れた Tensor Processing Unit(TPU)で、大規模な思考型・推論型 AI モデルを支えるために設計されています。Google の社内サービスと Google Cloud のお客様向けに TPU を開発してきた豊富な経験に基づいて、Ironwood は、大規模言語モデル(LLM)、Mixture of Experts(MoE)、高度な推論タスクなどのモデルの計算とメモリの要求に対応するように設計されています。Google Cloud の AI ハイパーコンピュータ アーキテクチャ内でトレーニングとサービングの両方のワークロードをサポートします。
大規模言語モデル(LLM)向けに最適化: Ironwood は、LLM や生成 AI アプリケーションの需要の高まりに対応できるように特別に設計されています。
相互接続技術の強化: TPU の相互接続技術の向上により、通信がより高速化され、レイテンシが低減されます。
ハイ パフォーマンス コンピューティング: 幅広い推論タスクで大幅なパフォーマンス向上を実現します。
サステナブルな AI: Ironwood は、Google Cloud のサステナビリティへの取り組みを継続し、最適化されたエネルギー効率で優れたパフォーマンスを実現します。
Ironwood は、計算密度、メモリ容量、相互接続帯域幅を増加させ、電力効率を大幅に向上させます。これらの機能は、要求の厳しい AI のトレーニングおよびサービングのワークロード、特に大規模で複雑なモデルを扱うワークロードで、高スループットと低レイテンシを実現できるように設計されています。Ironwood TPU は、Google Cloud の AI ハイパーコンピュータ アーキテクチャ内で動作します。
Cloud AI プロダクトは、Google の SLA ポリシーに準拠しています。これらの SLA ポリシーで保証されているレイテンシや可用性は、他の Google Cloud サービスと異なる場合があります。