使用迄今最强大的 TPU 高效地训练和提供更大的模型和数据集。
Ironwood 是 Google 的第七代张量处理单元 (TPU),也是专为大规模 AI 推理而设计的首个 TPU 加速器,在 2025 年 Google Cloud Next 大会上发布。Ironwood 是基于 Google 为内部服务和 Google Cloud 客户开发 TPU 的丰富经验而设计的,旨在满足模型(例如大语言模型 [LLM]、专家混合 [MoE] 模型和高级推理任务)的计算和内存需求。支持在 Google Cloud AI Hypercomputer 架构内训练和提供工作负载。
针对大语言模型 (LLM) 进行优化:Ironwood 专为满足 LLM 和生成式 AI 应用日益增长的需求而设计。
增强型互连技术:受益于 TPU 互连技术的改进,实现更快的通信和更短的延迟。
高性能计算:在执行各种推理任务时,性能显著提升。
可持续的 AI:Ironwood 延续了 Google Cloud 对可持续性的承诺,在提高能源效率的同时提供卓越的性能。
Ironwood 集成了更高的计算密度、内存容量和互连带宽,并显著提高了功率效率。这些功能旨在为要求苛刻的 AI 训练和服务工作负载提供更高的吞吐量和更低的延迟,尤其是涉及大型复杂模型的工作负载。Ironwood TPU 在 Google Cloud AI Hypercomputer 架构内运行。
请登记您的意向以抢先体验。