
使用迄今最强大的 TPU 高效地训练、微调和提供更大的模型和数据集。
Ironwood 是 Google 迄今功能和性能最强大、能源效率最高的张量处理单元 (TPU),旨在为大规模的思考型推理 AI 模型提供支持。Ironwood 是基于 Google 为内部服务和 Google Cloud 客户开发 TPU 的丰富经验而设计的,旨在满足模型(例如大语言模型 [LLM]、专家混合 [MoE] 模型和高级推理任务)的计算和内存需求。支持在 Google Cloud AI Hypercomputer 架构内训练和提供工作负载。
针对大语言模型 (LLM) 进行优化:Ironwood 专为满足 LLM 和生成式 AI 应用日益增长的需求而设计。
增强型互连技术:受益于 TPU 互连技术的改进,实现更快的通信和更短的延迟。
高性能计算:在执行各种推理任务时,性能显著提升。
可持续的 AI:Ironwood 延续了 Google Cloud 对可持续性的承诺,在提高能源效率的同时提供卓越的性能。
Ironwood 集成了更高的计算密度、内存容量和互连带宽,并显著提高了功率效率。这些功能旨在为要求苛刻的 AI 训练和服务工作负载提供更高的吞吐量和更低的延迟,尤其是涉及大型复杂模型的工作负载。Ironwood TPU 在 Google Cloud AI Hypercomputer 架构内运行。
Cloud AI 产品遵循我们的服务等级协议 (SLA) 政策。这些产品在延迟时间或可用性方面的保证可能与其他 Google Cloud 服务有所不同。