運用目前最強大的 TPU,有效率地訓練及提供更大的模型和資料集。
在 2025 年的 Google Cloud Next 大會上,我們宣布推出 Google 的第七代 Tensor Processing Unit (TPU)「Ironwood」,這是第一款專為大規模 AI 推論作業打造的 TPU 加速器。我們有為 Google 內部服務和 Google Cloud 客戶開發 TPU 的豐富經驗,並根據這些經驗建構 Ironwood,以處理大型語言模型 (LLM)、混合專家模型 (MoE) 等模型,以及進階推論任務的運算和記憶體需求。Ironwood 可在 Google Cloud AI Hypercomputer 架構中支援訓練及提供模型的工作負載。
專為大型語言模型 (LLM) 設計:Ironwood 專為滿足日益增加的 LLM 和生成式 AI 應用程式需求而設計。
強化的互連網路技術:採用改良版 TPU 互連網路技術,可加快通訊速度並縮短延遲時間。
高效能運算:在執行各種推論任務時,體驗大幅提升的效能。
永續發展的 AI:Ironwood 延續 Google Cloud 對永續發展的承諾,在能源效率最佳化的情況下提供卓越效能。
Ironwood 整合了更高的運算密度、記憶體容量和互連網路頻寬,同時大幅提升電源效率。這些功能可提高處理量並縮短延遲時間,讓您輕鬆處理嚴苛的 AI 訓練及提供模型的工作負載,尤其是涉及大型複雜模型的工作負載。Ironwood TPU 在 Google Cloud AI Hypercomputer 架構中運作。
歡迎註冊,搶先體驗。