Cloud TPU

以前所未有的速度訓練及執行機器學習模型

查看說明文件 開始使用

加快機器學習速度

機器學習 (ML) 技術為多種業務和研究問題上帶來了重大突破,包括強化網路安全性,以及提高醫療診斷的準確率。由於訓練及執行深度學習模型需要很高的運算能力,因此我們打造了 Tensor Processing Unit (TPU),這是一種全新設計的 ASIC,可以為我們的多項主要產品提供機器學習技術,包括 Google 翻譯Google 相簿Google 搜尋Google 助理Gmail。Cloud TPU 讓世界各地的企業都能使用這項加速技術,進而加快他們在 Google Cloud 上的機器學習速度。

專為 Google Cloud 的 AI 技術量身訂做

Cloud TPU 旨在透過 Google Cloud 的 AI 服務執行最先進的機器學習模型,提供運算能力,以利您的企業加速轉型或創造下一次的研究突破。借助可讓 TPU 搭配 ML 工作負載運作的自訂高速網路,Cloud TPU 可以在單一 Pod 提供高達每秒 11.5 千兆次浮點運算的超高效能。

加快 ML 解決方案的迭代速度

訓練機器學習模型與編譯程式碼很類似。模型必須隨著建構、部署和改善應用程式的過程不斷反覆訓練,才能加快執行速度及提高成本效益。Cloud TPU 提供了理想的效能和費用,讓 ML 小組能夠加快解決方案的迭代速度。

經過驗證的先進模型

您可以使用 Google 認證的參考模型來改善效能、準確性和品質,針對各種實際用途打造解決方案。您只需提供資料、下載參考模型並進行訓練即可。

Cloud TPU 規格

Cloud TPU v2
每秒 180 萬億次浮點運算
64 GB 高頻寬記憶體 (HBM)

Cloud TPU v3 Beta
每秒 420 萬億次浮點運算
128 GB HBM

Cloud TPU v2 Pod Alpha
每秒 11.5 千兆次浮點運算
4 TB HBM
2-D 環面網狀網路

Cloud TPU 功能與特點

經驗證的參考模型
您可以使用 Google 認證的參考模型來改善效能、準確性和品質,以用於各種實際用途,包括物件偵測、語言建模、情感分析、翻譯、圖片分類等等。
整合功能
Cloud TPU 和 Google Cloud 的資料與分析服務基本上已與其他 GCP 服務全面整合,可讓客戶透過相同的存取方式使用所有服務。您可以在 Cloud TPU 上執行機器學習工作負載,同時受益於 Google Cloud Platform 領先業界的儲存空間、網路和資料分析技術。
將 Cloud TPU 與自訂機器類型連結
您可以透過自訂 VM 類型連結到 Cloud TPU,這樣就能針對個別工作負載以最佳方式平衡處理器速度、記憶體和高效能儲存空間資源。
先佔 Cloud TPU
對於容錯機器學習工作負載 (例如針對大型資料集執行含檢查點或批次預測的長時間訓練) 而言,使用先佔 Cloud TPU 可節省費用。先佔 Cloud TPU 比隨選執行個體便宜 70%,讓您從第一次實驗到大規模超參數搜尋都比以往節省許多費用。

「Cloud TPU Pod 的速度比之前的基礎架構快了 10 倍,改變了我們的視覺購物方式。我們過去需要花費數個月來訓練單一的圖片辨識模型,但在 Cloud TPU Pod 的協助下,我們現在只需要數天就能訓練出更準確的模型,而且還能利用 TPU Pod 的額外記憶體一次處理更多圖片。這種快速的作業時間讓我們能夠更快速地完成迭代作業,為 eBay 客戶和賣家提供更優質的體驗。」

— Larry Colagiovanni eBay 新產品開發副總裁

本頁所列產品目前仍在 Alpha 測試或 Beta 測試階段。如要進一步瞭解各個產品的推出階段,請參閱這個網頁

傳送您對下列選項的寶貴意見...

這個網頁
Cloud TPU