Cloud TPU

以前所未有的速度訓練及執行機器學習模型

查看說明文件 開始使用

加快機器學習速度

機器學習 (ML) 技術為多種業務和研究問題上帶來了重大突破,包括強化網路安全性,以及提高醫療診斷的準確率。由於訓練及執行深度學習模型需要很高的運算能力,因此我們打造了 Tensor Processing Unit (TPU),這是一種全新設計的 ASIC,可以為我們的多項主要產品提供機器學習技術,包括 Google 翻譯Google 相簿Google 搜尋Google 助理Gmail。Cloud TPU 讓世界各地的企業都能使用這項加速技術,進而加快他們在 Google Cloud 上的機器學習速度。如 MLPerf 基準所示,Google Cloud 為各種規模的學習訓練提供方便易用的基礎架構

專為 Google Cloud 的 AI 技術量身訂做

Cloud TPU 旨在透過 Google Cloud 的 AI 服務執行最先進的機器學習模型,提供運算能力,以利您的企業加速轉型或創造下一次的研究突破。借助可讓 TPU 搭配 ML 工作負載運作的自訂高速網路,Cloud TPU 可以在單一 Pod 提供高達每秒 11.5 千兆次浮點運算的超高效能。

加快 ML 解決方案的迭代速度

訓練機器學習模型與編譯程式碼很類似。模型必須隨著建構、部署和改善應用程式的過程不斷反覆訓練,才能加快執行速度及提高成本效益。Cloud TPU 提供了理想的效能和費用,讓 ML 小組能夠加快解決方案的迭代速度。

經過驗證的先進模型

您可以使用 Google 認證的參考模型來改善效能、準確性和品質,針對各種實際用途打造解決方案。您只需提供資料、下載參考模型並進行訓練即可。

Cloud TPU 規格

Cloud TPU v2
每秒 180 萬億次浮點運算
64 GB 高頻寬記憶體 (HBM)

Cloud TPU v3
每秒 420 萬億次浮點運算
128 GB HBM

Cloud TPU v2 Pod Alpha
每秒 11.5 千兆次浮點運算
4 TB HBM
2-D 環面網狀網路

Cloud TPU 功能與特點

經驗證的參考模型
您可以使用 Google 認證的參考模型來改善效能、準確性和品質,以用於各種實際用途,包括物件偵測、語言建模、情感分析、翻譯、圖片分類等等。
整合功能
Cloud TPU 和 Google Cloud 的資料與分析服務基本上已與其他 GCP 服務全面整合,可讓客戶透過相同的存取方式使用所有服務。您可以在 Cloud TPU 上執行機器學習工作負載,同時受益於 Google Cloud Platform 領先業界的儲存服務、網路和資料分析技術。
將 Cloud TPU 與自訂機器類型連結
您可以透過自訂 VM 類型連結到 Cloud TPU,這樣就能針對個別工作負載以最佳方式平衡處理器速度、記憶體和高效能儲存空間資源。
先佔 Cloud TPU
對於容錯機器學習工作負載 (例如針對大型資料集執行含檢查點或批次預測的長時間訓練) 而言,使用先佔 Cloud TPU 可節省費用。先佔 Cloud TPU 比隨選執行個體便宜 70%,讓您從第一次實驗到大規模超參數搜尋都比以往節省許多費用。

「Cloud TPU Pod 的速度比之前的基礎架構快了 10 倍,改變了我們的視覺購物方式。我們過去需要花費數個月來訓練單一的圖片辨識模型,但在 Cloud TPU Pod 的協助下,我們現在只需要數天就能訓練出更準確的模型,而且還能利用 TPU Pod 的額外記憶體一次處理更多圖片。這種快速的作業時間讓我們能夠更快速地完成迭代作業,為 eBay 客戶和賣家提供更優質的體驗。」

— Larry Colagiovanni eBay 新產品開發副總裁

Cloud TPU v2 Pod 目前仍在 Alpha 測試階段。如要進一步瞭解各個產品的推出階段,請參閱這個網頁

傳送您對下列選項的寶貴意見...

這個網頁
Cloud TPU