Edge TPUBeta 版

Google 精心打造的 ASIC 可以在邊緣位置進行推論。

邊緣 AI 技術

邊緣 AI 技術

無論是消費者或是企業應用程式,都已廣泛使用 AI 技術。連線裝置數量的爆炸性成長, 以及對於隱私/機密性、低延遲度與頻寬限制的需求, 都帶動了在邊緣執行雲端訓練式 AI 模型的趨勢。Edge TPU 是 Google 精心打造的 ASIC,專為在邊緣執行 AI 而設計。Edge TPU 可以在消耗極少資源和能源的情況下提供絕佳效能, 因此能夠在邊緣部署高精確度 AI。

端對端 AI 基礎架構

端對端 AI 基礎架構

Edge TPU 能與 Cloud TPU 及 Google Cloud 服務相輔相成,並提供端對端、 雲端至邊緣及硬體 + 軟體基礎架構, 讓您輕鬆部署客戶的 AI 技術解決方案。

消耗極少資源與能源卻能提供絕佳效能

消耗極少資源與能源卻能提供絕佳效能

Edge TPU 消耗的資源與能源極少,但效能絕佳,因此能廣泛 於邊緣部署高品質 AI。

共同設計 AI 硬體、軟體與演算法

共同設計 AI 硬體、軟體與演算法

Edge TPU 不只是硬體解決方案,也結合了自訂硬體、開放軟體 和先進 AI 演算法,以在邊緣提供高品質、部署簡便的 AI 解決方案。

種類廣泛的應用程式

種類廣泛的應用程式

Edge TPU 能用於日益增長的產業使用案例,例如預防性 維護、異常偵測、機器視覺、機器人、語音辨識與更多功能。 此外,也可用於製造業、內部部署、健康照護、零售業、智慧空間及 運輸等。

用於部署 AI 解決方案的開放式端對端基礎架構

Edge TPU 讓您能在邊緣部署高品質機器學習推論,且能擴增 Google Cloud TPU 與 Cloud IoT,透過提供端對端 (雲端至邊緣、硬體 + 軟體) 基礎架構,進一步落實客戶的 AI 技術解決方案部署。除了開放原始碼的 TensorFlow Lite 程式編寫環境,Edge TPU 首先會透過多個 Google AI 模型進行部署,並結合 Google 在 AI 與硬體兩方面的專業知識。

對於 CPU、GPU、FPGA 與其他 ASIC 解決方案,Edge TPU 可提供在邊緣執行 AI 的補充功能。

邊緣
(裝置/節點、閘道、伺服器)
Google Cloud
工作 機器學習推論 機器學習訓練與推論
軟體、服務 Cloud IoT Edge、Linux OS
Cloud ML Engine、Kubernetes Engine、
Compute Engine、Cloud IoT Core
機器學習架構 TensorFlow Lite、NN API
TensorFlow、scikit-learn、
XGBoost、Keras
硬體加速器 Edge TPU、GPU、CPU Cloud TPU、GPU 和 CPU

Edge TPU 功能與特色

這個 ASIC 是利用 Google 的 AI 專業知識,在硬體中追隨和反映 AI 技術快速演進的第一步。

類型 推論加速器
效能範例 Edge TPU 能讓使用者同時在每秒播放 30 個影格的高解析度影片中, 以節能的方式,在每個影格執行多個先進的 AI 模型。
數值 Int8、Int16
IO 推論 PCIe、USB
Google Cloud

開始使用

運用開發板上的 Edge TPU 進行建構作業,當中包含 Edge TPU 模組系統與載板。

瞭解 Edge TPU 開發套件
Clould IOT Edge

本頁所列產品目前仍在 Beta 測試階段。如要進一步瞭解產品的推出階段,請參閱這個網頁