Edge TPU

Google 专门为在边缘运行推断而打造的 ASIC。

在边缘运行的 AI

在边缘运行的 AI

如今,从消费者应用到企业应用,到处可见 AI 的身影。随着联网设备的爆发式增长,加上对隐私/机密、低延迟的需求以及带宽限制等因素,云端训练的 AI 模型需要在边缘运行的情况日趋普遍。Edge TPU 是 Google 专门为在边缘运行 AI 而打造的 ASIC,它体型小、能耗低,但性能出色,让您可以在边缘部署高精度 AI。

端到端 AI 基础架构

端到端 AI 基础架构

Edge TPU 是对 Cloud TPU 和 Google Cloud 服务的补充,提供端到端、云端到边缘、“硬件 + 软件”的基础架构,可协助客户部署基于 AI 的解决方案。

体型小、能耗低,但性能出色

体型小、能耗低,但性能出色

由于性能出色、体型纤小、能耗极低,Edge TPU 可实现高品质 AI 在边缘的广泛部署。

AI 硬件、软件和算法的协同设计

AI 硬件、软件和算法的协同设计

Edge TPU 不仅仅是一种硬件解决方案,它将定制硬件、开源软件和最先进的 AI 算法结合在一起,为边缘提供优质、易部署的 AI 解决方案。

众多应用场景

众多应用场景

Edge TPU 可用于越来越多的工业使用场景,如预测性维护、异常检测、机器视觉、机器人学、语音识别等等。 它能够在制造、本地部署、医疗保健、零售、智能空间、交通运输等各个领域大放异彩。

开放式端到端基础架构,方便您部署 AI 解决方案

借助 Edge TPU,您可以使用来自 Coral 的各种原型设计和生产产品,在边缘部署优质的机器学习推断功能。

用于在边缘部署机器学习的 Coral 平台与 Google 的 Cloud TPU 和 Cloud IoT 相辅相成,共同提供一个端到端(云端到边缘、硬件 + 软件)基础架构,从而协助部署客户基于 AI 的解决方案。除了开源 TensorFlow Lite 编程环境以外,Coral 平台还提供一套完整的开发者工具包,这样您就可以针对 Edge TPU 编译自己的模型或者重新训练若干 Google AI 模型,将 Google 在 AI 和硬件方面的专业知识融于一体。

Edge TPU 对 CPU、GPU、FPGA 以及其他在边缘运行 AI 的 ASIC 解决方案构成了有益的补充。

边缘
(设备/节点、网关、服务器)
Google Cloud
任务 机器学习推断 机器学习训练和推断
软件、服务 Linux、Windows
AI Platform、Kubernetes Engine、
Compute Engine、Cloud IoT Core
机器学习框架 TensorFlow Lite、NN API
TensorFlow、scikit-learn、
XGBoost、Keras
硬件加速器 Edge TPU、GPU、CPU Cloud TPU、GPU 和 CPU

Edge TPU 特性

我们制定了一份发展路线图,意在利用 Google 的 AI 知识,在硬件领域紧跟并反映 AI 的快速进步,此 ASIC 便是该路线图中的第一步。

类型 推断加速器
性能示例 Edge TPU 使用户能够以低能耗的方式以近 400 FPS 的速度执行先进的移动版视觉模型,例如 MobileNet v2。 请参阅模型基准
数字 Int8
IO 接口 PCIe、USB
Google Cloud

开始使用

使用开发板(包括 Edge TPU SoM 和载板)在 Edge TPU 上构建您的应用。

通过 Coral 了解 Edge TPU 产品 
Clould IOT Edge

此页面上列出的多项产品目前为 Beta 版。如需详细了解我们的产品发布阶段,请点击此处