Edge TPU测试版

Google 专门为在边缘进行推理运算而打造的 ASIC。

在边缘运行的 AI

在边缘运行的 AI

如今,从消费者应用到企业应用都遍布 AI 的身影。随着联网设备数量的爆发式增长,加上对隐私/机密、低延迟时间的需求以及带宽限制等因素,云端训练的 AI 模型需要在边缘运行的情况日趋普遍。Edge TPU 是 Google 专门为在边缘运行 AI 而打造的 ASIC,它体型小、能耗低,但性能出色,让您可以在边缘部署高精度 AI。

端到端 AI 基础架构

端到端 AI 基础架构

Edge TPU 是对 Cloud TPU 和 Google Cloud 服务的补充,提供端到端、云端到边缘、“硬件 + 软件”的基础架构,可协助客户部署基于 AI 的解决方案。

体型小、能耗低,但性能出色

体型小、能耗低,但性能出色

由于性能出色、体型纤小、能耗极低,Edge TPU 可实现高品质 AI 在边缘的广泛部署。

AI 硬件、软件和算法的协同设计

AI 硬件、软件和算法的协同设计

Edge TPU 不仅仅是一种硬件解决方案,它将定制硬件、开源软件和最先进的 AI 算法结合在一起,为边缘提供优质、易部署的 AI 解决方案。

众多应用场景

众多应用场景

Edge TPU 可用于越来越多的工业使用场景,如预测性维护、异常检测、机器视觉、机器人学、语音识别等等。可以应用于制造、本地部署、医疗保健、零售、智能空间、交通运输等各个领域。

开放式端到端基础架构,方便您部署 AI 解决方案

Edge TPU 可助您实现高品质机器学习推理在边缘的部署。它与 Google 的 Cloud TPU 和 Cloud IoT 相辅相成,共同提供一个端到端(云端到边缘、硬件 + 软件)基础架构,方便客户部署基于 AI 的解决方案。除了开源 TensorFlow Lite 编程环境以外,Edge TPU 还将从一开始就集成部署多个 Google AI 模型,将 Google 在 AI 和硬件方面的专业知识融于一体。

Edge TPU 是对 CPU、GPU、FPGA 以及其他在边缘运行 AI 的 ASIC 解决方案的补充。

边缘
(设备/节点、网关、服务器)
Google Cloud
任务 机器学习推理 机器学习训练和推理
软件、服务 Cloud IoT Edge、Linux 操作系统
Cloud ML Engine、Kubernetes Engine、
Compute Engine、Cloud IoT Core
机器学习框架 TensorFlow Lite、NN API
TensorFlow、scikit-learn、
XGBoost、Keras
硬件加速器 Edge TPU、GPU、CPU Cloud TPU、GPU 和 CPU

Edge TPU 特性

我们制定了一份发展路线图,意在利用 Google 的 AI 知识,在硬件领域紧跟并反映 AI 的快速进步,此 ASIC 便是该路线图中的第一步。

类型 推理加速器
性能示例 Edge TPU 使用户能够以低能耗的方式,对每秒 30 帧的高分辨视频中的每个画面并行执行多个最先进的 AI 模型。
数字 Int8、Int16
IO 接口 PCIe、USB
Google Cloud

开始使用

使用开发板(包括 Edge TPU SoM 和载板)在 Edge TPU 上构建您的应用。

了解 Edge TPU 开发套件  
Clould IOT Edge

此页面上列出的多项产品目前为测试版。如需详细了解我们的产品发布阶段,请点击此处