Edge TPU抢先体验版

Google 专门为在边缘进行推理而打造的 ASIC。

在边缘运行的 AI

在边缘运行的 AI

如今,从消费应用到企业应用都遍布 AI 的身影。随着联网设备数量的爆发式增长,以及对隐私/机密、低延迟时间和带宽限制的需求,云端训练的 AI 模型需要在边缘运行的情况不断增加。Edge TPU 是 Google 专门为在边缘运行 AI 而打造的 ASIC,它体型小、能耗低,但性能出色,让您可以在边缘部署高精度 AI。

端到端 AI 基础架构

端到端 AI 基础架构

Edge TPU 是对 Cloud TPU 和 Google Cloud 服务的补充,提供端到端、云端到边缘、硬件 + 软件的基础架构,可协助客户部署基于 AI 的解决方案。

体型小、能耗低,但性能出色

体型小、能耗低,但性能出色

由于性能出色、体型纤小、能耗极低,Edge TPU 有助于高品质 AI 在边缘的广泛部署。

AI 硬件、软件和算法的协同设计

AI 硬件、软件和算法的协同设计

Edge TPU 不仅仅是一种硬件解决方案,它将定制硬件、开源软件和最先进的 AI 算法结合在一起,为边缘提供优质、易部署的 AI 解决方案。

众多应用场景

众多应用场景

Edge TPU 可用于越来越多的工业使用场景,如预测性维护、异常检测、机器视觉、机器人学、语音识别等等。它还可以用于制造、本地部署、医疗保健、零售、智能空间、交通运输等。

开放式端到端基础架构,方便您部署 AI 解决方案

Edge TPU 可助您实现高品质机器学习推理在边缘的部署。它与 Google 的 Cloud TPU 和 Cloud IoT 相辅相成,共同提供一个端到端(云端到边缘、硬件 + 软件)基础架构,从而协助客户部署基于 AI 的解决方案。除了开源 TensorFlow Lite 编程环境以外,Edge TPU 从一开始就将集成多个 Google AI 模型,将 Google 在 AI 和硬件方面的专业知识融于一炉。

Edge TPU 是对 CPU、GPU、FPGA 和其他在边缘运行 AI 的 ASIC 解决方案(将由 Cloud IoT Edge 提供支持)的补充。

边缘
(设备/节点、网关、服务器)
Google Cloud
任务 机器学习推理 机器学习训练和推理
软件、服务 Cloud IoT Edge、Linux 操作系统
Cloud ML Engine、Kubernetes Engine、
Compute Engine、Cloud IoT Core
机器学习框架 TensorFlow Lite、NN API
TensorFlow、scikit-learn、
XGBoost、Keras
硬件加速器 Edge TPU、GPU、CPU Cloud TPU、GPU 和 CPU

Edge TPU 特性

我们制定了一份利用 Google 的 AI 知识在硬件领域紧跟并反映 AI 的迅猛发展的路线图,此 ASIC 便是此路线图中的第一步。

类型 推理加速器
性能示例 Edge TPU 使用户能够以低能耗的方式、每秒 30 帧的速度,对高分辨视频中的每个帧并行执行多个最先进的 AI 模型。
数字 Int8、Int16
IO 接口 PCIe、USB

边缘机器学习推理对实现可靠、实时、低延迟且经济实惠的智能城市物联网来说至关重要。Cloud IoT Edge 和 Edge TPU 以全新方式为下一代 Smart Parking 系统赋予了这些能力。

Smart Parking Limited 首席技术官 John Heard
Google Cloud

开始使用

使用开发板(包括 Edge TPU SoM 和载板)在 Edge TPU 上构建您的应用。开发板通过我们的 Cloud IoT Edge Alpha 版计划提供。

了解 CLOUD IOT EDGE 

申请抢先体验 Cloud IoT Edge Alpha 版和 Edge TPU 开发板。

Clould IOT Edge

此页面上列出的多项产品为 Alpha 版或抢先体验版。如需详细了解我们的产品发布阶段,请点击此处