Edge TPUbeta

エッジで推論を行うために設計された Google の専用 ASIC。

エッジでの AI 実行

エッジでの AI 実行

AI は今日、コンシューマ アプリケーションからエンタープライズ アプリケーションに至るまで広く使用されています。接続デバイスが急激に増加し、プライバシーや機密性保持、低レイテンシ、帯域幅の制約の需要とともに、クラウドでトレーニングした AI モデルをエッジで実行することがますます必要になっています。Edge TPU は AI をエッジで実行する目的に特化して Google が設計した専用 ASIC です。小さく低消費電力のフットプリントで高いパフォーマンスを実現し、高精度の AI をエッジにデプロイできます。

エンドツーエンドの AI インフラストラクチャ

エンドツーエンドの AI インフラストラクチャ

Edge TPU は Cloud TPU と Google Cloud サービスを補完し、エンドツーエンド(クラウドツーエッジ、ハードウェア + ソフトウェア)のインフラストラクチャを提供することにより、お客様の AI ベース ソリューションのデプロイが簡単になります。

小さく低消費電力のフットプリントで高いパフォーマンスを実現

小さく低消費電力のフットプリントで高いパフォーマンスを実現

高いパフォーマンス、小さなフットプリント、低消費電力の Edge TPU は、高品質な AI をエッジに広くデプロイできます。

AI のハードウェア、ソフトウェア、アルゴリズムの共同設計

AI のハードウェア、ソフトウェア、アルゴリズムの共同設計

Edge TPU は単なるハードウェア ソリューションではなく、カスタム ハードウェアやオープン ソフトウェア、最先端の AI アルゴリズムを組み合わせて、エッジ向けの高品質でデプロイしやすい AI ソリューションを提供します。

広い応用範囲

広い応用範囲

Edge TPU は予測メンテナンスや異常検出、マシンビジョン、ロボット工学、音声認識など、増え続ける産業ユースケースに使用できます。また、製造、オンプレミス、ヘルスケア、小売、スマート スペース、交通機関などにも使用できます。

AI ソリューションをデプロイするためのオープンでエンドツーエンドのインフラストラクチャ

Edge TPU はエッジへの高品質な ML 推論のデプロイを可能にします。また、Google の Cloud TPU と Cloud IoT を強化し、エンドツーエンド(クラウドツーエッジ、ハードウェア + ソフトウェア)のインフラストラクチャを提供することにより、お客様の AI ベース ソリューションのデプロイが簡単になります。Edge TPU はオープンソースの TensorFlow Lite プログラミング環境のほか、AI とハードウェアの両方で Google の専門知識を組み合わせて、最初にいくつかの Google AI モデルとともにデプロイされます。

Edge TPU は、エッジで AI を実行するための CPU、GPU、FPGA などの ASIC ソリューションを補完します。

エッジ
(デバイス / ノード、ゲートウェイ、サーバー)
Google Cloud
タスク ML 推論 ML トレーニングと推論
ソフトウェア、サービス Cloud IoT Edge、Linux OS
Cloud ML Engine、Kubernetes Engine、
Compute Engine、Cloud IoT Core
ML フレームワーク TensorFlow Lite、NN API
TensorFlow、scikit-learn、
XGBoost、Keras
ハードウェア アクセラレータ Edge TPU、GPU、CPU Cloud TPU、GPU、CPU

Edge TPU の特長

この ASIC は Google の AI に関する専門知識を活用し、AI の急速な進化に追随してハードウェアに反映するロードマップの第一歩です。

推論アクセラレータ
パフォーマンスの例 Edge TPU では電力効率の良い方法を使い、高解像度の動画上でフレームごとに複数の最先端の AI モデルを 30 フレーム/秒で同時に実行できます。
数値 Int8、Int16
IO インターフェース PCIe、USB
Google Cloud

使ってみる

Edge TPU SoM やキャリアボードが含まれる開発ボードを使用して Edge TPU で構築します。

Edge TPU 開発キットの詳細  
Cloud IoT Edge

このページで紹介しているプロダクトはベータ版です。プロダクトのリリース段階の詳細については、こちらをご覧ください。