Edge TPUbeta

エッジで推論を行うために設計された Google の専用 ASIC。

エッジでの AI 実行

エッジでの AI 実行

AI は今日、コンシューマ アプリケーションからエンタープライズ アプリケーションに至るまで広く使用されています。接続デバイスの急激な増加と、プライバシーや機密性保持、低レイテンシ、帯域幅の制約に対する要求があいまって、クラウドでトレーニングした AI モデルをエッジで実行する必要性が高まりつつあります。Edge TPU は AI をエッジで実行する目的に特化して Google が設計した専用 ASIC です。低消費電力、小フットプリントで高パフォーマンスを実現し、高精度の AI をエッジにデプロイできます。

エンドツーエンドの AI インフラストラクチャ

エンドツーエンドの AI インフラストラクチャ

Edge TPU は Cloud TPU と Google Cloud サービスを補完し、エンドツーエンド(クラウドツーエッジ、ハードウェア + ソフトウェア)のインフラストラクチャを提供することにより、お客様の AI ベース ソリューションのデプロイが簡単になります。

小さく低消費電力のフットプリントで高いパフォーマンスを実現

小さく低消費電力のフットプリントで高いパフォーマンスを実現

高パフォーマンス、小フットプリント、低消費電力の Edge TPU は、高品質な AI をエッジに広くデプロイできます。

AI のハードウェア、ソフトウェア、アルゴリズムの共同設計

AI のハードウェア、ソフトウェア、アルゴリズムの共同設計

Edge TPU は単なるハードウェア ソリューションではなく、カスタム ハードウェアやオープン ソフトウェア、最先端の AI アルゴリズムを組み合わせて、エッジ向けの高品質でデプロイしやすい AI ソリューションを提供します。

広い応用範囲

広い応用範囲

Edge TPU は予測メンテナンスや異常検出、マシンビジョン、ロボット工学、音声認識など、増え続ける産業ユースケースに使用できます。 また、製造、オンプレミス、ヘルスケア、小売、スマート スペース、交通機関などにも使用できます。

AI ソリューションをデプロイするためのオープンでエンドツーエンドのインフラストラクチャ

Edge TPU はエッジへの高品質な ML 推論のデプロイを可能にします。また、Google の Cloud TPU と Cloud IoT を強化し、エンドツーエンド(クラウドツーエッジ、ハードウェア + ソフトウェア)のインフラストラクチャを提供することにより、お客様の AI ベース ソリューションのデプロイが簡単になります。Edge TPU はオープンソースの TensorFlow Lite プログラミング環境のほか、AI とハードウェアの両面における Google の専門知識を組み合わせて、最初にいくつかの Google AI モデルとともにデプロイされます。

Edge TPU は、エッジで AI を実行するための CPU、GPU、FPGA などの ASIC ソリューションを補完します。

エッジ
(デバイス / ノード、ゲートウェイ、サーバー)
Google Cloud
タスク ML 推論 ML トレーニングと推論
ソフトウェア、サービス Cloud IoT Edge、Linux OS
Cloud ML Engine、Kubernetes Engine、
Compute Engine、Cloud IoT Core
ML フレームワーク TensorFlow Lite、NN API
TensorFlow、scikit-learn、
XGBoost、Keras
ハードウェア アクセラレータ Edge TPU、GPU、CPU Cloud TPU、GPU、CPU

Edge TPU の特長

この ASIC は Google の AI に関する専門知識を活用し、AI の急速な進化に追随してハードウェアに反映するロードマップの第一歩です。

タイプ 推論アクセラレータ
パフォーマンスの例 Edge TPU では電力効率の良い方法を使い、高解像度の動画上でフレームごとに複数の最先端の AI モデルを 30 フレーム/秒で同時に実行できます。
数値 Int8、Int16
IO インターフェース PCIe、USB
Google Cloud

使ってみる

Edge TPU SoM やキャリアボードが含まれる開発ボードを使用して Edge TPU で構築します。

Edge TPU 開発キットの詳細  
Cloud IoT Edge

このページで紹介しているプロダクトはベータ版です。プロダクトのリリース段階の詳細については、こちらをご覧ください。