Edge TPU
エッジで推論を行うための Google 専用 ASIC。

エッジでの AI 実行
AI は今日、コンシューマ アプリケーションからエンタープライズ アプリケーションに至るまで広く使用されています。コネクテッド デバイスの急激な増加と、プライバシーや機密性保持、低レイテンシ、帯域幅の制約に対する要求があいまって、クラウドでトレーニングした AI モデルをエッジで実行する必要性が高まりつつあります。Edge TPU は AI をエッジで実行する目的に特化して Google が設計した専用 ASIC です。低消費電力、小フットプリントで高パフォーマンスを実現し、高精度の AI をエッジにデプロイできます。

エンドツーエンドの AI インフラストラクチャ
Edge TPU は、Cloud TPU と Google Cloud サービスを補完し、エンドツーエンド(クラウドツーエッジ、ハードウェア + ソフトウェア)のインフラストラクチャを提供します。これにより、お客様の AI ベース ソリューションのデプロイが簡単になります。

低消費電力の小さなフットプリントで高いパフォーマンスを実現
高パフォーマンス、小フットプリント、低消費電力の Edge TPU は、高品質な AI をエッジに広くデプロイすることを可能にします。

AI のハードウェア、ソフトウェア、アルゴリズムの共同設計
Edge TPU は単なるハードウェア ソリューションではなく、カスタム ハードウェアやオープン ソフトウェア、最先端の AI アルゴリズムを組み合わせて、エッジ向けの高品質でデプロイしやすい AI ソリューションを提供します。

広い応用範囲
Edge TPU は、予測メンテナンス、異常検出、マシンビジョン、ロボット工学、音声認識など、増え続ける産業ユースケースに利用できます。 また、製造業、オンプレミス、ヘルスケア、小売業、スマート スペース、運輸業などにも対応可能です。
AI ソリューションをデプロイするためのオープンでエンドツーエンドのインフラストラクチャ
Edge TPU により、Coral のさまざまなプロトタイピング用プロダクトと本番環境用プロダクトを使用して、高品質な ML 推論をエッジにデプロイできます。
エッジの ML 向け Coral プラットフォームは、Google の Cloud TPU と Cloud IoT を強化し、エンドツーエンド(クラウドツーエッジ、ハードウェア + ソフトウェア)のインフラストラクチャを提供します。これにより、お客様の AI ベース ソリューションのデプロイが簡単になります。Coral プラットフォームはオープンソースの TensorFlow Lite プログラミング環境のほか、完全なデベロッパー ツールキットを提供するので、独自のモデルをコンパイルしたり、Edge TPU 向けに複数の Google AI モデルを再トレーニングして AI とハードウェアの両面における Google の専門知識を組み合わせたりすることができます。
Edge TPU は、エッジで AI を実行するための CPU、GPU、FPGA などの ASIC ソリューションを補完します。
エッジ
(デバイス / ノード、ゲートウェイ、サーバー)
|
Google Cloud | |
---|---|---|
タスク | ML 推論 | ML トレーニングと推論 |
ソフトウェア、サービス | Linux、Windows |
AI Platform、Kubernetes Engine、
Compute Engine、Cloud IoT Core
|
ML フレームワーク | TensorFlow Lite、NN API |
TensorFlow、scikit-learn、
XGBoost、Keras
|
ハードウェア アクセラレータ | Edge TPU、GPU、CPU | Cloud TPU、GPU、CPU |
Edge TPU の特長
この ASIC は Google の AI に関する専門知識を活用し、AI の急速な進化に追随してハードウェアに反映するロードマップの第一歩です。
タイプ | 推論アクセラレータ |
パフォーマンスの例 | Edge TPU では高い電力効率で、MobileNet v2 などの最先端のモバイル ビジョンモデルをほぼ 400 FPS で実行できます。 モデル ベンチマークをご覧ください。 |
数値 | Int8 |
IO インターフェース | PCIe、USB |
