Edge TPU

Speciaal gebouwde ASIC van Google om inferentie op de edge uit te voeren.

AI op de edge

AI op de edge

AI is tegenwoordig overal, van consumenten- tot bedrijfs-apps. Met de explosieve groei van verbonden apparaten, gecombineerd met een vraag naar privacy/vertrouwelijkheid, korte wachttijd en bandbreedtebeperkingen, moeten AI-modellen die in de cloud zijn getraind steeds vaker op de edge worden uitgevoerd. Edge TPU is een speciaal gebouwde ASIC van Google om AI op de edge uit te voeren. Edge TPU levert krachtige prestaties in een kleine behuizing met een laag energieverbruik, wat implementatie van zeer nauwkeurige AI op de edge mogelijk maakt.

End-to-end AI-infrastructuur

End-to-end AI-infrastructuur

Edge TPU is een aanvulling op Cloud TPU en Google Cloud-services om een end-to-end hardware- en software-infrastructuur van cloud naar edge te bieden, zodat klanten hun AI-oplossingen eenvoudiger kunnen implementeren.

Grote prestaties met kleine apparaten en een laag energieverbruik

Grote prestaties met kleine apparaten en een laag energieverbruik

Dankzij goede prestaties, een klein formaat en laag energieverbruik kan met Edge TPU een breed scala aan hoogwaardige AI-implementaties op de edge worden uitgevoerd.

Gezamenlijk AI-hardware, -software en -algoritmen ontwerpen

Gezamenlijk AI-hardware, -software en -algoritmen ontwerpen

Edge TPU is niet alleen een hardware-oplossing. Het is een combinatie van speciale hardware, open software en de nieuwste AI-algoritmen om eenvoudig te implementeren AI-oplossingen van hoge kwaliteit op de edge te bieden.

Een breed scala aan toepassingen

Een breed scala aan toepassingen

Edge TPU kan worden gebruikt voor een groeiend aantal branchetoepassingen, zoals voorspellend onderhoud, afwijkingsdetectie, machine vision, robotica, spraakherkenning en nog veel meer. De ASIC kan bijvoorbeeld worden gebruikt in productieomgevingen, lokale toepassingen, de gezondheidszorg, detailhandel, slimme ruimtes en transport.

Een open, end-to-end-infrastructuur voor de implementatie van AI-oplossingen

Met Edge TPU kunnen ML-inferenties van hoge kwaliteit op de edge worden uitgevoerd met behulp van verschillende prototypen en producten van Coral.

Het platform van Coral voor ML op de edge vergroot de Cloud TPU en Cloud IoT van Google voor een end-to-end-infrastructuur (cloud-to-edge, hardware + software) om de op AI gebaseerde oplossingen van klanten te kunnen implementeren. Naast de opensource-programmeeromgeving van TensorFlow Lite biedt het platform van Coral een complete ontwikkelingstoolkit waarmee u uw eigen modellen kunt samenstellen of verschillende Google AI-modellen opnieuw kunt trainen voor de Edge TPU. Zo combineert u de expertise van Google op het gebied van zowel AI als hardware.

Edge TPU is een aanvulling op CPU's, GPU's, FPGA's en andere ASIC-oplossingen voor het uitvoeren van AI op de edge.

Edge
(Apparaten/nodes, gateways, servers)
Google Cloud
Taken ML-inferentie ML-training en -inferentie
Software, services Cloud IoT Edge, Linux OS
AI-platform, Kubernetes Engine,
Compute Engine, Cloud IoT Core
ML-frameworks TensorFlow Lite, NN API
TensorFlow, scikit-learn,
XGBoost, Keras
Hardwareversnellers Edge TPU, GPU, CPU Cloud TPU, GPU en CPU

Kenmerken van Edge TPU

Deze ASIC is de eerste stap in een roadmap die gebruikmaakt van de AI-expertise van Google om de snelle evolutie van AI te volgen en deze te vertalen naar hardware.

Type Inferentieversneller
Prestatievoorbeeld Edge TPU stelt gebruikers in staat op een energiezuinige manier de meest geavanceerde mobile vision-modellen uit te voeren, zoals MobileNet v2 met bijna 400 frames per seconde. Benchmarks voor modellen bekijken.
Numerics Int8, Int16
IO-interface PCIe, USB
Google Cloud

Aan de slag

Ontwerp met Edge TPU op het ontwikkelbord, inclusief een Edge TPU SoM en een draagbord.

Meer informatie over Edge TPU-producten van Coral  
Cloud IoT Edge

Producten op deze pagina bevinden zich in de bètafase. Kijk hier voor meer informatie over de lanceringsfasen van onze producten.