Edge TPUbèta

Speciaal gebouwde ASIC van Google om inferentie bij de rand uit te voeren.

AI bij de rand

AI bij de rand

AI is tegenwoordig overal, van consumenten- tot bedrijfs-apps. Met de explosieve groei van verbonden apparaten, gecombineerd met een vraag naar privacy/vertrouwelijkheid, korte wachttijd en bandbreedtebeperkingen, moeten AI-modellen die in de cloud zijn getraind steeds vaker bij de rand worden uitgevoerd. Edge TPU is een speciaal gebouwde ASIC van Google om AI bij de rand uit te voeren. Edge TPU levert krachtige prestaties in een kleine behuizing met een laag energieverbruik, wat implementatie van zeer nauwkeurige AI bij de rand mogelijk maakt.

End-to-end AI-infrastructuur

End-to-end AI-infrastructuur

Edge TPU is een aanvulling op Cloud TPU en Google Cloud-services om een end-to-end hardware- en software-infrastructuur van cloud naar rand te bieden, zodat klanten hun AI-oplossingen eenvoudiger kunnen implementeren.

Grote prestaties met kleine apparaten en een laag energieverbruik

Grote prestaties met kleine apparaten en een laag energieverbruik

Dankzij zijn goede prestaties, beperkte grootte en laag energieverbruik kan met Edge TPU een breed scala aan hoogwaardige AI-implementaties bij de rand worden uitgevoerd.

Gezamenlijk ontwerp van AI-hardware, -software en -algoritmen

Gezamenlijk ontwerp van AI-hardware, -software en -algoritmen

Edge TPU is niet alleen een hardware-oplossing. Het is een combinatie van speciale hardware, open software en de beste AI-algoritmen om eenvoudig te implementeren AI-oplossingen van hoge kwaliteit bij de rand te bieden.

Een breed scala aan toepassingen

Een breed scala aan toepassingen

Edge TPU kan worden gebruikt voor een groeiend aantal branchetoepassingen, zoals voorspellend onderhoud, detectie van afwijkingen, machinezicht, robotica, spraakherkenning en nog veel meer. De ASIC kan bijvoorbeeld worden gebruikt in fabrieksproductie, lokale toepassingen, gezondheidszorg, detailhandel, slimme ruimten en transport.

Een open, end-to-end infrastructuur voor de implementatie van AI-oplossingen

Edge TPU maakt de implementatie van ML-inferenties van hoge kwaliteit bij de rand mogelijk. Deze ASIC verbetert de Cloud TPU en Cloud IoT van Google om een end-to-end (van cloud naar rand, hardware en software) infrastructuur te bieden, zodat klanten hun AI-oplossingen eenvoudiger kunnen implementeren. Naast de open source TensorFlow Lite-programmeeromgeving, wordt Edge TPU in eerste instantie geïmplementeerd met verschillende Google AI-modellen, waarbij de expertise van Google in zowel AI als hardware wordt gecombineerd.

Edge TPU is een aanvulling op CPU's, GPU's, FPGA's en andere ASIC-oplossingen voor het uitvoeren van AI bij de rand.

Rand
(Apparaten/knooppunten, gateways, servers)
Google Cloud
Taken ML-inferentie ML-training en -inferentie
Software, services Cloud IoT Edge, Linux OS
Cloud ML Engine, Kubernetes Engine,
Compute Engine, Cloud IoT Core
ML-frameworks TensorFlow Lite, NN API
TensorFlow, scikit-learn,
XGBoost, Keras
Hardwareversnellers Edge TPU, GPU, CPU Cloud TPU, GPU en CPU

Kenmerken van Edge TPU

Deze ASIC is de eerste stap in een roadmap die gebruikmaakt van de AI-expertise van Google om de snelle evolutie van AI te volgen en deze te vertalen naar hardware.

Type Inferentieversneller
Prestatievoorbeeld Edge TPU stelt gebruikers in staat gelijktijdig meerdere geavanceerde AI-modellen per frame uit te voeren, voor een video met hoge resolutie, met 30 frames per seconde en op een energiezuinige manier.
Numerics Int8, Int16
IO-interface PCIe, USB
Google Cloud

Aan de slag

Ontwerp met Edge TPU op het development board, inclusief een Edge TPU SoM en een draagbord.

Meer informatie over ontwikkelaarskits voor Edge TPU  
Clould IOT Edge

Producten op deze pagina bevinden zich in de bètafase. Kijk hier voor meer informatie over de lanceringsfasen van onze producten.