Edge TPU

ASIC progettato appositamente da Google per eseguire l'inferenza a livello perimetrale.

AI a livello perimetrale

AI a livello perimetrale

L'AI oggi è sempre più pervasiva, dalle applicazioni consumer alle applicazioni aziendali. Con la crescita esplosiva dei dispositivi connessi, combinata con la necessità di privacy/riservatezza, bassa latenza e limiti di larghezza di banda, i modelli di AI addestrati nel cloud hanno sempre più bisogno di essere eseguiti a livello perimetrale. Edge TPU è l'ASIC progettato appositamente da Google per eseguire l'AI a livello perimetrale. Grazie alle prestazioni elevate, a un ingombro minimo e a un consumo energetico ridotto, consente il deployment di servizi di AI ad alta precisione a livello perimetrale.

Infrastruttura AI end-to-end

Infrastruttura AI end-to-end

Edge TPU integra i servizi Cloud TPU e Google Cloud per fornire un'infrastruttura hardware e software end-to-end e cloud-to-edge in modo da facilitare il deployment delle soluzioni dei clienti basate su AI.

Prestazioni elevate con ingombro minimo e consumo energetico ridotto

Prestazioni elevate con ingombro minimo e consumo energetico ridotto

Grazie alle sue prestazioni, a un ingombro minimo e a un consumo energetico ridotto, Edge TPU consente un ampio deployment di AI di alta qualità a livello periferico.

Co-design di hardware, software e algoritmi di AI

Co-design di hardware, software e algoritmi di AI

Edge TPU non è solo una soluzione hardware, ma combina hardware personalizzato, software aperto e algoritmi AI all'avanguardia per fornire soluzioni AI caratterizzate da alta qualità e facilità di deployment a livello periferico.

Una vasta gamma di applicazioni

Una vasta gamma di applicazioni

Puoi utilizzare Edge TPU per un numero crescente di casi d'uso a livello industriale, come manutenzione predittiva, rilevamento anomalie, visione artificiale, robotica, riconoscimento vocale e molto altro. Può essere utilizzato on-premise e nell'ambito di un'ampia gamma di settori: produzione, assistenza sanitaria, vendita al dettaglio, spazi intelligenti, trasporti ecc.

Un'infrastruttura aperta end-to-end per il deployment di soluzioni AI

Edge TPU consente di eseguire il deployment di inferenza ML di alta qualità a livello perimetrale tramite vari prodotti di produzione e prototipazione di Coral.

La piattaforma Coral per ML a livello perimetrale migliora i servizi Cloud TPU e Cloud IoT di Google per fornire un'infrastruttura end-to-end (cloud-to-edge, hardware e software) in modo da facilitare il deployment delle soluzioni dei clienti basate su AI. Oltre al suo ambiente di programmazione open source TensorFlow Lite, la piattaforma Coral offre un toolkit completo per lo sviluppatore, per compilare i propri modelli o istruire nuovamente diversi modelli di AI di Google per l'applicazione Edge TPU, che combina l'esperienza di Google sia nel campo dell'AI che nell'hardware.

Edge TPU integra CPU, GPU, FPGA e altre soluzioni ASIC per l'utilizzo dell'AI a livello perimetrale.

Edge
(Dispositivi/nodi, gateway, server)
Google Cloud
Attività Inferenza ML Addestramento e inferenza ML
Software, servizi Linux, Windows
AI Platform, Kubernetes Engine,
Compute Engine, Cloud IoT Core
Framework ML TensorFlow Lite, API NN
TensorFlow, scikit-learn,
XGBoost, Keras
Acceleratori hardware Edge TPU, GPU, CPU Cloud TPU, GPU e CPU

Funzionalità di Edge TPU

Questo ASIC è la prima fase di una tabella di marcia che sfrutterà l'esperienza di Google in materia di AI per seguire e riflettere nell'hardware la rapida evoluzione dell'AI.

Tipo Acceleratore di inferenza
Esempio di prestazione Edge TPU consente agli utenti di eseguire modelli di visione mobili all'avanguardia in modo efficiente e avanzato, come ad esempio MobileNet v2 a quasi 400 FPS. Vedi i modelli benchmark.
Valori numerici Int8
Interfaccia IO PCIe, USB
Google Cloud

Per iniziare

Crea con Edge TPU usando la scheda di sviluppo che include un SoM Edge TPU e una scheda operatore.

Ulteriori informazioni sui prodotti Edge TPU di Coral  
Cloud IOT Edge

I prodotti elencati in questa pagina sono in versione beta. Per ulteriori informazioni sulle fasi di lancio di questo prodotto, visita questa pagina.