Edge TPU

ASIC do Google projetado especificamente para executar inferência no perímetro.

IA no perímetro

IA no perímetro

Atualmente, a inteligência artificial (IA) já está difundida, do consumidor aos aplicativos corporativos. Com o crescimento explosivo dos dispositivos conectados, combinado com uma demanda por privacidade/confidencialidade, baixa latência e restrições de largura de banda, os modelos de IA treinados na nuvem precisam cada vez mais ser executados no perímetro. A Edge TPU é o ASIC criado pelo Google e desenvolvido para executar a IA no perímetro. Ela oferece alto desempenho ocupando pouco espaço e consumindo pouca energia, permitindo a implantação de IA de alta precisão no perímetro.

Infraestrutura de IA completa

Infraestrutura de IA completa

A Edge TPU complementa os serviços Cloud TPU e Google Cloud para oferecer uma infraestrutura de hardware e software completa, da nuvem ao perímetro, para facilitar a implantação de soluções baseadas na IA dos clientes.

Alto desempenho em pouco espaço e com baixo consumo de energia

Alto desempenho em pouco espaço e com baixo consumo de energia

Graças ao seu desempenho, pouco espaço ocupado e baixo consumo de energia, a Edge TPU permite uma implantação ampla de IA de alta qualidade no perímetro.

Crie hardware, software e algoritmos de IA colaborativamente

Crie hardware, software e algoritmos de IA colaborativamente

A Edge TPU não é apenas uma solução de hardware: combina hardware personalizado, software aberto e algoritmos avançados de inteligência artificial para oferecer soluções de IA de alta qualidade e fáceis de implantar.

Grande variedade de aplicações

Grande variedade de aplicações

A Edge TPU pode ser usada para cada vez mais casos de uso industriais, como manutenção preditiva, detecção de anomalias, visão de máquina, robótica e reconhecimento de voz, entre outros. Ela pode ser usada nas seguintes aplicações: fabricação, no local, saúde, varejo, espaços inteligentes, transportes etc.

Uma infraestrutura aberta e completa para implantar soluções de IA

A Edge TPU permite implantar inferências de ML de alta qualidade na borda, usando vários produtos de prototipagem e produção da Coral.

A plataforma da Coral para ML na borda melhora o Cloud TPU e o Cloud IoT do Google para fornecer uma infraestrutura completa (da nuvem à borda, hardware e software), que facilita a implantação de soluções baseadas na IA dos clientes. Além do ambiente de programação de código aberto TensorFlow Lite, a plataforma da Coral oferece um kit de ferramentas para desenvolvedores completo para que você possa compilar seus próprios modelos ou reter diversos modelos de IA do Google para a Edge TPU, combinando a experiência do Google em IA e hardware.

A Edge TPU complementa CPUs, GPUs, FPGAs e outras soluções ASIC para executar IA no perímetro, com o apoio do Cloud IoT Edge.

Edge
(dispositivos/nós, gateways, servidores)
Google Cloud
Tarefas Inferência de ML Treinamento e inferência de ML
Software, serviços Cloud IoT Edge, SO Linux
AI Platform, Kubernetes Engine,
Compute Engine, Cloud IoT Core
Frameworks de ML TensorFlow Lite, API NN
TensorFlow, scikit-learn,
XGBoost, Keras
Aceleradores de hardware Edge TPU, GPU, CPU Cloud TPU, GPU e CPU

Recursos da Edge TPU

Este ASIC é a primeira etapa de um plano que usará a experiência em IA do Google para acompanhar e refletir a rápida evolução da IA no hardware.

Tipo Acelerador de inferência
Exemplo de desempenho A Edge TPU permite que os usuários executem modelos de visão móvel de última geração como MobileNet v2 a quase 400 QPS, com consumo eficiente de energia. Veja os comparativos de mercado do modelo.
Numéricos Int8, Int16
Interface de E/S PCIe, USB
Google Cloud

Primeiros passos

Desenvolva com a Edge TPU usando a placa de desenvolvimento, que inclui um sistema em módulo (SoM, na sigla em inglês) da Edge TPU e uma placa de suporte.

Saiba mais sobre os produtos da Edge TPU da Coral  
Cloud IOT Edge

Os produtos listados nesta página estão na versão Beta. Para mais informações sobre nossas etapas de lançamento de produtos, clique aqui.