Infraestrutura de IA
Opções para todas as empresas treinarem modelos de aprendizado profundo e machine learning de maneira econômica.
-
Aceleradores de IA para todos os casos de uso, de inferência de baixo custo até treinamento de alto desempenho
-
Iterações mais rápidas com Cloud GPUs e Cloud TPUs de alto desempenho
-
Fácil de usar com diversos serviços para desenvolvimento e implantação
Principais recursos
Principais recursos
Cloud TPUs
As Unidades de Processamento de Tensor (TPUs) são um ASIC criado especialmente para treinar e executar redes neurais profundas. Treine e execute modelos mais eficientes e precisos de maneira econômica com maior velocidade e escala.
GPUs do Cloud
Um conjunto de GPUs NVIDIA para ajudar com treinamento econômico de inferência ou escalonamento vertical ou horizontal. Utilize RAPID e Spark com GPUs para realizar aprendizado profundo. Execute as cargas de trabalho de GPU no Google Cloud, onde você tem acesso a tecnologias líderes do setor em armazenamento, rede e análise de dados.
CPUs
Acesse plataformas da CPU ao iniciar uma instância de VM no Compute Engine. O Compute Engine fornece uma variedade de processadores Intel e AMD para suas VMs.
Documentação
Documentação
Como usar GPUs para treinar modelos na nuvem
As GPUs podem acelerar o processo de treinamento de modelos de aprendizado profundo para tarefas como classificação de imagens, análise de vídeos e processamento de linguagem natural.
Como usar TPUs para treinar seu modelo
TPUs são máquinas ASICs personalizadas do Google usadas para acelerar as cargas de trabalho de aprendizado. É possível executar jobs de treinamento no AI Platform Training com uma Cloud TPU.
Como as TPUs se ajustam ao aprendizado profundo?
Conheça os requisitos computacionais do aprendizado profundo e como as CPUs, GPUs e TPUs lidam com essa tarefa.
VM de aprendizado profundo
As imagens da VM de aprendizado profundo são otimizadas para tarefas de ciência de dados e machine learning. Elas são equipadas com frameworks chave de ML, ferramentas pré-instaladas e funcionam com GPUs.
Deep Learning Conteiners da AI Platform
Os Deep Learning Containers da AI Platform são ambientes consistentes e otimizados para desempenho que ajudam a prototipar e implementar fluxos de trabalho com rapidez. Eles funcionam com GPUs.
Preços
Preços
O preço da infraestrutura de IA tem o produto selecionado como base. É possível testar a infraestrutura de IA gratuitamente.
Cloud TPU | GPU do Cloud |
---|---|
Para informações sobre preços de TPU de dispositivo único e Pod de TPU consulte esta página. | Para informações sobre preços dos diferentes tipos de GPU e as regiões disponíveis no Compute Engine, acesse esta página. |
Os produtos de IA do Cloud estão em conformidade com nossas políticas de SLA. Elas oferecem garantias de latência ou disponibilidade diferentes de outros serviços do Google Cloud.