Infraestrutura de IA
Infraestrutura escalonável, de alto desempenho e custo-benefício para cada carga de trabalho de ML.
-
Aceleradores de IA para cada caso de uso, de treinamento de alto desempenho a inferência de baixo custo
-
Escalone mais rápido com a infraestrutura totalmente gerenciada da Vertex AI, criada para cargas de trabalho de IA
-
Algoritmos inovadores com infraestrutura otimizada, criados pelo Google Research e por parceiros
Benefícios
Otimize o desempenho e o custo em grande escala
Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala.
Ofereça resultados mais rapidamente com a infraestrutura gerenciada
Escalonamento mais rápido e eficiente com a infraestrutura gerenciada pela Vertex AI. Configure ambientes de ML rapidamente, automatize a orquestração, gerencie clusters grandes e configure aplicativos com baixa latência.
Inove mais rapidamente com IA de última geração
Gere mais valor com o ML com acesso a IA de última geração do Google Research, do DeepMind e de parceiros.
Principais recursos
Principais recursos
Hardware flexível e escalonável para qualquer caso de uso
Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala. Mova-se mais rapidamente com Unidades de Processamento de Tensor (TPUs) para treinar e executar redes neurais profundas em escala com custo otimizado e tempo de treinamento.
Escolha um dos vários GPUs NVIDIA para ajudar no treinamento com inferência econômica, escalonamento vertical ou de escalonamento horizontal. Nem todos os modelos de machine learning são iguais, e modelos diferentes se beneficiam de diferentes níveis de aceleração de hardware. Por fim, acesse as plataformas de CPU ao iniciar uma instância de VM no Compute Engine. O Compute Engine fornece uma variedade de processadores Intel e AMD para suas VMs.
Disponibilização de baixa latência
A Vertex AI fornece uma infraestrutura personalizada necessária para gerenciar automaticamente os processos de ML. Implante em endpoints totalmente gerenciados com escalonamento automático, endpoints particulares e ampla seleção de CPUs e GPUs.
O Tensorflow Ambiente de execução otimizado permite a pré-compilação de modelos em GPUs e CPUs com até 8 vezes a capacidade de processamento e seis vezes menos de latência para modelos tabulares.
Treinamento em grande escala
A Vertex AI fornece recursos de rede gerenciada para ajudar os clientes a escalonar o treinamento de vários nós e reduzir o tempo de treinamento.
Jobs de treinamento gerenciado: envie e esqueça jobs de treinamento com gerenciamento de filas, GPUs e TPUs da NVIDIA e otimização de hiperparâmetros integrada.
Servidor de redução: otimize o treinamento distribuído da GPU para algoritmos paralelos de dados síncronos com redução de até 30% a 40% no tempo e no custo de treinamento.
Cloud Storage FUSE e NFS: simplifique e acelere seus jobs de treinamento de ML com as opções integradas de armazenamento de arquivos e objetos na Vertex AI com suporte para o Cloud Storage AutoClass.
Algoritmos de IA de última geração
Acesse algoritmos de IA de última geração desenvolvidos pela pesquisa do Google para simplificar casos de uso complexos de IA com infraestrutura otimizada integrada. Reduza a complexidade e acelere o retorno do investimento com algoritmos como NAS, TabNet, Alphafold e NVIDIA Merlin.
Plataforma altamente flexível e aberta
Nosso compromisso é oferecer aos clientes a liberdade máxima de escolher o framework de ML ou os serviços de infraestrutura que funcionarem melhor para eles.
Acesse e use com facilidade qualquer ferramenta, API ou framework para suas cargas de trabalho de ML em uma única plataforma de dados de IA e de dados unificada, permitindo que suas equipes escolham o framework adequado para a preferência e a eficiência de desenvolvimento que quiserem.
Acesse um conjunto completo de elementos básicos, como VMs e contêineres de aprendizado profundo, e um mercado de ofertas de ISV selecionadas para ajudar a arquitetar sua própria pilha de software personalizada em VMs e/ou Google Kubernetes Engine (GKE).
O que há de novo
O que há de novo
Documentação
Documentação
Como usar GPUs para treinar modelos na nuvem
As GPUs podem acelerar o processo de treinamento de modelos de aprendizado profundo para tarefas como classificação de imagens, análise de vídeos e processamento de linguagem natural.
Como usar TPUs para treinar seu modelo
TPUs são máquinas ASICs personalizadas do Google usadas para acelerar as cargas de trabalho de aprendizado. É possível executar jobs de treinamento no AI Platform Training com uma Cloud TPU.
Como as TPUs se ajustam ao aprendizado profundo?
Conheça os requisitos computacionais do aprendizado profundo e como CPU, GPU e TPUs cuidam da tarefa.
VM de aprendizado profundo
As imagens da VM de aprendizado profundo são otimizadas para tarefas de ciência de dados e machine learning. Elas são equipadas com os principais frameworks e ferramentas de ML pré-instalados e funcionam com GPUs.
AI Platform Deep Learning Containers
Os contêineres de aprendizado profundo do AI Platform são ambientes consistentes e otimizados para desempenho que ajudam a prototipar e implementar fluxos de trabalho com rapidez. Eles funcionam com GPUs.
Preços
Preços
O preço da infraestrutura de IA tem o produto selecionado como base. É possível testar a infraestrutura de IA gratuitamente.
Cloud TPU | Cloud GPU |
---|---|
Para informações sobre preços de TPU de dispositivo único e Pod de TPU, consulte Preços de TPU. | Para informações sobre preços dos diferentes tipos de GPU e as regiões disponíveis no Compute Engine, consulte os Preços de GPU. |
Os produtos de IA do Cloud estão em conformidade com nossas políticas de SLA. Elas oferecem garantias de latência ou disponibilidade diferentes de outros serviços do Google Cloud.