Acessar

Infraestrutura de IA

Infraestrutura escalonável, de alto desempenho e custo-benefício para cada carga de trabalho de ML.

  • Aceleradores de IA para cada caso de uso, de treinamento de alto desempenho a inferência de baixo custo

  • Escalone mais rápido com a infraestrutura totalmente gerenciada da Vertex AI, criada para cargas de trabalho de IA 

  • Algoritmos inovadores com infraestrutura otimizada, criados pelo Google Research e por parceiros

Benefícios

Otimize o desempenho e o custo em grande escala

Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala.

Ofereça resultados mais rapidamente com a infraestrutura gerenciada

Escalonamento mais rápido e eficiente com a infraestrutura gerenciada pela Vertex AI. Configure ambientes de ML rapidamente, automatize a orquestração, gerencie clusters grandes e configure aplicativos com baixa latência.

Inove mais rapidamente com IA de última geração

Gere mais valor com o ML com acesso a IA de última geração do Google Research, do DeepMind e de parceiros.

Principais recursos

Principais recursos

Hardware flexível e escalonável para qualquer caso de uso

Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala. Mova-se mais rapidamente com Unidades de Processamento de Tensor (TPUs) para treinar e executar redes neurais profundas em escala com custo otimizado e tempo de treinamento.

Escolha um dos vários GPUs NVIDIA para ajudar no treinamento com inferência econômica, escalonamento vertical ou de escalonamento horizontal. Nem todos os modelos de machine learning são iguais, e modelos diferentes se beneficiam de diferentes níveis de aceleração de hardware. Por fim, acesse as plataformas de CPU ao iniciar uma instância de VM no Compute Engine. O Compute Engine fornece uma variedade de processadores Intel e AMD para suas VMs.

Disponibilização de baixa latência

A Vertex AI fornece uma infraestrutura personalizada necessária para gerenciar automaticamente os processos de ML. Implante em endpoints totalmente gerenciados com escalonamento automático, endpoints particulares e ampla seleção de CPUs e GPUs.

O Tensorflow Ambiente de execução otimizado permite a pré-compilação de modelos em GPUs e CPUs com até 8 vezes a capacidade de processamento e seis vezes menos de latência para modelos tabulares.

Treinamento em grande escala

A Vertex AI fornece recursos de rede gerenciada para ajudar os clientes a escalonar o treinamento de vários nós e reduzir o tempo de treinamento.

Jobs de treinamento gerenciado: envie e esqueça jobs de treinamento com gerenciamento de filas, GPUs e TPUs da NVIDIA e otimização de hiperparâmetros integrada.

Servidor de redução: otimize o treinamento distribuído da GPU para algoritmos paralelos de dados síncronos com redução de até 30% a 40% no tempo e no custo de treinamento.

Cloud Storage FUSE e NFS: simplifique e acelere seus jobs de treinamento de ML com as opções integradas de armazenamento de arquivos e objetos na Vertex AI com suporte para o Cloud Storage AutoClass.

Algoritmos de IA de última geração

Acesse algoritmos de IA de última geração desenvolvidos pela pesquisa do Google para simplificar casos de uso complexos de IA com infraestrutura otimizada integrada. Reduza a complexidade e acelere o retorno do investimento com algoritmos como NAS, TabNet, Alphafold e NVIDIA Merlin.

Plataforma altamente flexível e aberta

Nosso compromisso é oferecer aos clientes a liberdade máxima de escolher o framework de ML ou os serviços de infraestrutura que funcionarem melhor para eles. 

Acesse e use com facilidade qualquer ferramenta, API ou framework para suas cargas de trabalho de ML em uma única plataforma de dados de IA e de dados unificada, permitindo que suas equipes escolham o framework adequado para a preferência e a eficiência de desenvolvimento que quiserem.

Acesse um conjunto completo de elementos básicos, como VMs e contêineres de aprendizado profundo, e um mercado de ofertas de ISV selecionadas para ajudar a arquitetar sua própria pilha de software personalizada em VMs e/ou Google Kubernetes Engine (GKE). 

Documentação

Documentação

Princípios básicos do Google Cloud
Como usar GPUs para treinar modelos na nuvem

As GPUs podem acelerar o processo de treinamento de modelos de aprendizado profundo para tarefas como classificação de imagens, análise de vídeos e processamento de linguagem natural.

Princípios básicos do Google Cloud
Como usar TPUs para treinar seu modelo

TPUs são máquinas ASICs personalizadas do Google usadas para acelerar as cargas de trabalho de aprendizado. É possível executar jobs de treinamento no AI Platform Training com uma Cloud TPU.

Tutorial
Como as TPUs se ajustam ao aprendizado profundo?

Conheça os requisitos computacionais do aprendizado profundo e como CPU, GPU e TPUs cuidam da tarefa.

Princípios básicos do Google Cloud
VM de aprendizado profundo

As imagens da VM de aprendizado profundo são otimizadas para tarefas de ciência de dados e machine learning. Elas são equipadas com os principais frameworks e ferramentas de ML pré-instalados e funcionam com GPUs.

Princípios básicos do Google Cloud
AI Platform Deep Learning Containers

Os contêineres de aprendizado profundo do AI Platform são ambientes consistentes e otimizados para desempenho que ajudam a prototipar e implementar fluxos de trabalho com rapidez. Eles funcionam com GPUs.

Preços

Preços

O preço da infraestrutura de IA tem o produto selecionado como base. É possível testar a infraestrutura de IA gratuitamente.

Cloud TPU Cloud GPU
Para informações sobre preços de TPU de dispositivo único e Pod de TPU, consulte Preços de TPU. Para informações sobre preços dos diferentes tipos de GPU e as regiões disponíveis no Compute Engine, consulte os Preços de GPU.