Ir para
Infraestrutura de IA

Infraestrutura de IA

Infraestrutura escalonável, de alto desempenho e custo-benefício para cada carga de trabalho de AI.

  • Aceleradores de IA para cada caso de uso, de treinamento de alto desempenho a inferência de baixo custo

  • Escalone mais rápido com GPUs e TPUs no Google Kubernetes Engine ou no Google Compute Engine

  • Soluções implantáveis para a Vertex AI, o Google Kubernetes Engine e o Cloud HPC Toolkit

  • Aproveite ao máximo nossa infraestrutura de IA implantando a arquitetura de hipercomputador de IA

Vantagens

Otimize o desempenho e o custo em grande escala

Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala.

Ofereça resultados mais rapidamente com a infraestrutura gerenciada

Escalonamento mais rápido e eficiente com a infraestrutura gerenciada pela Vertex AI. Configure ambientes de ML rapidamente, automatize a orquestração, gerencie clusters grandes e configure aplicativos com baixa latência.

Desenvolva com software com foco na IA

Melhore a produtividade do desenvolvimento de IA usando o GKE para gerenciar cargas de trabalho em grande escala. Treine e disponibilize os modelos de base com suporte para escalonamento automático, orquestração de cargas de trabalho e upgrades automáticos. 

Principais recursos

Principais recursos

Hardware flexível e escalonável para qualquer caso de uso

Não existe uma solução única para todas as cargas de trabalho de IA. É por isso que, com nossos parceiros de hardware do setor, como NVIDIA, Intel, AMD, Arm e outros, fornecemos aos clientes a mais ampla gama de opções de computação otimizadas por IA em TPUs, GPUs e CPUs para treinar e disponibilizar os modelos com maior consumo de dados.

Fácil de usar, gerenciar e dimensionar

A orquestração de cargas de trabalho de IA em grande escala com Cloud TPUs e GPUs do Cloud sempre exigiu esforço manual para lidar com falhas, geração de registros, monitoramento e outras operações fundamentais. O Google Kubernetes Engine (GKE), o serviço mais escalonável e totalmente gerenciado do Kubernetes, simplifica consideravelmente o trabalho necessário para operar TPUs e GPUs. Usar o GKE para gerenciar a orquestração de cargas de trabalho de IA em larga escala no Cloud TPU e na GPU do Cloud melhora a produtividade do desenvolvimento de IA.

Para organizações que preferem a simplicidade de abstrair a infraestrutura com serviços gerenciados, a Vertex AI agora oferece suporte ao treinamento com vários frameworks e bibliotecas usando Cloud TPU e Cloud GPU.

Escalone seus modelos de IA exponencialmente

Nossa infraestrutura otimizada por IA foi criada para oferecer a escala e o desempenho globais exigidos por produtos do Google, como YouTube, Gmail, Google Maps, Google Play e Android, que atendem a bilhões de usuários. Todas as nossas soluções de infraestrutura de IA são embasadas na rede de data centers Jupiter do Google Cloud, que oferece a melhor capacidade de escalonamento horizontal para serviços básicos, até cargas de trabalho de IA de alta intensidade.

Plataforma altamente flexível e aberta

Por décadas, contribuímos com projetos de IA essenciais, como TensorFlow e JAX. Somos cofundadores da PyTorch Foundation e, recentemente, anunciamos um novo consórcio do setor: o projeto OpenXLA. Além disso, o Google é o principal colaborador de código aberto da CNCF e tem mais de 20 anos de histórico de contribuições de OSS, como TFX, MLIR, OpenXLA, KubeFlow e Kubernetes, bem como patrocínios de projetos de OSS essenciais para a comunidade de ciência de dados, como o Projeto Jupyter e NumFOCverteUS.

Além disso, nossos serviços de infraestrutura de IA são incorporados aos frameworks de IA mais conhecidos, como TensorFlow, PyTorch e MXNet, permitindo que os clientes continuem usando o framework que preferirem sem se restringirem a um framework ou arquitetura de hardware específicos.

Documentação

Documentação

Google Cloud Basics

Ferramentas de infraestrutura de IA no GKE

Execute cargas de trabalho de IA/ML otimizadas com os recursos de orquestração da plataforma do Google Kubernetes Engine (GKE).
Google Cloud Basics

Deep Learning VM Images

As imagens da VM de aprendizado profundo são otimizadas para tarefas de ciência de dados e machine learning. Elas são equipadas com frameworks chave de ML, ferramentas pré-instaladas e funcionam com GPUs.
Google Cloud Basics

Deep Learning Containers

Os Deep Learning Containers são ambientes consistentes e otimizados para desempenho que ajudam você a prototipar e implementar fluxos de trabalho rapidamente em CPUs ou GPUs.
Tutorial

Como as unidades de processamento de tensor são otimizadas para IA/ML?

Saiba mais sobre os requisitos computacionais do machine learning e como as TPUs foram criadas especificamente para processar essa tarefa.
Google Cloud Basics

Arquitetura do sistema de TPU

TPUs são máquinas ASICs personalizadas do Google usadas para acelerar as cargas de trabalho de aprendizado. Aprenda do zero a arquitetura do sistema das TPUs.

Não encontrou o que procura?

Casos de uso

Arquitetura de hipercomputador de IA

Caso de uso
Maximize o preço/desempenho para disponibilizar IA em escala

As GPUs Cloud TPU v5e e NVIDIA L4 permitem inferência econômica e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.

Performance/US$ gráfico de inferência de IA até 2,7 vezes mais alta

Preços

Preços

O preço da infraestrutura de IA tem o produto selecionado como base. Comece a usar a infraestrutura de IA do Google sem pagar nada com o Colab ou o nível gratuito do Google Cloud.

Cloud TPU
Cloud GPU
Para informações sobre preços de TPU de dispositivo único e Pod de TPU, consulte Preços de TPU.
Para informações sobre preços de diferentes tipos de GPUs e regiões disponíveis, consulte os preços de GPUs.

Os produtos de IA do Cloud estão em conformidade com nossas políticas de SLA. Elas oferecem garantias de latência ou disponibilidade diferentes de outros serviços do Google Cloud.

Vá além

Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud