Infraestrutura escalonável, de alto desempenho e custo-benefício para cada carga de trabalho de AI.
Aceleradores de IA para cada caso de uso, de treinamento de alto desempenho a inferência de baixo custo
Escalone mais rápido com GPUs e TPUs no Google Kubernetes Engine ou no Google Compute Engine
Soluções implantáveis para a Vertex AI, o Google Kubernetes Engine e o Cloud HPC Toolkit
Aproveite ao máximo nossa infraestrutura de IA implantando a arquitetura de hipercomputador de IA
Vantagens
Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala.
Escalonamento mais rápido e eficiente com a infraestrutura gerenciada pela Vertex AI. Configure ambientes de ML rapidamente, automatize a orquestração, gerencie clusters grandes e configure aplicativos com baixa latência.
Melhore a produtividade do desenvolvimento de IA usando o GKE para gerenciar cargas de trabalho em grande escala. Treine e disponibilize os modelos de base com suporte para escalonamento automático, orquestração de cargas de trabalho e upgrades automáticos.
Principais recursos
Não existe uma solução única para todas as cargas de trabalho de IA. É por isso que, com nossos parceiros de hardware do setor, como NVIDIA, Intel, AMD, Arm e outros, fornecemos aos clientes a mais ampla gama de opções de computação otimizadas por IA em TPUs, GPUs e CPUs para treinar e disponibilizar os modelos com maior consumo de dados.
A orquestração de cargas de trabalho de IA em grande escala com Cloud TPUs e GPUs do Cloud sempre exigiu esforço manual para lidar com falhas, geração de registros, monitoramento e outras operações fundamentais. O Google Kubernetes Engine (GKE), o serviço mais escalonável e totalmente gerenciado do Kubernetes, simplifica consideravelmente o trabalho necessário para operar TPUs e GPUs. Usar o GKE para gerenciar a orquestração de cargas de trabalho de IA em larga escala no Cloud TPU e na GPU do Cloud melhora a produtividade do desenvolvimento de IA.
Para organizações que preferem a simplicidade de abstrair a infraestrutura com serviços gerenciados, a Vertex AI agora oferece suporte ao treinamento com vários frameworks e bibliotecas usando Cloud TPU e Cloud GPU.
Nossa infraestrutura otimizada por IA foi criada para oferecer a escala e o desempenho globais exigidos por produtos do Google, como YouTube, Gmail, Google Maps, Google Play e Android, que atendem a bilhões de usuários. Todas as nossas soluções de infraestrutura de IA são embasadas na rede de data centers Jupiter do Google Cloud, que oferece a melhor capacidade de escalonamento horizontal para serviços básicos, até cargas de trabalho de IA de alta intensidade.
Por décadas, contribuímos com projetos de IA essenciais, como TensorFlow e JAX. Somos cofundadores da PyTorch Foundation e, recentemente, anunciamos um novo consórcio do setor: o projeto OpenXLA. Além disso, o Google é o principal colaborador de código aberto da CNCF e tem mais de 20 anos de histórico de contribuições de OSS, como TFX, MLIR, OpenXLA, KubeFlow e Kubernetes, bem como patrocínios de projetos de OSS essenciais para a comunidade de ciência de dados, como o Projeto Jupyter e NumFOCverteUS.
Além disso, nossos serviços de infraestrutura de IA são incorporados aos frameworks de IA mais conhecidos, como TensorFlow, PyTorch e MXNet, permitindo que os clientes continuem usando o framework que preferirem sem se restringirem a um framework ou arquitetura de hardware específicos.
Clientes
Conforme a IA abre as portas para inovação em todos os setores, as empresas estão escolhendo o Google Cloud para aproveitar nossa infraestrutura aberta, flexível e de alto desempenho.
O que há de novo
Documentação
Casos de uso
O Treinamento multislice do Cloud TPU é uma tecnologia de pilha completa que permite o treinamento rápido, fácil e confiável de modelos de IA em grande escala em dezenas de milhares de chips de TPU.
Com o ecossistema de software aberto do Google Cloud, é possível criar aplicativos com as ferramentas e frameworks que você mais conhece e aproveitar os benefícios de preço-desempenho da arquitetura de hipercomputador de IA.
As GPUs Cloud TPU v5e e NVIDIA L4 permitem inferência econômica e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.
Preços
O preço da infraestrutura de IA tem o produto selecionado como base. Comece a usar a infraestrutura de IA do Google sem pagar nada com o Colab ou o nível gratuito do Google Cloud.
Cloud TPU | Cloud GPU |
---|---|
Para informações sobre preços de TPU de dispositivo único e Pod de TPU, consulte Preços de TPU. | Para informações sobre preços de diferentes tipos de GPUs e regiões disponíveis, consulte os preços de GPUs. |
Os produtos de IA do Cloud estão em conformidade com nossas políticas de SLA. Elas oferecem garantias de latência ou disponibilidade diferentes de outros serviços do Google Cloud.
Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.