Ir para
Infraestrutura de IA

Infraestrutura de IA

Infraestrutura escalonável, de alto desempenho e custo-benefício para cada carga de trabalho de AI.

  • Aceleradores de IA para cada caso de uso, de treinamento de alto desempenho a inferência de baixo custo

  • Escalone mais rápido com GPUs e TPUs no Google Kubernetes Engine ou no Google Compute Engine

  • Soluções implantáveis para a Vertex AI, o Google Kubernetes Engine e o Cloud HPC Toolkit

Vantagens

Otimize o desempenho e o custo em grande escala

Com o Google Cloud, é possível escolher entre GPUs, TPUs ou CPUs para oferecer suporte a vários casos de uso, incluindo treinamento de alto desempenho, inferência de baixo custo e processamento de dados em grande escala.

Ofereça resultados mais rapidamente com a infraestrutura gerenciada

Escalonamento mais rápido e eficiente com a infraestrutura gerenciada pela Vertex AI. Configure ambientes de ML rapidamente, automatize a orquestração, gerencie clusters grandes e configure aplicativos com baixa latência.

Desenvolva com software com foco na IA

Melhore a produtividade do desenvolvimento de IA usando o GKE para gerenciar cargas de trabalho em grande escala. Treine e disponibilize os modelos de base com suporte para escalonamento automático, orquestração de cargas de trabalho e upgrades automáticos. 

Principais recursos

Principais recursos

Hardware flexível e escalonável para qualquer caso de uso

Não existe uma solução única para todas as cargas de trabalho de IA. É por isso que, com nossos parceiros de hardware do setor, como NVIDIA, Intel, AMD, Arm e outros, fornecemos aos clientes a mais ampla gama de opções de computação otimizadas por IA em TPUs, GPUs e CPUs para treinar e disponibilizar os modelos com maior consumo de dados.

Fácil de usar, gerenciar e dimensionar

A orquestração de cargas de trabalho de IA em grande escala com Cloud TPUs e GPUs do Cloud sempre exigiu esforço manual para lidar com falhas, geração de registros, monitoramento e outras operações fundamentais. O Google Kubernetes Engine (GKE), o serviço mais escalonável e totalmente gerenciado do Kubernetes, simplifica consideravelmente o trabalho necessário para operar TPUs e GPUs. Usar o GKE para gerenciar a orquestração de cargas de trabalho de IA em larga escala no Cloud TPU e na GPU do Cloud melhora a produtividade do desenvolvimento de IA.

Para organizações que preferem a simplicidade de abstrair a infraestrutura com serviços gerenciados, a Vertex AI agora oferece suporte ao treinamento com vários frameworks e bibliotecas usando Cloud TPU e Cloud GPU.

Escalone seus modelos de IA exponencialmente

Nossa infraestrutura otimizada por IA foi criada para oferecer a escala e o desempenho globais exigidos por produtos do Google, como YouTube, Gmail, Google Maps, Google Play e Android, que atendem a bilhões de usuários. Todas as nossas soluções de infraestrutura de IA são embasadas na rede de data centers Jupiter do Google Cloud, que oferece a melhor capacidade de escalonamento horizontal para serviços básicos, até cargas de trabalho de IA de alta intensidade.

Plataforma altamente flexível e aberta

Por décadas, contribuímos com projetos de IA essenciais, como TensorFlow e JAX. Somos cofundadores da PyTorch Foundation e, recentemente, anunciamos um novo consórcio do setor: o projeto OpenXLA. Além disso, o Google é o principal colaborador de código aberto da CNCF e tem mais de 20 anos de histórico de contribuições de OSS, como TFX, MLIR, OpenXLA, KubeFlow e Kubernetes, bem como patrocínios de projetos de OSS essenciais para a comunidade de ciência de dados, como o Projeto Jupyter e NumFOCverteUS.

Além disso, nossos serviços de infraestrutura de IA são incorporados aos frameworks de IA mais conhecidos, como TensorFlow, PyTorch e MXNet, permitindo que os clientes continuem usando o framework que preferirem sem se restringirem a um framework ou arquitetura de hardware específicos.