Hipercomputador de IA

Treine, disponibilize e opere seus aplicativos de IA na infraestrutura nativa de agentes que alimenta o Google.

Hipercomputador de IA

Treine, disponibilize e opere seus aplicativos de IA na infraestrutura nativa de agentes que alimenta o Google.

O que é o Hipercomputador de IA?

Uma arquitetura que combina hardware criado para fins específicos, software aberto e consumo flexível. Cada componente é cuidadosamente integrado para funcionar bem em conjunto, melhorando seu desempenho, custo e produtividade do desenvolvedor.

Confira os anúncios mais recentes (abril de 2026): O que vem a seguir na infraestrutura de IA do Google: escalonamento para a era agêntica 

Diagrama da arquitetura do Hipercomputador de IA

Treinamento mais rápido e inteligente

Crie modelos em semanas, não meses. Use a pilha de treinamento do Google para acelerar o desenvolvimento e os testes sem sacrificar o desempenho.

Desenvolva LLMs 36% mais rápido e aumente a produtividade em até 97% (Goodput) com cada acelerador usando a TPU 8t com software projetado em parceria com o Google DeepMind e integrado a frameworks de código aberto, do Pathways ao Pallas (treinamento) e do Ray ao Agent Sandbox (ajustes). Também sabemos que cada caso é um caso, por isso trabalhamos em parceria com a NVIDIA para oferecer as GPUs mais recentes. O Google Cloud será um dos primeiros a oferecer instâncias baseadas na NVIDIA Vera Rubin NVL72 de última geração quando ela estiver disponível ainda este ano. 

Use a plataforma de agentes do Gemini Enterprise com o BigQuery para treinar modelos com dados próprios 16 vezes mais rápido combinando seu patrimônio de dados, desenvolvimento de ML e aceleradores em um só lugar. Ambos são alimentados pelo Hipercomputador de IA, seja usando VMs G4 ou TPUs Ironwood

Execute simulações baseadas em GPU no MuJoCo-Warp do DeepMind, até 100 vezes mais rápido do que o MuJoCo padrão. Depois, simule casos extremos impossíveis, arriscados ou caros usando mídias sintéticas do Veo, Genie e Nano Banana ou ingira petabytes de dados de sensores do mundo real no BigQuery. Saiba mais sobre como criar agentes físicos no Google Cloud aqui.

Inferência responsiva e eficiente

Tenha perfis de modelos validados e software de código aberto e do Google totalmente integrado para aumentar a capacidade de resposta do aplicativo com menos complexidade e desperdício.

Use tecnologias de inferência integradas para oferecer serviços úteis e responsivos aos clientes. Reduza o tempo até o primeiro token em 71% com o GKE Inference Gateway, disponibilize até 120 mil tokens por segundo usando o llm-d para disponibilização desagregada e carregue modelos 5 vezes mais rápido usando o Anywhere Cache e a TPU 8i para manter sua memória de trabalho exatamente onde ela é necessária.

Implante modelos de ML clássicos 70% mais rápido usando um dos mais de 200 modelos disponíveis na plataforma de agentes do Gemini Enterprise, usando a TPU ou GPU de sua preferência, incluindo VMs A5X (NVIDIA Vera Rubin) e TPU 8i quando estiverem disponíveis ainda este ano.

Disponibilize enxurradas de agentes com segurança no GKE Agent Sandbox, provisionando até 300 sandboxes por segundo e pausando e retomando instantaneamente conforme necessário, para que você nunca pague por agentes inativos.

Pilha de inferência

Operações flexíveis, abertas e confiáveis

Use qualquer framework ou acelerador em ambientes híbridos e multicloud com manutenção e gerenciamento automatizados de clusters adequados para exaescala.

operações

O TorchTPU elimina a curva de aprendizado da TPU para desenvolvedores ao oferecer suporte nativo ao PyTorch. Assim, é possível usar o melhor acelerador disponível sem precisar reescrever códigos complexos.

Com base no Kubernetes de código aberto, o GKE oferece portabilidade multicloud com escala empresarial, com suporte para até 130 mil nós e integração nativa com a Plataforma de agentes e o Google Distributed Cloud para implantações híbridas.

Todos os aceleradores no Hipercomputador de IA são compatíveis com os recursos do Cluster Director, incluindo um relatório de integridade pré-implantação, painéis de observabilidade de 360 graus e verificações de integridade sempre ativas.

Conecte serviços em várias nuvens sem conexões lentas usando o Cross-Cloud Network, uma rede de backbone confiável para mais de 65% das empresas da Fortune 100, que movimenta mais de 27 exabytes de dados por mês.

Nossos modelos de consumo flexíveis oferecem várias maneiras de programar e reduzir o custo dos aceleradores. Economize até 91% em jobs em lote ou tolerantes a falhas com VMs spot, até 50% em jobs com uma data de início flexível usando o Programador Dinâmico de Cargas de Trabalho e até 50% de desconto ao se inscrever nos descontos por compromisso de uso.

Sistemas prontos para agentes

Aumente os limites de desempenho e use a energia de forma responsável ao escalonar na base de infraestrutura confiável do Google e dos laboratórios de IA de ponta

O Google Cloud oferece suporte a 9 dos 10 principais laboratórios de IA e a 70% das startups de IA financiadas. Ao implantar no Hipercomputador de IA, você usa data centers que processaram de forma confiável mais de 100 bilhões de tokens para quase 350 clientes apenas em dezembro de 2025.

Os data centers do Google Cloud, incluindo o Hipercomputador de IA, oferecem eficiência energética líder do setor, com seis vezes mais capacidade computacional por unidade de eletricidade do que há cinco anos. Isso permite que nossa TPU de 8ª geração ofereça uma relação entre preço e desempenho 80% melhor e uma eficiência energética 20% maior do que a geração anterior.

O Google tem o compromisso de pagar por 100% da energia usada pelos nossos data centers e por todos os novos custos de infraestrutura diretamente relacionados ao nosso crescimento. Seja nosso parceiro para garantir que, à medida que suas ambições de IA aumentam, as famílias e empresas locais não paguem a conta. Nos próximos anos, vamos financiar novas fontes de energia e infraestrutura para disponibilizar nossos modelos e continuar investindo em fontes de energia alternativas, como energia nuclear avançadageotérmica e armazenamento de longa duração.

Nossa arquitetura Titanium com chips Titan personalizados oferece uma raiz de confiança de hardware verificável e segurança de confiança zero. Uma análise independente da cloudvulndb.org mostra que nossos sistemas têm até 70% menos vulnerabilidades críticas do que outras nuvens líderes.

Sistemas

Capacitando os principais inovadores do mundo

Como a WPP acelera o treinamento de robôs humanoides em 10 vezes com VMs G4
A WPP otimizou significativamente o treinamento de robôs humanoides usando as VMs G4 do Google Cloud e o NVIDIA Isaac Sim, reduzindo os ciclos de aprendizado por reforço de 24 horas para menos de uma hora. Ao dominar movimentos humanos complexos, como dançar em simulação, eles estão diminuindo a diferença entre o simulado e o real para permitir movimentos robóticos mais precisos e naturais para as indústrias de cinema e marketing.
Treinamento de robôs humanoides do WPP
Mergulhe fundo
A IA transforma fãs de esportes em designers de uniformes
A Puma fez uma parceria com o Google Cloud para usar a infraestrutura de IA integrada (Hipercomputador de IA), o que permitiu que a empresa usasse o Gemini para comandos de usuários com o Dynamic Workload Scheduler para escalonar dinamicamente a inferência em GPUs, reduzindo drasticamente os custos e o tempo de geração.
Designer do kit de IA da Puma
3:20
Mergulhe fundo
Ajudar funcionários de fábrica sem experiência em programação a criar as próprias soluções de IA
A Toyota escolheu o Google Cloud por causa do desempenho de escalonamento exclusivo do Google Kubernetes Engine, quatro vezes mais rápido do que os concorrentes nos testes da empresa. Isso proporcionou a velocidade e a capacidade de resposta essenciais para democratizar a IA para os funcionários da linha de frente da fábrica.
Fábrica da Toyota
Mergulhe fundo
Criação de um modelo de fundação bilíngue e avançado para resolver problemas de negócios complexos
A solução acelerou o desenvolvimento de IA, aumentou o desempenho em 1,3x e permitiu uma colaboração segura entre humanos e IA em toda a empresa e nas afiliadas da LG.
Colaboração com o modelo de IA da LG
2:46
Mergulhe fundo
A Major League Baseball atende equipes e torcedores com mais rapidez usando agentes no Hipercomputador de IA
A Major League Baseball usou o Hipercomputador de IA para criar agentes de IA, reduzindo o desenvolvimento de meses para semanas e a resposta a incidentes de horas para segundos.
Estádio da MLB
3:19
Mergulhe fundo

Saiba mais sobre o hipercomputador de IA

Comece sua jornada com a IA hoje mesmo

Entre em contato com um dos nossos especialistas em infraestrutura para trocar ideias, discutir seu próximo projeto ou assistir a uma demonstração.

Google Cloud