Arquitetura de supercomputação integrada

Hipercomputador de IA

Hardware, software e consumo otimizados por IA, combinados para melhorar a produtividade e a eficiência.

Visão geral

Hardware com desempenho otimizado

Nossa infraestrutura otimizada para desempenho, incluindo Google Cloud TPU, Google Cloud GPU, Google Cloud Storage e a rede Jupiter subjacente de forma consistente oferece tempo mais rápido de treinamento para modelos de última geração em grande escala devido às fortes características de escalonamento da arquitetura, o que resulta no melhor preço/desempenho para a disponibilização de modelos grandes.

Software aberto

Nossa arquitetura é otimizada para oferecer suporte às ferramentas e bibliotecas mais comuns, como Tensorflow, Pytorch e JAX. Além disso, ele permite que os clientes aproveitem tecnologias como as configurações de multislice e multihost do Cloud TPU e serviços gerenciados, como o Google Kubernetes Engine. Dessa forma, os clientes podem fazer implantações prontas para cargas de trabalho comuns, como o framework NVIDIA NeMO orquestrado pelo SLURM (link em inglês).

Consumo flexível

Nossos modelos de consumo flexíveis permitem que os clientes escolham custos fixos com descontos por compromisso de uso ou modelos dinâmicos sob demanda para atender às necessidades dos negócios.O Dynamic Workload Scheduler ajuda os clientes a conseguir a capacidade necessária sem alocação excessiva para que eles paguem apenas pelo que precisam.Além disso, as ferramentas de otimização de custos do Google Cloud automatizam a utilização de recursos para reduzir as tarefas manuais dos engenheiros.

Como funciona

O Google é líder em inteligência artificial com a invenção de tecnologias como o TensorFlow. Você sabia que pode aproveitar a tecnologia do Google nos seus próprios projetos? Saiba mais sobre a história de inovação do Google em infraestruturas de IA e como você pode aproveitá-la em suas cargas de trabalho.

Diagrama da arquitetura do hipercomputador da IA do Google Cloud ao lado da foto da gerente de produtos do Google Cloud, Chelsie

Usos comuns

Executar treinamentos de IA em grande escala

Treinamento de IA avançado, escalonável e eficiente

A arquitetura do hipercomputador de IA oferece opcionalidade para usar a infraestrutura subjacente que melhor se escalone para atender às suas necessidades de treinamento.

Como definir uma infraestrutura de armazenamento para cargas de trabalho de IA
Três gráficos que descrevem fatores de crescimento de IA

Treinamento de IA avançado, escalonável e eficiente

A arquitetura do hipercomputador de IA oferece opcionalidade para usar a infraestrutura subjacente que melhor se escalone para atender às suas necessidades de treinamento.

Como definir uma infraestrutura de armazenamento para cargas de trabalho de IA
Três gráficos que descrevem fatores de crescimento de IA

A Character AI usa o Google Cloud para escalonar verticalmente

"Precisamos de GPUs para gerar respostas às mensagens dos usuários. E, à medida que temos mais usuários na nossa plataforma, precisamos de mais GPUs para atendê-los. No Google Cloud, podemos fazer testes para descobrir qual é a plataforma certa para uma carga de trabalho específica. É ótimo ter essa flexibilidade para escolher as soluções mais valiosas." Myle Ott, engenheiro fundador, Character.AI

Assistir agora

Forneça aplicativos com tecnologia de IA

Use frameworks abertos para oferecer experiências baseadas em IA

O Google Cloud tem o compromisso de garantir que frameworks abertos funcionem bem na arquitetura de hipercomputador de IA.

RAG em produção mais rapidamente com Ray, LangChain e HuggingFace
Arquitetura RAG de alto nível

Use frameworks abertos para oferecer experiências baseadas em IA

O Google Cloud tem o compromisso de garantir que frameworks abertos funcionem bem na arquitetura de hipercomputador de IA.

RAG em produção mais rapidamente com Ray, LangChain e HuggingFace
Arquitetura RAG de alto nível

Use frameworks abertos para oferecer experiências baseadas em IA

Com o ecossistema de software aberto do Google Cloud, é possível criar aplicativos com as ferramentas e frameworks que você mais conhece e aproveitar os benefícios de preço-desempenho da arquitetura de hipercomputador de IA.

Ferramentas e frameworks de IA do Google Cloud

Priceline: ajuda para os viajantes criarem experiências únicas

"Com a ajuda do Google Cloud na incorporação da IA generativa, podemos criar um concierge de viagens personalizado em nosso chatbot. Queremos ajudar nossos clientes a ir muito além do simples planejamento de uma viagem, proporcionando uma experiência de viagem única”. Martin Brodbeck, CTO, Priceline

Saiba mais
Logotipo da Priceline

Disponibilize modelos em escala de maneira econômica

Maximize o preço/desempenho para disponibilizar IA em escala

O Google Cloud oferece preço/desempenho líder do setor para disponibilizar modelos de IA com opção de acelerador e atender às necessidades de qualquer carga de trabalho.

Latência de inferência minimizada com balanceamento de carga personalizado com reconhecimento de IA
Diagrama da arquitetura de balanceamento de carga com base na profundidade da fila

Maximize o preço/desempenho para disponibilizar IA em escala

O Google Cloud oferece preço/desempenho líder do setor para disponibilizar modelos de IA com opção de acelerador e atender às necessidades de qualquer carga de trabalho.

Latência de inferência minimizada com balanceamento de carga personalizado com reconhecimento de IA
Diagrama da arquitetura de balanceamento de carga com base na profundidade da fila

Maximize o preço/desempenho para disponibilizar IA em escala

As instâncias de VM do Cloud TPU v5e e G2 que entregam GPUs NVIDIA L4 permitem inferências econômicas e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.

Desempenho relativo por dólar: Cloud TPU v4 e v5e

A AssemblyAI usa o Google Cloud para economizar

"Nossos resultados experimentais mostram que o Cloud TPU v5e é o acelerador mais econômico para executar inferência em grande escala no nosso modelo. Ela oferece desempenho por dólar 2,7 vezes maior do que a G2 e desempenho por dólar 4,2 vezes maior do que as instâncias A2." Domenic Donato,

vice-presidente de tecnologia, AssemblyAI


Saiba mais
Logotipo da AssemblyAI

Modelos de código aberto no Google Cloud

Disponibilizar um modelo com o GKE em uma única GPU

Treinar modelos comuns com GPUs

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud