Hardware, software e consumo otimizados por IA, combinados para melhorar a produtividade e a eficiência.
Visão geral
Nossa infraestrutura otimizada para desempenho, incluindo Google Cloud TPU, Google Cloud GPU, Google Cloud Storage e a rede Jupiter subjacente de forma consistente oferece tempo mais rápido de treinamento para modelos de última geração em grande escala devido às fortes características de escalonamento da arquitetura, o que resulta no melhor preço/desempenho para a disponibilização de modelos grandes.
Nossa arquitetura é otimizada para oferecer suporte às ferramentas e bibliotecas mais comuns, como Tensorflow, Pytorch e JAX. Além disso, ele permite que os clientes aproveitem tecnologias como as configurações de multislice e multihost do Cloud TPU e serviços gerenciados, como o Google Kubernetes Engine. Dessa forma, os clientes podem fazer implantações prontas para cargas de trabalho comuns, como o framework NVIDIA NeMO orquestrado pelo SLURM (link em inglês).
Nossos modelos de consumo flexíveis permitem que os clientes escolham custos fixos com descontos por compromisso de uso ou modelos dinâmicos sob demanda para atender às necessidades dos negócios.O Dynamic Workload Scheduler ajuda os clientes a conseguir a capacidade necessária sem alocação excessiva para que eles paguem apenas pelo que precisam.Além disso, as ferramentas de otimização de custos do Google Cloud automatizam a utilização de recursos para reduzir as tarefas manuais dos engenheiros.
Como funciona
O Google é líder em inteligência artificial com a invenção de tecnologias como o TensorFlow. Você sabia que pode aproveitar a tecnologia do Google nos seus próprios projetos? Saiba mais sobre a história de inovação do Google em infraestruturas de IA e como você pode aproveitá-la em suas cargas de trabalho.
Usos comuns
A arquitetura do hipercomputador de IA oferece opcionalidade para usar a infraestrutura subjacente que melhor se escalone para atender às suas necessidades de treinamento.
Meça a eficácia do seu treinamento em larga escala do jeito que o Google faz com o goodput de produtividade de ML.
"Precisamos de GPUs para gerar respostas às mensagens dos usuários. E, à medida que temos mais usuários na nossa plataforma, precisamos de mais GPUs para atendê-los. No Google Cloud, podemos fazer testes para descobrir qual é a plataforma certa para uma carga de trabalho específica. É ótimo ter essa flexibilidade para escolher as soluções mais valiosas." Myle Ott, engenheiro fundador, Character.AI
A arquitetura do hipercomputador de IA oferece opcionalidade para usar a infraestrutura subjacente que melhor se escalone para atender às suas necessidades de treinamento.
Meça a eficácia do seu treinamento em larga escala do jeito que o Google faz com o goodput de produtividade de ML.
"Precisamos de GPUs para gerar respostas às mensagens dos usuários. E, à medida que temos mais usuários na nossa plataforma, precisamos de mais GPUs para atendê-los. No Google Cloud, podemos fazer testes para descobrir qual é a plataforma certa para uma carga de trabalho específica. É ótimo ter essa flexibilidade para escolher as soluções mais valiosas." Myle Ott, engenheiro fundador, Character.AI
O Google Cloud tem o compromisso de garantir que frameworks abertos funcionem bem na arquitetura de hipercomputador de IA.
Com o ecossistema de software aberto do Google Cloud, é possível criar aplicativos com as ferramentas e frameworks que você mais conhece e aproveitar os benefícios de preço-desempenho da arquitetura de hipercomputador de IA.
"Com a ajuda do Google Cloud na incorporação da IA generativa, podemos criar um concierge de viagens personalizado em nosso chatbot. Queremos ajudar nossos clientes a ir muito além do simples planejamento de uma viagem, proporcionando uma experiência de viagem única”. Martin Brodbeck, CTO, Priceline
Lightricks
A Lightricks está escalonando ferramentas de criação de conteúdo de última geração com o Google Cloud
AppLovin
Crescimento impulsionado por IA: a jornada da AppLovin amplificada pelo Google Cloud
QuillBot
A QuillBot reduz o tempo de escrita para mais de 10 milhões de usuários usando o Google Cloud
O Google Cloud tem o compromisso de garantir que frameworks abertos funcionem bem na arquitetura de hipercomputador de IA.
Com o ecossistema de software aberto do Google Cloud, é possível criar aplicativos com as ferramentas e frameworks que você mais conhece e aproveitar os benefícios de preço-desempenho da arquitetura de hipercomputador de IA.
"Com a ajuda do Google Cloud na incorporação da IA generativa, podemos criar um concierge de viagens personalizado em nosso chatbot. Queremos ajudar nossos clientes a ir muito além do simples planejamento de uma viagem, proporcionando uma experiência de viagem única”. Martin Brodbeck, CTO, Priceline
Lightricks
A Lightricks está escalonando ferramentas de criação de conteúdo de última geração com o Google Cloud
AppLovin
Crescimento impulsionado por IA: a jornada da AppLovin amplificada pelo Google Cloud
QuillBot
A QuillBot reduz o tempo de escrita para mais de 10 milhões de usuários usando o Google Cloud
O Google Cloud oferece preço/desempenho líder do setor para disponibilizar modelos de IA com opção de acelerador e atender às necessidades de qualquer carga de trabalho.
As instâncias de VM do Cloud TPU v5e e G2 que entregam GPUs NVIDIA L4 permitem inferências econômicas e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.
"Nossos resultados experimentais mostram que o Cloud TPU v5e é o acelerador mais econômico para executar inferência em grande escala no nosso modelo. Ela oferece desempenho por dólar 2,7 vezes maior do que a G2 e desempenho por dólar 4,2 vezes maior do que as instâncias A2." Domenic Donato,
vice-presidente de tecnologia, AssemblyAI
O Google Cloud oferece preço/desempenho líder do setor para disponibilizar modelos de IA com opção de acelerador e atender às necessidades de qualquer carga de trabalho.
As instâncias de VM do Cloud TPU v5e e G2 que entregam GPUs NVIDIA L4 permitem inferências econômicas e de alto desempenho para uma ampla variedade de cargas de trabalho de IA, incluindo os modelos mais recentes de LLMs e IA generativa. Ambos oferecem melhorias significativas no desempenho do preço em relação aos modelos anteriores, e a arquitetura de hipercomputador com IA do Google Cloud permite que os clientes escalonem as implantações para níveis líderes do setor.
"Nossos resultados experimentais mostram que o Cloud TPU v5e é o acelerador mais econômico para executar inferência em grande escala no nosso modelo. Ela oferece desempenho por dólar 2,7 vezes maior do que a G2 e desempenho por dólar 4,2 vezes maior do que as instâncias A2." Domenic Donato,
vice-presidente de tecnologia, AssemblyAI