NVIDIA e Google Cloud
A NVIDIA e o Google Cloud oferecem soluções otimizadas para aceleradores que abordam as cargas de trabalho mais exigentes, incluindo machine learning, computação de alto desempenho, análise de dados, gráficos e cargas de trabalho de jogos.
Vantagens
O poder da computação acelerada por NVIDIA em escala no Google Cloud
Maior desempenho para diversas cargas de trabalho
Com as GPUs NVIDIA mais recentes no Google Cloud, é possível provisionar facilmente instâncias do Compute Engine com NVIDIA A100, P100, P4, T4 ou V100 para acelerar seu desempenho. cargas de trabalho exigentes.
Reduza os custos com o faturamento por segundo
Os preços por segundo do Google Cloud significam que você paga apenas pelo que precisa, com um desconto mensal de até 30% aplicado automaticamente. Economize nos custos iniciais enquanto aproveita o mesmo tempo de atividade e desempenho escalonável.
Otimize as cargas de trabalho com configurações personalizadas de máquina
Otimize suas cargas de trabalho configurando com precisão uma instância com a proporção exata de processadores, memória e GPUs NVIDIA em vez de modificar suas cargas de trabalho para se adequar às configurações limitadas do sistema.
Principais recursos
Tecnologias NVIDIA no Google Cloud
GPU NVIDIA A100® Tensor Core
As VMs A2 otimizadas para aceleradores são baseadas na GPU NVIDIA Ampere A100 Core. Cada GPU A100 oferece até 20 vezes o desempenho computacional da geração anterior. Essas VMs foram projetadas para oferecer aceleração em todas as escalas da IA, análise de dados e computação de alto desempenho para enfrentar os maiores desafios da computação.
GPU NVIDIA T4® Tensor Core
A GPU NVIDIA® T4 acelera cargas de trabalho diversificadas, incluindo computação de alto desempenho, treinamento e inferência de aprendizado profundo, machine learning, análise de dados e gráficos. As GPUs NVIDIA® T4 estão disponíveis no Compute Engine.
Nuvem híbrida com a NVIDIA e o Anthos do Google Cloud
O Anthos do Google Cloud foi criado para permitir que os clientes executem aplicativos com facilidade na nuvem e no local. Em colaboração com a NVIDIA, criamos uma solução que usa o NVIDIA GPU Operator para implantar os componentes necessários para ativar as GPUs no Kubernetes. A solução funciona com muitas GPUs NVIDIA conhecidas, incluindo a A100 e a T4.
Escalonamento automático com o Google Kubernetes Engine
Usando o Google Kubernetes Engine (GKE), é possível criar clusters facilmente com GPUs NVIDIA sob demanda, balancear carga e minimizar custos operacionais ao escalonar automaticamente os recursos da GPU para mais ou para menos. Com suporte para GPUs de várias instâncias (MIG, na sigla em inglês) nas GPUs NVIDIA A100, o GKE agora pode provisionar a aceleração de GPU com o tamanho certo, com granularidade mais refinada para cargas de trabalho de inferência de IA de vários usuários e vários modelos.
NVIDIA CloudXR™ com estações de trabalho virtuais RTX
A NVIDIA CloudXR, uma inovação inovadora criada com a tecnologia NVIDIA RTXTM, torna a XR de alta qualidade acessível no Google Cloud Marketplace com a NVIDIA RTX Virtual Workstation como uma imagem de máquina virtual (VMI). Os usuários podem configurar, escalonar e consumir facilmente experiências imersivas de alta qualidade e fazer streaming de fluxos de trabalho de XR com a nuvem.
Clientes
Clientes que se beneficiam da aceleração de GPU NVIDIA no Google Cloud
Serviços relacionados
Ofertas do Google Cloud com tecnologias NVIDIA
Documentação
Recursos técnicos para implantar tecnologias NVIDIA no Google Cloud
GPUs no Compute Engine
O Compute Engine fornece GPUs que podem ser adicionadas às suas instâncias de máquinas virtuais. Saiba o que pode ser feito com as GPUs e que tipos de hardware de GPU estão disponíveis.
Como usar GPUs para treinar modelos na nuvem
Acelere o processo de treinamento para muitos modelos de aprendizado profundo, como classificação de imagens, análise de vídeo e processamento de linguagem natural.
GPUs no Google Kubernetes Engine
Aprenda a usar os aceleradores de hardware da GPU nos nós dos clusters do Google Kubernetes Engine.
Como anexar GPUs a clusters do Dataproc
Anexe GPUs aos nós mestres e de trabalho do Compute Engine em um cluster do Dataproc para acelerar cargas de trabalho específicas, como machine learning e processamento de dados.
Novidades