Acerca das GPUs no Google Cloud

Google Cloud está focado em oferecer uma infraestrutura de inteligência artificial (IA) de classe mundial para potenciar as suas cargas de trabalho aceleradas por GPU mais exigentes numa vasta gama de segmentos. Pode usar GPUs no Google Cloud para executar aplicações de IA, aprendizagem automática (AA), científicas, de estatísticas, de engenharia, de consumo e empresariais.

Através da nossa parceria com a NVIDIA, Google Cloud oferece as GPUs mais recentes e otimiza a pilha de software com uma vasta gama de opções de armazenamento e rede. Para ver uma lista completa das GPUs disponíveis, consulte Plataformas de GPU.

As secções seguintes descrevem as vantagens das GPUs no Google Cloud.

VMs aceleradas pela GPU

No Google Cloud, pode aceder e aprovisionar GPUs da forma que melhor se adequa às suas necessidades. Está disponível uma família de máquinas otimizada para aceleradores especializada, com GPUs pré-associadas e capacidades de rede ideais para maximizar o desempenho. Estes estão disponíveis nas séries de máquinas A4X, A4, A3, A2 e G2.

Várias opções de aprovisionamento

Pode aprovisionar clusters usando a família de máquinas otimizada para aceleradores com qualquer um dos seguintes produtos de código aberto ou Google Cloud .

Vertex AI

O Vertex AI é uma plataforma de aprendizagem automática (ML) totalmente gerida que pode usar para preparar e implementar modelos de ML e aplicações de IA. Nas aplicações do Vertex AI, pode usar VMs aceleradas por GPU para melhorar o desempenho das seguintes formas:

Hipercomputador de IA

O hipercomputador de IA é um sistema de supercomputação otimizado para suportar as suas cargas de trabalho de inteligência artificial (IA) e aprendizagem automática (AA). É um sistema integrado de hardware otimizado para o desempenho, software aberto, frameworks de ML e modelos de consumo flexíveis. Funcionalidades e serviços do hipercomputador de IA concebidos para lhe permitir implementar e gerir um grande número, até dezenas de milhares, de recursos de rede e aceleradores que funcionam como uma única unidade homogénea. Esta opção é ideal para criar uma infraestrutura densamente alocada e otimizada para o desempenho que tenha integrações para o Google Kubernetes Engine (GKE) e os programadores do Slurm. Para mais informações, consulte a vista geral do hipercomputador de IA.

Para começar a usar o Cluster Director, consulte o artigo Escolha uma estratégia de implementação.

Compute Engine

Também pode criar e gerir VMs individuais ou pequenos clusters de VMs com GPUs anexadas no Compute Engine. Este método é usado principalmente para executar cargas de trabalho com utilização intensiva de gráficos, cargas de trabalho de simulação ou preparação de modelos de ML em pequena escala.

A tabela seguinte mostra os métodos que pode usar para criar VMs com GPUs anexadas:

Opção de implementação

Guias de implementação

Crie uma VM para publicação e cargas de trabalho de nó único

Crie uma VM A3 Edge ou A3 High

Crie grupos de instâncias geridas (GIGs)

Esta opção usa o Dynamic Workload Scheduler (DWS).

Crie um MIG com VMs de GPU

Crie VMs em massa

Crie um grupo de VMs com GPU em massa

Crie uma única VM

Crie uma VM com uma única GPU

Crie estações de trabalho virtuais

Crie uma estação de trabalho virtual acelerada pela GPU

Cloud Run

Pode configurar GPUs para as suas instâncias do Cloud Run. As GPUs são ideais para executar cargas de trabalho de inferência de IA com modelos de linguagem (conteúdo extenso) no Cloud Run.

No Cloud Run, consulte estes recursos para executar cargas de trabalho de IA em GPUs: