Plataformas de GPU

O Compute Engine fornece unidades de processamento gráfico (GPUs, na sigla em inglês) que podem ser adicionadas às instâncias de máquina virtual (VM, na sigla em inglês). É possível usar essas GPUs para acelerar cargas de trabalho específicas nas suas VMs, como aprendizado de máquina e processamento de dados.

O Compute Engine fornece GPUs NVIDIA para as VMs no modo de passagem. Com elas, as VMs têm controle direto sobre as GPUs e a memória associada.

Se você tiver cargas de trabalho com muitos gráficos, como visualização em 3D, renderização em 3D ou aplicativos virtuais, será possível usar estações de trabalho virtuais NVIDIA RTX (antes conhecidas como NVIDIA GRID).

Neste documento, apresentamos uma visão geral dos diferentes modelos de GPU disponíveis no Compute Engine.

Para ver as regiões e zonas disponíveis para GPUs no Compute Engine, consulte Regiões de GPUs e disponibilidade de zonas.

GPUs NVIDIA para cargas de trabalho computacionais

Para cargas de trabalho computacionais, os modelos de GPU estão disponíveis nos estágios a seguir:

  • NVIDIA A100: disponibilidade geral
  • NVIDIA T4: nvidia-tesla-t4: disponibilidade geral
  • NVIDIA V100: nvidia-tesla-v100: disponibilidade geral
  • NVIDIA P100: nvidia-tesla-p100: disponibilidade geral
  • NVIDIA P100: nvidia-tesla-p4: disponibilidade geral
  • NVIDIA K80: nvidia-tesla-k80: disponibilidade geral

GPUs NVIDIA A100

Para executar GPUs NVIDIA A100, é necessário usar o tipo de máquina otimizado para aceleradores (A2).

Cada tipo de máquina A2 tem uma contagem de GPU fixa, uma contagem de vCPU e um tamanho de memória.

Modelo de GPU Tipo de máquina GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA A100 a2-highgpu-1g 1 GPU 40 GB HBM2 12 vCPUs 85 GB
a2-highgpu-2g 2 GPUs 80 GB HBM2 24 vCPUs 170 GB
a2-highgpu-4g 4 GPUs 160 GB HBM2 48 vCPUs 340 GB
a2-highgpu-8g 8 GPUs 320 GB HBM2 96 vCPUs 680 GB
a2-megagpu-16g 16 GPUs 640 GB HBM2 96 vCPUs 1360 GB

GPUs NVIDIA T4

No entanto, as VMs com números reduzidos de GPUs estão limitadas a um número máximo de vCPUs. Em geral, um número maior de GPUs possibilita a criação de instâncias com um número maior de vCPUs e memória.

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA T4 1 GPU 16 GB GDDR6 1 a 48 vCPUs 1 a 312 GB
2 GPUs GDDR6 de 32 GB 1 a 48 vCPUs 1 a 312 GB
4 GPUs GDDR6 de 64 GB 1 a 96 vCPUs 1 a 624 GB

GPUs NVIDIA P100

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA P4 1 GPU GDDR5 de 8 GB 1 a 24 vCPUs 1 a 156 GB
2 GPUs GDDR5 de 16 GB 1 a 48 vCPUs 1 a 312 GB
4 GPUs GDDR5 de 32 GB 1 a 96 vCPUs 1 a 624 GB

GPUs NVIDIA V100

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA V100 1 GPU HBM2 de 16 GB 1 a 12 vCPUs 1 a 78 GB
2 GPUs HBM2 de 32 GB 1 a 24 vCPUs 1 a 156 GB
4 GPUs HBM2 de 64 GB 1 a 48 vCPUs 1 a 312 GB
8 GPUs HBM2 de 128 GB 1 a 96 vCPUs 1 a 624 GB

GPUs NVIDIA P100

Para algumas GPUs P100, a CPU máxima e a memória disponível para algumas configurações dependem da zona em que o recurso da GPU está sendo executado.

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA P100 1 GPU HBM2 de 16 GB 1 a 16 vCPUs 1 a 104 GB
2 GPUs HBM2 de 32 GB 1 a 32 vCPUs 1 a 208 GB
4 GPUs HBM2 de 64 GB

1 a 64 vCPUs
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 96 vCPUs
(todas as zonas P100)

1 a 208 GB
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 624 GB
(todas as zonas P100)

GPUs NVIDIA K80

As placas NVIDIA K80® contêm duas GPUs cada. O preço das GPUs K80 é por GPU individual, e não pela placa.

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA K80 1 GPU GDDR5 de 12 GB 1 - 8 vCPUs 1 a 52 GB
2 GPUs GDDR5 de 24 GB 1 a 16 vCPUs 1 a 104 GB
4 GPUs GDDR5 de 48 GB 1 a 32 vCPUs 1 a 208 GB
8 GPUs GDDR5 de 96 GB 1 - 64 vCPUs

1 a 416 GB
(asia-east1-a e us-east1-d)

1 a 208 GB
(todas as zonas de K80)

Estações de trabalho virtuais NVIDIA RTX para cargas de trabalho de gráficos

Se você tiver cargas de trabalho com muitos gráficos, como a visualização em 3D, será possível criar estações de trabalho virtuais que usam estações de trabalho virtuais NVIDIA RTX (antes conhecidas como NVIDIA GRID). Quando você cria uma estação de trabalho virtual, uma licença da estação de trabalho virtual NVIDIA RTX é adicionada automaticamente à VM. Para informações sobre preços de estações de trabalho virtuais, consulte a página de preços da GPU.

Para cargas de trabalho de gráficos, os modelos de estação de trabalho virtual NVIDIA RTX estão disponíveis nos seguintes estágios:

  • NVIDIA T4 Virtual Workstations: nvidia-tesla-t4-vws: disponibilidade geral
  • NVIDIA P100 Virtual Workstations: nvidia-tesla-p100-vws: disponibilidade geral
  • NVIDIA P4 Virtual Workstations: nvidia-tesla-p4-vws: disponibilidade geral

GPUs NVIDIA T4 VWS

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA T4 Virtual Workstation 1 GPU 16 GB GDDR6 1 a 48 vCPUs 1 a 312 GB
2 GPUs GDDR6 de 32 GB 1 a 48 vCPUs 1 a 312 GB
4 GPUs GDDR6 de 64 GB 1 a 96 vCPUs 1 a 624 GB

GPUs NVIDIA P100 VWS

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA P100 Virtual Workstation 1 GPU GDDR5 de 8 GB 1 a 16 vCPUs 1 a 156 GB
2 GPUs GDDR5 de 16 GB 1 a 48 vCPUs 1 a 312 GB
4 GPUs GDDR5 de 32 GB 1 a 96 vCPUs 1 a 624 GB

GPUs NVIDIA P100 VWS

Modelo de GPU GPUs Memória da GPU vCPUs disponíveis Memória disponível
NVIDIA P100 Virtual Workstation 1 GPU HBM2 de 16 GB 1 a 16 vCPUs 1 a 104 GB
2 GPUs HBM2 de 32 GB 1 a 32 vCPUs 1 a 208 GB
4 GPUs HBM2 de 64 GB

1 a 64 vCPUs
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 96 vCPUs
(todas as zonas P100)

1 a 208 GB
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 624 GB
(todas as zonas P100)

Gráfico de comparação geral

A tabela a seguir descreve o tamanho da memória da GPU, a disponibilidade do recurso e os tipos de carga de trabalho ideais nos diferentes modelos de GPU disponíveis no Compute Engine.

Métrica A100 T4 V100 P4 P100 K80
Memória 40 GB HBM2 a 1,6 TB/s 16 GB GDDR6 a 320 GB/s 16 GB HBM2 a 900 GB/s 8 GB GDDR5 a 192 GB/s 16 GB HBM2 a 732 GB/s 12 GB GDDR5 a 240 GB/s
Interconexão NVLink Full Mesh a 600 GB/s N/A NVLink Ring a 300 GB/s N/A N/A N/A
Suporte a estações de trabalho virtuais NVIDIA RTX
Melhor aplicação Treinamento de ML, inferência, HPC Inferência de ML, treinamento, estações de trabalho de visualização remota, transcodificação de vídeos Treinamento de ML, inferência, HPC Estações de trabalho de visualização remota, inferência de ML e transcodificação de vídeos Treinamento de ML, inferência, HPC, estações de trabalho de visualização remota Inferência de ML, treinamento, HPC
Preços Para comparar os preços de GPU para os diferentes modelos e regiões de GPU disponíveis no Compute Engine, consulte o sistema de preços de GPU.

Gráfico de comparação de desempenho

A tabela a seguir descreve as especificações de desempenho de diferentes modelos de GPU disponíveis no Compute Engine.

Métrica A100 T4 V100 P4 P100 K80
Desempenho de computação
FP64 9,7 TFLOPS 0,25 TFLOPS1 7,8 TFLOPS 0,2 TFLOPS1 4,7 TFLOPS 1,46 TFLOPS
FP32 19,5 TFLOPS 8,1 TFLOPS 15,7 TFLOPS 5,5 TFLOPS 9,3 TFLOPS 4,37 TFLOPS
FP16 18,7 TFLOPS
INT8 22 TOPS2
Desempenho do Tensor Core
FP64 19,5 TFLOPS
TF32 156 TFLOPS
FP16/FP32 de precisão mista 312 TFLOPS3 65 TFLOPS 125 TFLOPS
INT8 624 TOPS2 180 TOPS2
INT4 1248 TOPS2 260 TOPS2

1Para que o código FP64 funcione corretamente, está incluído na arquitetura da GPU T4 e P4 um pequeno número de unidades de hardware FP64.

2TeraOperações por segundo.

3Para o treinamento em precisão mista, a NVIDIA A100 também aceita o tipo de dados bfloat16.

A seguir