Plataformas de GPU


O Compute Engine fornece unidades de processamento gráfico (GPUs, na sigla em inglês) que podem ser adicionadas às instâncias de máquina virtual (VM, na sigla em inglês). É possível usar essas GPUs para acelerar cargas de trabalho específicas nas suas VMs, como aprendizado de máquina e processamento de dados.

O Compute Engine fornece GPUs NVIDIA para as VMs no modo de passagem. Com elas, as VMs têm controle direto sobre as GPUs e a memória associada.

Se você tiver cargas de trabalho com muitos gráficos, como visualização em 3D, renderização em 3D ou aplicativos virtuais, será possível usar estações de trabalho virtuais NVIDIA RTX (antes conhecidas como NVIDIA GRID).

Neste documento, apresentamos uma visão geral dos diferentes modelos de GPU disponíveis no Compute Engine.

Para ver as regiões e zonas disponíveis para GPUs no Compute Engine, consulte Regiões de GPUs e disponibilidade de zonas.

GPUs NVIDIA para cargas de trabalho computacionais

Para cargas de trabalho computacionais, os modelos de GPU estão disponíveis nos estágios a seguir:

  • NVIDIA H100 80 GB: nvidia-h100-80gb: disponibilidade geral
  • NVIDIA L4: nvidia-l4: disponibilidade geral
  • NVIDIA A100
    • NVIDIA A100 40GB: nvidia-tesla-a100: disponibilidade geral
    • NVIDIA A100 80GB: nvidia-a100-80gb: disponibilidade geral
  • NVIDIA T4: nvidia-tesla-t4: disponibilidade geral
  • NVIDIA V100: nvidia-tesla-v100: disponibilidade geral
  • NVIDIA P100: nvidia-tesla-p100: disponibilidade geral
  • NVIDIA P100: nvidia-tesla-p4: disponibilidade geral
  • NVIDIA K80: nvidia-tesla-k80: disponibilidade geral. Consulte Fim do suporte NVIDIA K80 (link em inglês).

GPUs NVIDIA H100

Para executar GPUs NVIDIA H100 de 80 GB, é preciso usar um tipo de máquina otimizado para aceleradores A3.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA H100 a3-highgpu-8g 8 GPUs 640 GB HBM3 208 vCPUs 1872 GB Em pacote (6000 GB)

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA L4

Para executar GPUs NVIDIA L4, é necessário usar um tipo de máquina otimizado para acelerador G2.

Cada tipo de máquina G2 tem um número fixo de GPUs NVIDIA L4 e vCPUs anexadas. Cada tipo de máquina G2 também tem uma memória padrão e um intervalo de memória personalizado. O intervalo de memória personalizado define a quantidade de memória que pode ser alocada à VM para cada tipo de máquina. É possível especificar a memória personalizada durante a criação da VM.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs Memória padrão Intervalo de memória personalizado Suporte máximo para SSD local
NVIDIA L4 g2-standard-4 1 GPU 24 GB GDDR6 4 vCPUs 16 GB 16 - 32 GB 375 GB
g2-standard-8 1 GPU 24 GB GDDR6 8 vCPUs 32 GB 32 - 54 GB 375 GB
g2-standard-12 1 GPU 24 GB GDDR6 12 vCPUs 48 GB 48 - 54 GB 375 GB
g2-standard-16 1 GPU 24 GB GDDR6 16 vCPUs 64 GB 54 - 64 GB 375 GB
g2-standard-24 2 GPUs 48 GB GDDR6 24 vCPUs 96 GB 96 - 108 GB 750 GB
g2-standard-32 1 GPU 24 GB GDDR6 32 vCPUs 128 GB 96 - 128 GB 375 GB
g2-standard-48 4 GPUs 96 GB GDDR6 48 vCPUs 192 GB 192 - 216 GB 1.500 GB
g2-standard-96 8 GPUs 192 GB GDDR6 96 vCPUs 384 GB 384 - 432 GB 3000 GB

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA A100

Para executar GPUs NVIDIA A100, use o tipo de máquina otimizado para acelerador A2.

Cada tipo de máquina A2 tem uma contagem de GPU fixa, uma contagem de vCPU e um tamanho de memória.

A100 40 GB

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA A100 40 GB a2-highgpu-1g 1 GPU 40 GB HBM2 12 vCPUs 85 GB Sim
a2-highgpu-2g 2 GPUs 80 GB HBM2 24 vCPUs 170 GB Sim
a2-highgpu-4g 4 GPUs 160 GB HBM2 48 vCPUs 340 GB Sim
a2-highgpu-8g 8 GPUs 320 GB HBM2 96 vCPUs 680 GB Sim
a2-megagpu-16g 16 GPUs 640 GB HBM2 96 vCPUs 1360 GB Sim

A100 80 GB

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA A100 80 GB a2-ultragpu-1g 1 GPU 80 GB de HBM2e 12 vCPUs 170 GB Em pacote (375 GB)
a2-ultragpu-2g 2 GPUs 160 GB de HBM2e 24 vCPUs 340 GB Em pacote (750 GB)
a2-ultragpu-4g 4 GPUs 320 GB de HBM2e 48 vCPUs 680 GB Em pacote (1,5 TB)
a2-ultragpu-8g 8 GPUs 640 GB de HBM2e 96 vCPUs 1360 GB Em pacote (3 TB)

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA T4

No entanto, as VMs com números reduzidos de GPUs estão limitadas a um número máximo de vCPUs. Em geral, um número maior de GPUs possibilita a criação de instâncias com um número maior de vCPUs e memória.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA T4 Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU 16 GB GDDR6 1 a 48 vCPUs 1 a 312 GB Sim
2 GPUs GDDR6 de 32 GB 1 a 48 vCPUs 1 a 312 GB Sim
4 GPUs GDDR6 de 64 GB 1 a 96 vCPUs 1 a 624 GB Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA P100

Para GPUs P4, o SSD local é compatível apenas em algumas regiões. Consulte Disponibilidade do SSD local por região e zona de GPU.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA P4 Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU GDDR5 de 8 GB 1 a 24 vCPUs 1 a 156 GB Sim
2 GPUs GDDR5 de 16 GB 1 a 48 vCPUs 1 a 312 GB Sim
4 GPUs GDDR5 de 32 GB 1 a 96 vCPUs 1 a 624 GB Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA V100

Para GPUs V100, o SSD local tem é compatível apenas em regiões selecionadas. Consulte Disponibilidade do SSD local por região e zona de GPU.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA V100 Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU HBM2 de 16 GB 1 a 12 vCPUs 1 a 78 GB Sim
2 GPUs HBM2 de 32 GB 1 a 24 vCPUs 1 a 156 GB Sim
4 GPUs HBM2 de 64 GB 1 a 48 vCPUs 1 a 312 GB Sim
8 GPUs HBM2 de 128 GB 1 a 96 vCPUs 1 a 624 GB Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA P100

Para algumas GPUs P100, a CPU máxima e a memória disponível para algumas configurações dependem da zona em que o recurso da GPU está sendo executado.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA P100 Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU HBM2 de 16 GB 1 a 16 vCPUs 1 a 104 GB Sim
2 GPUs HBM2 de 32 GB 1 a 32 vCPUs 1 a 208 GB Sim
4 GPUs HBM2 de 64 GB

1 a 64 vCPUs
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 96 vCPUs
(todas as zonas P100)

1 a 208 GB
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 624 GB
(todas as zonas P100)

Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA K80

As placas NVIDIA K80® contêm duas GPUs cada. O preço das GPUs K80 é por GPU individual, e não pela placa.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA K80 Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU GDDR5 de 12 GB 1 - 8 vCPUs 1 a 52 GB Sim
2 GPUs GDDR5 de 24 GB 1 a 16 vCPUs 1 a 104 GB Sim
4 GPUs GDDR5 de 48 GB 1 a 32 vCPUs 1 a 208 GB Sim
8 GPUs GDDR5 de 96 GB 1 - 64 vCPUs

1 a 416 GB
(asia-east1-a e us-east1-d)

1 a 208 GB
(todas as zonas de K80)

Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

Estações de trabalho virtuais (vWS) NVIDIA RTX para cargas de trabalho de gráficos

Se você tiver cargas de trabalho com muitos gráficos, como a visualização em 3D, será possível criar estações de trabalho virtuais que usam estações de trabalho virtuais (vWS) NVIDIA RTX (antes conhecidas como NVIDIA GRID). Quando você cria uma estação de trabalho virtual, uma licença da estação de trabalho virtual NVIDIA RTX (vWS) é adicionada automaticamente à VM.

Para informações sobre preços de estações de trabalho virtuais, consulte a página de preços da GPU.

Para cargas de trabalho de gráficos, os modelos de estação de trabalho virtual NVIDIA RTX (vWS) estão disponíveis nos seguintes estágios:

  • NVIDIA L4 Virtual Workstations: nvidia-l4-vws: disponibilidade geral
  • NVIDIA T4 Virtual Workstations: nvidia-tesla-t4-vws: disponibilidade geral
  • NVIDIA P100 Virtual Workstations: nvidia-tesla-p100-vws: disponibilidade geral
  • NVIDIA P4 Virtual Workstations: nvidia-tesla-p4-vws: disponibilidade geral

GPUs NVIDIA L4 vWS

Modelo de GPU Tipo de máquina GPUs Memória da GPU vCPUs Memória padrão Intervalo de memória personalizado Suporte máximo para SSD local
NVIDIA L4 Virtual Workstation g2-standard-4 1 GPU 24 GB GDDR6 4 vCPUs 16 GB 16 - 32 GB 375 GB
g2-standard-8 1 GPU 24 GB GDDR6 8 vCPUs 32 GB 32 - 54 GB 375 GB
g2-standard-12 1 GPU 24 GB GDDR6 12 vCPUs 48 GB 48 - 54 GB 375 GB
g2-standard-16 1 GPU 24 GB GDDR6 16 vCPUs 64 GB 54 - 64 GB 375 GB
g2-standard-24 2 GPUs 48 GB GDDR6 24 vCPUs 96 GB 96 - 108 GB 750 GB
g2-standard-32 1 GPU 24 GB GDDR6 32 vCPUs 128 GB 96 - 128 GB 375 GB
g2-standard-48 4 GPUs 96 GB GDDR6 48 vCPUs 192 GB 192 - 216 GB 1.500 GB
g2-standard-96 8 GPUs 192 GB GDDR6 96 vCPUs 384 GB 384 - 432 GB 3000 GB

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA T4 vWS

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA T4 Virtual Workstation Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU 16 GB GDDR6 1 a 48 vCPUs 1 a 312 GB Sim
2 GPUs GDDR6 de 32 GB 1 a 48 vCPUs 1 a 312 GB Sim
4 GPUs GDDR6 de 64 GB 1 a 96 vCPUs 1 a 624 GB Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA P100 vWS

Para GPUs P4, o SSD local é compatível apenas em algumas regiões. Consulte Disponibilidade do SSD local por região e zona de GPU.

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA P100 Virtual Workstation Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU GDDR5 de 8 GB 1 a 16 vCPUs 1 a 156 GB Sim
2 GPUs GDDR5 de 16 GB 1 a 48 vCPUs 1 a 312 GB Sim
4 GPUs GDDR5 de 32 GB 1 a 96 vCPUs 1 a 624 GB Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

GPUs NVIDIA P100 vWS

Modelo de GPU Tipo de máquina GPUs Memória da GPU* vCPUs disponíveis Memória disponível Compatível com SSD local
NVIDIA P100 Virtual Workstation Série N1 de máquina (em inglês), exceto o núcleo compartilhado N1 1 GPU HBM2 de 16 GB 1 a 16 vCPUs 1 a 104 GB Sim
2 GPUs HBM2 de 32 GB 1 a 32 vCPUs 1 a 208 GB Sim
4 GPUs HBM2 de 64 GB

1 a 64 vCPUs
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 96 vCPUs
(todas as zonas P100)

1 a 208 GB
(us-east1-c, europe-west1-d, europe-west1-b)

1 a 624 GB
(todas as zonas P100)

Sim

*A memória da GPU é a memória disponível em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

Gráfico de comparação geral

A tabela a seguir descreve o tamanho da memória da GPU, a disponibilidade do recurso e os tipos de carga de trabalho ideais nos diferentes modelos de GPU disponíveis no Compute Engine.

Modelo de GPU Memória Interconexão Compatibilidade com NVIDIA RTX Virtual Workstation (vWS) Melhor aplicação
H100 80GB 80 GB HBM3 a 3,35 TBps Malha completa NVLink com 900 GBps Modelos grandes com tabelas de dados enormes para treinamento de ML, inferência, HPC, BERT e DLRM
A100 80 GB 80 GB HBM2e a 1,9 TBps NVLink Full Mesh a 600 GBps Modelos grandes com tabelas de dados enormes para treinamento de ML, inferência, HPC, BERT e DLRM
A100 40 GB 40 GB HBM2 a 1,6 TBps NVLink Full Mesh a 600 GBps Treinamento de ML, inferência, HPC
L4 24 GB GDDR6 a 300 GBps N/A Inferência de ML, treinamento, estações de trabalho de visualização remota, transcodificação de vídeos
T4 16 GB GDDR6 a 320 GBps N/A Inferência de ML, treinamento, estações de trabalho de visualização remota, transcodificação de vídeos
V100 16 GB HBM2 a 900 GBps NVLink Ring com 300 GBps Treinamento de ML, inferência, HPC
P4 8 GB GDDR5 a 192 GBps N/A Estações de trabalho de visualização remota, inferência de ML e transcodificação de vídeos
P100 16 GB HBM2 a 732 GBps N/A Treinamento de ML, inferência, HPC, estações de trabalho de visualização remota
K80EOL 12 GB GDDR5 a 240 GBps N/A Inferência de ML, treinamento, HPC

Para comparar os preços de GPU para os diferentes modelos e regiões de GPU disponíveis no Compute Engine, consulte o sistema de preços de GPU.

Gráfico de comparação de desempenho

A tabela a seguir descreve as especificações de desempenho de diferentes modelos de GPU disponíveis no Compute Engine.

Desempenho de computação

Modelo de GPU FP64 FP32 FP16 INT8
H100 80GB 34 TFLOPS 67 TFLOPS
A100 80 GB 9,7 TFLOPS 19,5 TFLOPS
A100 40 GB 9,7 TFLOPS 19,5 TFLOPS
L4 0.5 TFLOPS* 30.3 TFLOPS
T4 0,25 TFLOPS* 8,1 TFLOPS
V100 7,8 TFLOPS 15,7 TFLOPS
P4 0,2 TFLOPS* 5,5 TFLOPS 22 TOPS
P100 4,7 TFLOPS 9,3 TFLOPS 18,7 TFLOPS
K80EOL 1,46 TFLOPS 4,37 TFLOPS

*Para que o código FP64 funcione corretamente, está incluído na arquitetura da GPU T4, L4 e P4 um pequeno número de unidades de hardware FP64.

TeraOperações por segundo.

Desempenho do Tensor Core

Modelo de GPU FP64 TF32 FP16/FP32 de precisão mista INT8 INT4 FP8
H100 80GB 67 TFLOPS 989 TFLOPS 1,979 TFLOPS*, † 3,958 TOPS 3,958 TFLOPS
A100 80 GB 19,5 TFLOPS 156 TFLOPS 312 TFLOPS* 624 TOPS 1248 TOPS
A100 40 GB 19,5 TFLOPS 156 TFLOPS 312 TFLOPS* 624 TOPS 1248 TOPS
L4 120 TFLOPS 242 TFLOPS*, † 485 TOPS 485 TFLOPS
T4 65 TFLOPS 130 TOPS 260 TOPS
V100 125 TFLOPS
P4
P100
K80EOL

*Para treinamento de precisão mista, as GPUs NVIDIA H100, A100 e L4 também são compatíveis com o tipo de dados bfloat16.

Para GPUs H100 e L4, há compatibilidade com a esparsidade estrutural, que pode ser usada para dobrar o valor do desempenho. Os valores mostrados são com esparsidade. As especificações são um meio inferiores e sem esparsidade.

A seguir