Larguras de banda de rede e GPUs


Larguras de banda de rede mais altas podem melhorar o desempenho das cargas de trabalho distribuídas em execução nas instâncias de máquina virtual (VM) do Compute Engine.

Visão geral

A largura de banda de rede máxima disponível para VMs com GPUs anexadas no Compute Engine é a seguinte:

  • Para VMs otimizadas para aceleradores A3, é possível ter uma largura de banda de rede máxima de até 1.800 Gbps.
  • Para VMs otimizadas para aceleradores A2 e G2, é possível ter uma largura de banda de rede máxima de até 100 Gbps, com base no tipo de máquina.
  • Para VMs de uso geral N1 com GPUs P100 and GPUs P4 conectadas, está disponível uma largura de banda de rede máxima de 32 Gbps. Isso é semelhante à taxa máxima disponível para VMs que não têm GPUs anexadas. Para mais informações sobre larguras de banda de rede, consulte taxa de dados de saída máxima.
  • Para VMs de uso geral N1 com GPUs T4 e V100 anexadas, é possível ter uma largura de banda de rede máxima de até 100 Gbps, com base na combinação da contagem de GPUs e vCPUs.

Largura de banda de rede e placa de rede virtual do Google (gVNIC)

Para aplicar as taxas mais altas de largura de banda de rede (50 Gbps ou mais) às VMs de GPU, é recomendado usar a placa de rede virtual do Google (gVNIC). Para saber como criar VMs de GPU que usam a gVNIC, consulte Como criar VMs de GPU que usam larguras de banda maiores.

VMs otimizadas para aceleradores

Esta seção descreve a largura de banda de rede máxima disponível para as VMs otimizadas para aceleradores A3, A2 e G2.

VMs A3

Cada tipo de máquina A3 tem um número fixo de GPUs NVIDIA H100 de 80 GB anexadas, uma contagem fixa de vCPUs e um tamanho de memória de VM fixo.

  • VMs A3 com uma única NIC: para VMs A3 com 1 a 4 GPUs anexadas, apenas uma placa de interface de rede física (NIC) está disponível.
  • VMs A3 multi-NIC: para VMs A3 com 8 GPUs anexadas, várias NICs físicas estão disponíveis. Para esses tipos de máquina A3, as NICs são organizadas da seguinte maneira em um barramento Peripheral Component Interconnect Express (PCIe):
    • Para o tipo de máquina A3 Mega: um arranjo de NIC de 8+1 está disponível. Com esse arranjo, oito NICs compartilham o mesmo barramento PCIe, e uma NIC reside em um barramento PCIe separado.
    • Para o tipo de máquina A3 High: um arranjo de NIC de 4+1 está disponível. Com esse arranjo, quatro NICs compartilham o mesmo barramento PCIe, e uma NIC reside em um barramento PCIe separado.
    • Para o tipo de máquina A3 Edge: um arranjo de NIC de 4+1 está disponível. Com esse arranjo, quatro NICs compartilham o mesmo barramento PCIe, e uma NIC reside em um barramento PCIe separado. Essas cinco NICs oferecem uma largura de banda de rede total de 400 Gbps para cada VM.

    As NICs que compartilham o mesmo barramento PCIe têm um alinhamento de acesso à memória não uniforme (NUMA) de um NIC por duas GPUs NVIDIA H100 de 80 GB. Essas NICs são ideais para comunicação dedicada de GPU para GPU de alta largura de banda. A NIC física que reside em um barramento PCIe separado é ideal para outras necessidades de rede.

A3 Mega

Tipo de máquina Contagem de GPUs Memória da GPU*
(GB HBM3)
Contagem de vCPU Memória da VM (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps) Protocolo de rede
a3-megagpu-8g 8 640 208 1.872 6.000 9 1.800 GPUDirect-TCPXO

A3 Alto

Ao provisionar tipos de máquina a3-highgpu-1g, a3-highgpu-2g ou a3-highgpu-4g, é necessário usar VMs do Spot ou um recurso que use o Dynamic Workload Scheduler (DWS), como solicitações de redimensionamento em um MIG. Para instruções detalhadas sobre essas opções, consulte o seguinte:
Tipo de máquina Contagem de GPUs Memória da GPU*
(GB HBM3)
Contagem de vCPU Memória da VM (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps) Protocolo de rede
a3-highgpu-1g 1 80 26 234 750 1 25 GPUDirect-TCPX
a3-highgpu-2g 2 160 52 468 1.500 1 50 GPUDirect-TCPX
a3-highgpu-4g 4 320 104 936 3.000 1 100 GPUDirect-TCPX
a3-highgpu-8g 8 640 208 1.872 6.000 5 1.000 GPUDirect-TCPX

A3 Edge

Tipo de máquina Contagem de GPUs Memória da GPU*
(GB HBM3)
Contagem de vCPU Memória da VM (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps) Protocolo de rede
a3-edgegpu-8g 8 640 208 1.872 6.000 5
  • 800: para asia-south1 e northamerica-northeast2
  • 400: para todas as outras regiões do A3 Edge
GPUDirect-TCPX

*A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.
Uma vCPU é implementada como um único hiperthread de hardware em uma das plataformas de CPU.
A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Consulte Largura de banda de rede.

VMs A2

Cada tipo de máquina A2 tem um número fixo de GPUs NVIDIA A100 de 40 GB ou NVIDIA A100 de 80 GB anexadas. Cada tipo de máquina também tem uma contagem fixa de vCPUs e um tamanho de memória.

A série de máquinas A2 está disponível em dois tipos:

  • A2 Ultra: esses tipos de máquina têm GPUs A100 de 80 GB e discos SSD locais conectados.
  • A2 Standard (, ): esses tipos de máquina têm GPUs A100 de 40 GB anexadas.

A2 Ultra

Tipo de máquina Contagem de GPUs Memória da GPU*
(GB HBM3)
Contagem de vCPU Memória da VM (GB) SSD local anexado (GiB) Largura de banda máxima da rede (Gbps)
a2-ultragpu-1g 1 80 12 170 375 24
a2-ultragpu-2g 2 160 24 340 750 32
a2-ultragpu-4g 4 320 48 680 1.500 50
a2-ultragpu-8g 8 640 96 1.360 3.000 100

A2 Padrão

Tipo de máquina Contagem de GPUs Memória da GPU*
(GB HBM3)
Contagem de vCPU Memória da VM (GB) SSD local anexado (GiB) Largura de banda máxima da rede (Gbps)
a2-highgpu-1g 1 40 12 85 Sim 24
a2-highgpu-2g 2 80 24 170 Sim 32
a2-highgpu-4g 4 160 48 340 Sim 50
a2-highgpu-8g 8 320 96 680 Sim 100
a2-megagpu-16g 16 640 96 1.360 Sim 100

*A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.
Uma vCPU é implementada como um único hiperthread de hardware em uma das plataformas de CPU.
A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Consulte Largura de banda de rede.

Configuração da VM G2

Cada tipo de máquina G2 tem um número fixo de GPUs NVIDIA L4 e vCPUs anexadas. Cada tipo de máquina G2 também tem uma memória padrão e um intervalo de memória personalizado. O intervalo de memória personalizado define a quantidade de memória que pode ser alocada à VM para cada tipo de máquina. É possível especificar a memória personalizada durante a criação da VM.

Tipo de máquina Contagem de GPUs Memória da GPU* (GB GDDR6) Contagem de vCPU Memória padrão da VM (GB) Intervalo de memória personalizada da VM (GB) Suporte máximo para SSD local (GiB) Largura de banda máxima da rede (Gbps)
g2-standard-4 1 24 4 16 16 a 32 375 10
g2-standard-8 1 24 8 32 32 a 54 375 16
g2-standard-12 1 24 12 48 48 a 54 375 16
g2-standard-16 1 24 16 64 54 a 64 375 32
g2-standard-24 2 48 24 96 96 a 108 750 32
g2-standard-32 1 24 32 128 96 a 128 375 32
g2-standard-48 4 96 48 192 192 a 216 1.500 50
g2-standard-96 8 192 96 384 384 a 432 3.000 100

*A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da VM e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.
Uma vCPU é implementada como um único hiperthread de hardware em uma das plataformas de CPU.
A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Consulte Largura de banda de rede.

VMs de GPU N1

Para VMs de uso geral N1 com GPUs T4 e V100 anexadas, é possível ter uma largura de banda de rede máxima de até 100 Gbps, com base na combinação da contagem de GPUs e vCPUs. Para todas as outras VMs de GPU N1, consulte a Visão geral.

Consulte a seção a seguir para calcular a largura de banda de rede máxima disponível para as VMs T4 e V100 com base no modelo de GPU, na vCPU e na contagem de GPUs.

Menos de cinco vCPUs

Para VMs T4 e V100 com cinco vCPUs ou menos, está disponível uma largura de banda de rede máxima de 10 Gbps.

Mais de cinco vCPUs

Para VMs T4 e V100 com mais de cinco vCPUs, a largura de banda de rede máxima é calculada com base no número de vCPUs e GPUs da VM.

Modelo de GPU Número de GPUs Cálculo da largura de banda de rede máxima
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

Criar VMs com largura de banda alta

Para criar VMs que usem larguras de banda de rede maiores, consulte Usar largura de banda de rede maior.

Para testar ou verificar a velocidade de largura de banda de qualquer configuração, use o teste de comparação. Para mais informações, consulte Como verificar a largura de banda da rede.

A seguir