Larguras de banda de rede mais altas podem melhorar o desempenho das cargas de trabalho distribuídas em execução nas instâncias de máquina virtual (VM) do Compute Engine.
Visão geral
A largura de banda de rede máxima disponível para VMs com GPUs anexadas no Compute Engine é a seguinte:
- Para VMs otimizadas para aceleradores A3, é possível ter uma largura de banda de rede máxima de até 1.800 Gbps.
- Para VMs otimizadas para aceleradores A2 e G2, é possível ter uma largura de banda de rede máxima de até 100 Gbps, com base no tipo de máquina.
- Para VMs de uso geral N1 com GPUs P100 and GPUs P4 conectadas, está disponível uma largura de banda de rede máxima de 32 Gbps. Isso é semelhante à taxa máxima disponível para VMs que não têm GPUs anexadas. Para mais informações sobre larguras de banda de rede, consulte taxa de dados de saída máxima.
- Para VMs de uso geral N1 com GPUs T4 e V100 anexadas, é possível ter uma largura de banda de rede máxima de até 100 Gbps, com base na combinação da contagem de GPUs e vCPUs.
Largura de banda de rede e placa de rede virtual do Google (gVNIC)
Para aplicar as taxas mais altas de largura de banda de rede (50 Gbps ou mais) às VMs de GPU, é recomendado usar a placa de rede virtual do Google (gVNIC). Para saber como criar VMs de GPU que usam a gVNIC, consulte Como criar VMs de GPU que usam larguras de banda maiores.
VMs otimizadas para aceleradores
Esta seção descreve a largura de banda de rede máxima disponível para as VMs otimizadas para aceleradores A3, A2 e G2.
VMs A3
Cada tipo de máquina A3 tem um número fixo de GPUs NVIDIA H100 de 80 GB anexadas, uma contagem fixa de vCPUs e um tamanho de memória de VM fixo.
- VMs A3 com uma única NIC: para VMs A3 com 1 a 4 GPUs anexadas, apenas uma placa de interface de rede física (NIC) está disponível.
- VMs A3 multi-NIC: para VMs A3 com 8 GPUs anexadas,
várias NICs físicas estão disponíveis. Para esses tipos de máquina A3, as NICs são organizadas da seguinte maneira em
um barramento Peripheral Component Interconnect Express (PCIe):
- Para o tipo de máquina A3 Mega: um arranjo de NIC de 8+1 está disponível. Com esse arranjo, oito NICs compartilham o mesmo barramento PCIe, e uma NIC reside em um barramento PCIe separado.
- Para o tipo de máquina A3 High: um arranjo de NIC de 4+1 está disponível. Com esse arranjo, quatro NICs compartilham o mesmo barramento PCIe, e uma NIC reside em um barramento PCIe separado.
- Para o tipo de máquina A3 Edge: um arranjo de NIC de 4+1 está disponível. Com esse arranjo, quatro NICs compartilham o mesmo barramento PCIe, e uma NIC reside em um barramento PCIe separado. Essas cinco NICs oferecem uma largura de banda de rede total de 400 Gbps para cada VM.
As NICs que compartilham o mesmo barramento PCIe têm um alinhamento de acesso à memória não uniforme (NUMA) de um NIC por duas GPUs NVIDIA H100 de 80 GB. Essas NICs são ideais para comunicação dedicada de GPU para GPU de alta largura de banda. A NIC física que reside em um barramento PCIe separado é ideal para outras necessidades de rede.
A3 Mega
Tipo de máquina | Contagem de GPUs | Memória da GPU* (GB HBM3) |
Contagem de vCPU† | Memória da VM (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)‡ | Protocolo de rede |
---|---|---|---|---|---|---|---|---|
a3-megagpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 9 | 1.800 | GPUDirect-TCPXO |
A3 Alto
a3-highgpu-1g
, a3-highgpu-2g
ou a3-highgpu-4g
, é necessário usar VMs do Spot ou um recurso que use o
Dynamic Workload Scheduler (DWS),
como solicitações de redimensionamento em um MIG. Para instruções detalhadas sobre essas opções, consulte o
seguinte:
- Para criar VMs do Spot, consulte
Criar uma VM otimizada para aceleradores
e defina o modelo de provisionamento como
SPOT
. - Para criar uma solicitação de redimensionamento em um MIG que usa o Dynamic Workload Scheduler, consulte Criar um MIG com VMs de GPU.
Tipo de máquina | Contagem de GPUs | Memória da GPU* (GB HBM3) |
Contagem de vCPU† | Memória da VM (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)‡ | Protocolo de rede |
---|---|---|---|---|---|---|---|---|
a3-highgpu-1g |
1 | 80 | 26 | 234 | 750 | 1 | 25 | GPUDirect-TCPX |
a3-highgpu-2g |
2 | 160 | 52 | 468 | 1.500 | 1 | 50 | GPUDirect-TCPX |
a3-highgpu-4g |
4 | 320 | 104 | 936 | 3.000 | 1 | 100 | GPUDirect-TCPX |
a3-highgpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 | 1.000 | GPUDirect-TCPX |
A3 Edge
Tipo de máquina | Contagem de GPUs | Memória da GPU* (GB HBM3) |
Contagem de vCPU† | Memória da VM (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)‡ | Protocolo de rede |
---|---|---|---|---|---|---|---|---|
a3-edgegpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 |
|
GPUDirect-TCPX |
*A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da VM e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
†Uma vCPU é implementada como um único hiperthread de hardware em uma das plataformas de CPU.
‡A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Consulte Largura de banda de rede.
VMs A2
Cada tipo de máquina A2 tem um número fixo de GPUs NVIDIA A100 de 40 GB ou NVIDIA A100 de 80 GB anexadas. Cada tipo de máquina também tem uma contagem fixa de vCPUs e um tamanho de memória.
A série de máquinas A2 está disponível em dois tipos:
- A2 Ultra: esses tipos de máquina têm GPUs A100 de 80 GB e discos SSD locais conectados.
- A2 Standard (, ): esses tipos de máquina têm GPUs A100 de 40 GB anexadas.
A2 Ultra
Tipo de máquina | Contagem de GPUs | Memória da GPU* (GB HBM3) |
Contagem de vCPU† | Memória da VM (GB) | SSD local anexado (GiB) | Largura de banda máxima da rede (Gbps)‡ |
---|---|---|---|---|---|---|
a2-ultragpu-1g |
1 | 80 | 12 | 170 | 375 | 24 |
a2-ultragpu-2g |
2 | 160 | 24 | 340 | 750 | 32 |
a2-ultragpu-4g |
4 | 320 | 48 | 680 | 1.500 | 50 |
a2-ultragpu-8g |
8 | 640 | 96 | 1.360 | 3.000 | 100 |
A2 Padrão
Tipo de máquina | Contagem de GPUs | Memória da GPU* (GB HBM3) |
Contagem de vCPU† | Memória da VM (GB) | SSD local anexado (GiB) | Largura de banda máxima da rede (Gbps)‡ |
---|---|---|---|---|---|---|
a2-highgpu-1g |
1 | 40 | 12 | 85 | Sim | 24 |
a2-highgpu-2g |
2 | 80 | 24 | 170 | Sim | 32 |
a2-highgpu-4g |
4 | 160 | 48 | 340 | Sim | 50 |
a2-highgpu-8g |
8 | 320 | 96 | 680 | Sim | 100 |
a2-megagpu-16g |
16 | 640 | 96 | 1.360 | Sim | 100 |
*A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da VM e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
†Uma vCPU é implementada como um único hiperthread de hardware em uma das plataformas de CPU.
‡A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Consulte Largura de banda de rede.
Configuração da VM G2
Cada tipo de máquina G2 tem um número fixo de GPUs NVIDIA L4 e vCPUs anexadas. Cada tipo de máquina G2 também tem uma memória padrão e um intervalo de memória personalizado. O intervalo de memória personalizado define a quantidade de memória que pode ser alocada à VM para cada tipo de máquina. É possível especificar a memória personalizada durante a criação da VM.
Tipo de máquina | Contagem de GPUs | Memória da GPU* (GB GDDR6) | Contagem de vCPU† | Memória padrão da VM (GB) | Intervalo de memória personalizada da VM (GB) | Suporte máximo para SSD local (GiB) | Largura de banda máxima da rede (Gbps)‡ |
---|---|---|---|---|---|---|---|
g2-standard-4 |
1 | 24 | 4 | 16 | 16 a 32 | 375 | 10 |
g2-standard-8 |
1 | 24 | 8 | 32 | 32 a 54 | 375 | 16 |
g2-standard-12 |
1 | 24 | 12 | 48 | 48 a 54 | 375 | 16 |
g2-standard-16 |
1 | 24 | 16 | 64 | 54 a 64 | 375 | 32 |
g2-standard-24 |
2 | 48 | 24 | 96 | 96 a 108 | 750 | 32 |
g2-standard-32 |
1 | 24 | 32 | 128 | 96 a 128 | 375 | 32 |
g2-standard-48 |
4 | 96 | 48 | 192 | 192 a 216 | 1.500 | 50 |
g2-standard-96 |
8 | 192 | 96 | 384 | 384 a 432 | 3.000 | 100 |
*A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da VM e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
†Uma vCPU é implementada como um único hiperthread de hardware em uma das plataformas de CPU.
‡A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Consulte Largura de banda de rede.
VMs de GPU N1
Para VMs de uso geral N1 com GPUs T4 e V100 anexadas, é possível ter uma largura de banda de rede máxima de até 100 Gbps, com base na combinação da contagem de GPUs e vCPUs. Para todas as outras VMs de GPU N1, consulte a Visão geral.
Consulte a seção a seguir para calcular a largura de banda de rede máxima disponível para as VMs T4 e V100 com base no modelo de GPU, na vCPU e na contagem de GPUs.
Menos de cinco vCPUs
Para VMs T4 e V100 com cinco vCPUs ou menos, está disponível uma largura de banda de rede máxima de 10 Gbps.
Mais de cinco vCPUs
Para VMs T4 e V100 com mais de cinco vCPUs, a largura de banda de rede máxima é calculada com base no número de vCPUs e GPUs da VM.
Modelo de GPU | Número de GPUs | Cálculo da largura de banda de rede máxima |
---|---|---|
NVIDIA V100 | 1 | min(vcpu_count * 2, 32) |
2 | min(vcpu_count * 2, 32) |
|
4 | min(vcpu_count * 2, 50) |
|
8 | min(vcpu_count * 2, 100) |
|
NVIDIA T4 | 1 | min(vcpu_count * 2, 32) |
2 | min(vcpu_count * 2, 50) |
|
4 | min(vcpu_count * 2, 100) |
Criar VMs com largura de banda alta
Para criar VMs que usem larguras de banda de rede maiores, consulte Usar largura de banda de rede maior.
Para testar ou verificar a velocidade de largura de banda de qualquer configuração, use o teste de comparação. Para mais informações, consulte Como verificar a largura de banda da rede.
A seguir
- Saiba mais sobre as plataformas de GPU.
- Saiba como criar VMs com GPUs anexadas.
- Saiba como usar uma largura de banda de rede maior.
- Saiba mais sobre os preços da GPU.