Bandes passantes réseau et GPU


Des bandes passantes réseau plus élevées peuvent améliorer les performances de vos charges de travail distribuées exécutées sur des instances de machine virtuelle (VM) Compute Engine.

Présentation

La bande passante réseau maximale disponible pour les VM auxquelles sont associés des GPU sur Compute Engine est la suivante :

  • Pour les VM optimisées pour les accélérateurs A3, vous pouvez obtenir une bande passante réseau maximale de 1 800 Gbit/s.
  • Pour les VM optimisées pour les accélérateurs A2 et G2, vous pouvez obtenir une bande passante réseau maximale de 100 Gbit/s, en fonction du type de machine.
  • Pour les VM à usage général N1 auxquelles sont associés des GPU P100 et P4 , la bande passante réseau maximale disponible est de 32 Gbit/s. Ce débit est semblable au débit maximal disponible pour les VM N1 sans GPU associé. Pour en savoir plus sur les bandes passantes réseau, consultez la section Débit maximal de sortie de données.
  • Pour les VM à usage général N1 auxquelles sont associés des GPU T4 et V100, vous pouvez obtenir une bande passante réseau maximale de 100 Gbit/s, en fonction de la combinaison du nombre de GPU et de processeurs virtuels.

Bande passante réseau et carte d'interface réseau virtuelle Google (gVNIC)

Pour obtenir les débits de bande passante réseau plus élevés (50 Gbit/s ou plus) appliqués à vos VM GPU, il est recommandé d'utiliser la carte d'interface réseau virtuelle Google (gVNIC). Pour en savoir plus sur la création de VM GPU qui utilisent gVNIC, consultez la section Créer des VM qui utilisent des bandes passantes plus élevées.

VM optimisées pour les accélérateurs

Cette section décrit la bande passante réseau maximale disponible pour les VM optimisées pour les accélérateurs A3, A2 et G2.

VM A3

Chaque type de machine A3 est associé à un nombre fixe de GPU NVIDIA H100 80 Go, un nombre fixe de vCPU et une taille de mémoire de VM fixe.

  • VM A3 avec une seule carte d'interface réseau: pour les VM A3 associées à 1 à 4 GPU, une seule carte d'interface réseau (NIC) physique est disponible.
  • VM A3 à plusieurs cartes d'interface réseau: pour les VM A3 avec huit GPU associés, plusieurs cartes d'interface réseau physiques sont disponibles. Pour ces types de machines A3, les NIC sont organisées comme suit sur un bus Peripheral Component Interconnect Express (PCIe) :
    • Pour le type de machine A3 Mega : une configuration de carte d'interface réseau de 8+1 est disponible. Avec cet agencement, huit cartes d'interface réseau partagent le même bus PCIe et une carte d'interface réseau réside sur un bus PCIe distinct.
    • Pour le type de machine A3 High : une configuration de carte d'interface réseau de 4+1 est disponible. Avec cet agencement, quatre cartes d'interface réseau partagent le même bus PCIe et une carte d'interface réseau réside sur un bus PCIe distinct.
    • Pour le type de machine A3 Edge: une configuration de carte d'interface réseau de 4+1 est disponible. Avec cet agencement, quatre cartes d'interface réseau partagent le même bus PCIe et une carte d'interface réseau réside sur un bus PCIe distinct. Ces cinq cartes réseau fournissent une bande passante réseau totale de 400 Gbit/s pour chaque VM.

    Les cartes d'interface réseau qui partagent le même bus PCIe ont un alignement non uniforme d'accès à la mémoire (NUMA) d'une carte d'interface réseau pour deux GPU NVIDIA H100 80 Go. Ces cartes réseau sont idéales pour la communication entre GPU à bande passante élevée. La carte réseau physique qui réside sur un bus PCIe distinct est idéale pour d'autres besoins de mise en réseau.

A3 Mega

Type de machine Nombre de GPU Mémoire GPU*
(GB HBM3)
Nombre de vCPU Mémoire VM (Go) SSD local associé (Gio) Nombre de cartes d'interface réseau physiques Bande passante réseau maximale (Gbit/s) Protocole réseau
a3-megagpu-8g 8 640 208 1 872 6 000 9 1 800 GPUDirect-TCPXO

A3 High

Lorsque vous provisionnez des types de machines a3-highgpu-1g, a3-highgpu-2g ou a3-highgpu-4g, vous devez utiliser des VM Spot ou une fonctionnalité qui utilise le planificateur de charge de travail dynamique (DWS, Dynamic Workload Scheduler), comme les requêtes de redimensionnement dans un MIG. Pour obtenir des instructions détaillées sur l'une de ces options, consultez les ressources suivantes :
Type de machine Nombre de GPU Mémoire GPU*
(GB HBM3)
Nombre de vCPU Mémoire VM (Go) SSD local associé (Gio) Nombre de cartes d'interface réseau physiques Bande passante réseau maximale (Gbit/s) Protocole réseau
a3-highgpu-1g 1 80 26 234 750 1 25 GPUDirect-TCPX
a3-highgpu-2g 2 160 52 468 1 500 1 50 GPUDirect-TCPX
a3-highgpu-4g 4 320 104 936 3 000 1 100 GPUDirect-TCPX
a3-highgpu-8g 8 640 208 1 872 6 000 5 800 GPUDirect-TCPX

A3 Edge

Type de machine Nombre de GPU Mémoire GPU*
(GB HBM3)
Nombre de vCPU Mémoire VM (Go) SSD local associé (Gio) Nombre de cartes d'interface réseau physiques Bande passante réseau maximale (Gbit/s) Protocole réseau
a3-edgegpu-8g 8 640 208 1 872 6 000 5
  • 800: pour asia-south1 et northamerica-northeast2
  • 400: pour toutes les autres régions A3 Edge
GPUDirect-TCPX

*La mémoire du GPU est la mémoire d'un GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail gourmandes en ressources graphiques.
Un processeur virtuel est implémenté sous la forme d'une technologie hyper-threading matérielle unique sur l'une des plates-formes de processeur disponibles.
 La bande passante de sortie maximale ne peut pas dépasser le nombre donné. La bande passante de sortie réelle dépend de l'adresse IP de destination et d'autres facteurs. Consultez la page Bande passante réseau.

VM A2

Chaque type de machine A2 est associé à un nombre fixe de GPU NVIDIA A100 40 Go ou NVIDIA A100 80 Go. Chaque type de machine possède également un nombre de processeurs virtuels et une taille de mémoire fixes.

La série de machines A2 est disponible en deux types :

  • A2 Ultra : ces types de machines sont associés à des GPU A100 de 80 Go et à des disques SSD locaux.
  • A2 Standard : ces types de machines sont associés à des GPU A100 de 40 Go.

A2 ultra

Type de machine Nombre de GPU Mémoire GPU*
(GB HBM3)
Nombre de vCPU Mémoire VM (Go) SSD local associé (Gio) Bande passante réseau maximale (Gbit/s)
a2-ultragpu-1g 1 80 12 170 375 24
a2-ultragpu-2g 2 160 24 340 750 32
a2-ultragpu-4g 4 320 48 680 1 500 50
a2-ultragpu-8g 8 640 96 1 360 3 000 100

A2 standard

Type de machine Nombre de GPU Mémoire GPU*
(GB HBM3)
Nombre de vCPU Mémoire VM (Go) SSD local associé (Gio) Bande passante réseau maximale (Gbit/s)
a2-highgpu-1g 1 40 12 85 Oui 24
a2-highgpu-2g 2 80 24 170 Oui 32
a2-highgpu-4g 4 160 48 340 Oui 50
a2-highgpu-8g 8 320 96 680 Oui 100
a2-megagpu-16g 16 640 96 1 360 Oui 100

*La mémoire du GPU est la mémoire d'un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail gourmandes en ressources graphiques.
Un processeur virtuel est implémenté sous la forme d'une technologie hyper-threading matérielle unique sur l'une des plates-formes de processeur disponibles.
 La bande passante de sortie maximale ne peut pas dépasser le nombre donné. La bande passante de sortie réelle dépend de l'adresse IP de destination et d'autres facteurs. Consultez la page Bande passante réseau.

Configuration VM G2

Chaque type de machine G2 est associé à un nombre fixe de GPU NVIDIA L4 et de processeurs virtuels. Chaque type de machine G2 dispose également d'une mémoire par défaut et d'une plage de mémoire personnalisée. La plage de mémoire personnalisée définit la quantité de mémoire que vous pouvez allouer à votre VM pour chaque type de machine. Vous pouvez spécifier votre mémoire personnalisée lors de la création de la VM.

Type de machine Nombre de GPU Mémoire GPU* (Go GDDR6) Nombre de vCPU Mémoire VM par défaut (Go) Plage de mémoire personnalisée VM (Go) Disque SSD local maximal compatible (Gio) Bande passante réseau maximale (Gbit/s)
g2-standard-4 1 24 4 16 Entre 16 et 32 375 10
g2-standard-8 1 24 8 32 Entre 32 et 54 375 16
g2-standard-12 1 24 12 48 Entre 48 et 54 375 16
g2-standard-16 1 24 16 64 Entre 54 et 64 375 32
g2-standard-24 2 48 24 96 Entre 96 et 108 750 32
g2-standard-32 1 24 32 128 Entre 96 et 128 375 32
g2-standard-48 4 96 48 192 Entre 192 et 216 1 500 50
g2-standard-96 8 192 96 384 Entre 384 et 432 3 000 100

*La mémoire du GPU est la mémoire d'un GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail gourmandes en ressources graphiques.
Un processeur virtuel est implémenté sous la forme d'une technologie hyper-threading matérielle unique sur l'une des plates-formes de processeur disponibles.
 La bande passante de sortie maximale ne peut pas dépasser le nombre donné. La bande passante de sortie réelle dépend de l'adresse IP de destination et d'autres facteurs. Consultez la page Bande passante réseau.

VM GPU N1

Pour les VM à usage général N1 auxquelles sont associés des GPU T4 et V100, vous pouvez obtenir une bande passante réseau maximale de 100 Gbit/s, en fonction de la combinaison du nombre de GPU et de processeurs virtuels. Pour toutes les autres VM GPU N1, consultez la page Présentation.

Consultez la section suivante pour calculer la bande passante réseau maximale disponible pour vos VM T4 et V100 en fonction du modèle de GPU, du processeur virtuel et du nombre de GPU.

Moins de cinq processeurs virtuels

Pour les VM T4 et V100 comportant cinq processeurs virtuels ou moins, la bande passante réseau maximale disponible est de 10 Gbit/s.

Plus de cinq processeurs virtuels

Pour les VM T4 et V100 comportant plus de cinq processeurs virtuels, la bande passante réseau maximale est calculée en fonction du nombre de processeurs virtuels et de GPU pour cette VM.

Modèle GPU Number of GPUs Calcul de la bande passante réseau maximale
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

Créer des VM à bande passante élevée

Pour créer des VM qui utilisent des bandes passantes réseau plus élevées, consultez la section Utiliser une bande passante réseau plus élevée.

Pour tester ou vérifier la vitesse de bande passante d'une configuration, vous pouvez utiliser le test d'analyse comparative. Pour en savoir plus, consultez la section Vérifier la bande passante réseau.

Étape suivante