Compute Engine offre la possibilité d'ajouter des processeurs graphiques (GPU) aux instances de machines virtuelles (VM). Vous pouvez utiliser ces GPU pour accélérer des charges de travail spécifiques sur vos VM, telles que le machine learning et le traitement des données.
Compute Engine fournit des GPU NVIDIA pour vos VM en mode passthrough. Cela permet à vos VM de contrôler directement les GPU et leur mémoire associée.
Si vous avez des charges de travail graphiques lourdes, telles que la visualisation 3D, le rendu 3D ou les applications virtuelles, vous pouvez utiliser des postes de travail virtuels NVIDIA RTX (anciennement NVIDIA GRID).
Ce document présente les différents modèles de GPU disponibles sur Compute Engine.
Pour consulter les régions et les zones disponibles pour les GPU sur Compute Engine, consultez la page Régions et zones disponibles pour les GPU.
GPU NVIDIA pour les charges de travail de calcul
Pour les charges de travail de calcul, les modèles de GPU sont disponibles aux phases suivantes :
- NVIDIA H100 80 Go :
nvidia-h100-80gb
: Disponibilité générale - NVIDIA L4 :
nvidia-l4
: Disponibilité générale - NVIDIA A100
- NVIDIA A100 40 Go :
nvidia-tesla-a100
: Disponibilité générale - NVIDIA A100 80 Go :
nvidia-a100-80gb
: Disponibilité générale
- NVIDIA A100 40 Go :
- NVIDIA T4 :
nvidia-tesla-t4
: Disponibilité générale - NVIDIA V100 :
nvidia-tesla-v100
: Disponibilité générale - NVIDIA P100 :
nvidia-tesla-p100
: Disponibilité générale - NVIDIA P4 :
nvidia-tesla-p4
: Disponibilité générale - NVIDIA K80 :
nvidia-tesla-k80
: Disponibilité générale. Consultez la page Fin d'assistance NVIDIA K80.
GPU NVIDIA H100
Pour exécuter des GPU NVIDIA H100 80 Go, vous devez utiliser un type de machine A3 optimisé pour l'accélérateur.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA H100 | a3-highgpu-8g |
8 GPU | 640 Go HBM3 | 208 vCPU | 1 872 Go | Groupé (6 000 Go) |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA L4
Pour exécuter des GPU NVIDIA L4, vous devez utiliser un type de machine optimisé pour l'accélérateur G2.
Chaque type de machine G2 est associé à un nombre fixe de GPU NVIDIA L4 et de processeurs virtuels. Chaque type de machine G2 dispose également d'une mémoire par défaut et d'une plage de mémoire personnalisée. La plage de mémoire personnalisée définit la quantité de mémoire que vous pouvez allouer à votre VM pour chaque type de machine. Vous pouvez spécifier votre mémoire personnalisée lors de la création de la VM.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | vCPU | Mémoire par défaut | Plage de mémoire personnalisée | Disque SSD local maximal compatible |
---|---|---|---|---|---|---|---|
NVIDIA L4 | g2-standard-4 |
1 GPU | 24 Go GDDR6 | 4 vCPU | 16 Go | 16 à 32 Go | 375 Go |
g2-standard-8 |
1 GPU | 24 Go GDDR6 | 8 vCPU | 32 Go | 32 à 54 Go | 375 Go | |
g2-standard-12 |
1 GPU | 24 Go GDDR6 | 12 processeurs virtuels | 48 Go | 48 à 54 Go | 375 Go | |
g2-standard-16 |
1 GPU | 24 Go GDDR6 | 16 vCPU | 64 Go | 54 à 64 Go | 375 Go | |
g2-standard-24 |
2 GPU | 48 Go GDDR6 | 24 processeurs virtuels | 96 Go | 96 à 108 Go | 750 Go | |
g2-standard-32 |
1 GPU | 24 Go GDDR6 | 32 vCPU | 128 Go | 96 à 128 Go | 375 Go | |
g2-standard-48 |
4 GPU | 96 Go GDDR6 | 48 processeurs virtuels | 192 Go | 192 à 216 Go | 1 500 Go | |
g2-standard-96 |
8 GPU | 192 Go GDDR6 | 96 vCPU | 384 Go | 384 à 432 Go | 3 000 Go |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA A100
Pour exécuter des GPU NVIDIA A100, vous devez utiliser le type de machine optimisé pour l'accélérateur A2.
Chaque type de machine A2 possède un nombre de GPU, un nombre de processeurs virtuels et une taille de mémoire fixes.
A100 40 Go
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA A100 40 Go | a2-highgpu-1g |
1 GPU | 40 Go HBM2 | 12 processeurs virtuels | 85 Go | Oui |
a2-highgpu-2g |
2 GPU | 80 Go HBM2 | 24 processeurs virtuels | 170 Go | Oui | |
a2-highgpu-4g |
4 GPU | 160 Go HBM2 | 48 processeurs virtuels | 340 Go | Oui | |
a2-highgpu-8g |
8 GPU | 320 Go HBM2 | 96 processeurs virtuels | 680 Go | Oui | |
a2-megagpu-16g |
16 GPU | 640 Go HBM2 | 96 processeurs virtuels | 1360 Go | Oui |
A100 80 Go
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA A100 80 Go | a2-ultragpu-1g |
1 GPU | 80 Go HBM2e | 12 processeurs virtuels | 170 Go | Groupé (375 Go) |
a2-ultragpu-2g |
2 GPU | 160 Go HBM2e | 24 processeurs virtuels | 340 Go | Groupé (750 Go) | |
a2-ultragpu-4g |
4 GPU | 320 Go HBM2e | 48 processeurs virtuels | 680 Go | Groupé (1,5 To) | |
a2-ultragpu-8g |
8 GPU | 640 Go HBM2e | 96 processeurs virtuels | 1360 Go | Groupé (3 To) |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA T4
Les VM disposant de peu de GPU sont limitées à un nombre maximal de processeurs virtuels. En règle générale, un nombre plus élevé de GPU permet de créer des instances dotées d'une plus grande quantité de processeurs virtuels et de mémoire.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA T4 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 16 Go GDDR6 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui |
2 GPU | 32 Go GDDR6 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui | ||
4 GPU | 64 Go GDDR6 | 1 – 96 processeurs virtuels | 1 – 624 Go | Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA P4
Pour les GPU P4, les disques SSD locaux ne sont compatibles qu'avec certaines régions. Consultez la page Disponibilité des disques SSD locaux par régions et zones GPU.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA P4 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 8 Go GDDR5 | 1 – 24 processeurs virtuels | 1 – 156 Go | Oui |
2 GPU | 16 Go GDDR5 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui | ||
4 GPU | 32 Go GDDR5 | 1 – 96 processeurs virtuels | 1 – 624 Go | Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA V100
Pour les GPU V100, les disques SSD locaux ne sont compatibles qu'avec certaines régions. Consultez la page Disponibilité des disques SSD locaux par régions et zones GPU.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA V100 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 16 Go HBM2 | 1 – 12 processeurs virtuels | 1 – 78 Go | Oui |
2 GPU | 32 Go HBM2 | 1 – 24 processeurs virtuels | 1 – 156 Go | Oui | ||
4 GPU | 64 Go HBM2 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui | ||
8 GPU | 128 Go HBM2 | 1 – 96 processeurs virtuels | 1 – 624 Go | Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA P100
Pour certains GPU P100, la quantité maximale de processeurs et de mémoire qui est disponible pour certaines configurations dépend de la zone dans laquelle la ressource GPU est en cours d'exécution.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA P100 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 16 Go HBM2 | 1 – 16 processeurs virtuels | 1 – 104 Go | Oui |
2 GPU | 32 Go HBM2 | 1 – 32 processeurs virtuels | 1 – 208 Go | Oui | ||
4 GPU | 64 Go HBM2 | 1 – 64 processeurs virtuels 1 – 96 processeurs virtuels |
1 – 208 Go 1 – 624 Go |
Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU NVIDIA K80
Les cartes NVIDIA K80 contiennent chacune deux GPU. Le prix des GPU K80 est calculé par GPU, et non par carte.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
NVIDIA K80 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 12 Go GDDR5 | 1 – 8 processeurs virtuels | 1 – 52 Go | Oui |
2 GPU | 24 Go GDDR5 | 1 – 16 processeurs virtuels | 1 – 104 Go | Oui | ||
4 GPU | 48 Go de GDDR5 | 1 – 32 processeurs virtuels | 1 – 208 Go | Oui | ||
8 GPU | 96 Go GDDR5 | 1 – 64 processeurs virtuels | 1 – 416 Go 1 – 208 Go |
Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
Postes de travail virtuels (vWS) NVIDIA RTX pour les charges de travail graphiques
Si vous avez des charges de travail exigeantes en ressources graphiques, telles que la visualisation 3D, vous pouvez créer des postes de travail virtuels qui utilisent des postes de travail virtuels (vWS, Virtual Workstations) NVIDIA RTX (anciennement NVIDIA GRID). Lorsque vous créez un poste de travail virtuel, une licence de poste de travail virtuel NVIDIA RTX (vWS) est automatiquement ajoutée à votre VM.
Pour en savoir plus sur la tarification des postes de travail virtuels, consultez la section Tarifs des GPU.
Pour les charges de travail graphiques, les modèles de postes de travail virtuels (vWS) NVIDIA RTX sont disponibles aux phases suivantes :
- Postes de travail virtuels NVIDIA L4 :
nvidia-l4-vws
: Disponibilité générale - Postes de travail virtuels NVIDIA T4 :
nvidia-tesla-t4-vws
: Disponibilité générale - Postes de travail virtuels NVIDIA P100 :
nvidia-tesla-p100-vws
: Disponibilité générale - Postes de travail virtuels NVIDIA P4 :
nvidia-tesla-p4-vws
: Disponibilité générale
GPU vWS NVIDIA L4
Modèle GPU | Type de machine | GPU | Mémoire des GPU | vCPU | Mémoire par défaut | Plage de mémoire personnalisée | Disque SSD local maximal compatible |
---|---|---|---|---|---|---|---|
Poste de travail virtuel NVIDIA L4 | g2-standard-4 |
1 GPU | 24 Go GDDR6 | 4 vCPU | 16 Go | 16 à 32 Go | 375 Go |
g2-standard-8 |
1 GPU | 24 Go GDDR6 | 8 vCPU | 32 Go | 32 à 54 Go | 375 Go | |
g2-standard-12 |
1 GPU | 24 Go GDDR6 | 12 processeurs virtuels | 48 Go | 48 à 54 Go | 375 Go | |
g2-standard-16 |
1 GPU | 24 Go GDDR6 | 16 vCPU | 64 Go | 54 à 64 Go | 375 Go | |
g2-standard-24 |
2 GPU | 48 Go GDDR6 | 24 processeurs virtuels | 96 Go | 96 à 108 Go | 750 Go | |
g2-standard-32 |
1 GPU | 24 Go GDDR6 | 32 vCPU | 128 Go | 96 à 128 Go | 375 Go | |
g2-standard-48 |
4 GPU | 96 Go GDDR6 | 48 processeurs virtuels | 192 Go | 192 à 216 Go | 1 500 Go | |
g2-standard-96 |
8 GPU | 192 Go GDDR6 | 96 vCPU | 384 Go | 384 à 432 Go | 3 000 Go |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU vWS NVIDIA T4
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
Poste de travail virtuel NVIDIA T4 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 16 Go GDDR6 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui |
2 GPU | 32 Go GDDR6 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui | ||
4 GPU | 64 Go GDDR6 | 1 – 96 processeurs virtuels | 1 – 624 Go | Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU vWS NVIDIA P4
Pour les GPU P4, les disques SSD locaux ne sont compatibles qu'avec certaines régions. Consultez la section Disponibilité des disques SSD locaux par régions et zones GPU.
Modèle GPU | Type de machine | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
Poste de travail virtuel NVIDIA P4 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 8 Go GDDR5 | 1 – 16 processeurs virtuels | 1 – 156 Go | Oui |
2 GPU | 16 Go GDDR5 | 1 – 48 processeurs virtuels | 1 – 312 Go | Oui | ||
4 GPU | 32 Go GDDR5 | 1 – 96 processeurs virtuels | 1 – 624 Go | Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
GPU vWS NVIDIA P100
Modèle GPU | Machine type (Type de machine) | GPU | Mémoire GPU* | Processeurs virtuels disponibles | Mémoire disponible | Disque SSD local compatible |
---|---|---|---|---|---|---|
Poste de travail virtuel NVIDIA P100 | Série de machines N1, sauf N1 à cœur partagé | 1 GPU | 16 Go HBM2 | 1 – 16 processeurs virtuels | 1 – 104 Go | Oui |
2 GPU | 32 Go HBM2 | 1 – 32 processeurs virtuels | 1 – 208 Go | Oui | ||
4 GPU | 64 Go HBM2 | 1 – 64 processeurs virtuels 1 – 96 processeurs virtuels |
1 – 208 Go 1 – 624 Go |
Oui |
* La mémoire GPU est la mémoire disponible sur un appareil GPU pouvant être utilisée pour le stockage temporaire de données. Elle est distincte de la mémoire de la VM et est spécialement conçue pour gérer les demandes de bande passante plus élevées de vos charges de travail exigeantes en ressources graphiques.
Graphique de comparaison général
Le tableau suivant décrit la taille de la mémoire du GPU, la disponibilité des fonctionnalités, ainsi que les types de charges de travail idéaux des différents modèles de GPU disponibles sur Compute Engine.
Modèle GPU | Memory | Interconnexion | Compatibilité avec les postes de travail virtuels (vWS) NVIDIA RTX | Utilisation optimale |
---|---|---|---|---|
H100 80 Go | 80 Go HBM3 à 3,35 Tbit/s | NVLink Full Mesh à 900 Gbit/s | Modèles volumineux avec tables de données massives pour entraînement ou inférence ML, HPC, BERT et DLRM. | |
A100 80 Go | 80 Go HBM2e à 1,9 Tbit/s | NVLink Full Mesh à 600 Gbit/s | Modèles volumineux avec tables de données massives pour entraînement ou inférence ML, HPC, BERT et DLRM. | |
A100 40 Go | 40 Go HBM2 à 1,6 Tbit/s | NVLink Full Mesh à 600 Gbit/s | Entraînement et inférence ML, HPC | |
L4 | 24 Go GDDR6 à 300 Gbit/s | N/A | Inférence et entraînement ML, postes de travail à distance pour la visualisation, transcodage de vidéos, HPC | |
T4 | 16 Go GDDR6 à 320 Gbit/s | N/A | Inférence et entraînement ML, postes de travail à distance pour la visualisation, transcodage de vidéos | |
V100 | 16 Go HBM2 à 900 Gbit/s | NVLink Ring à 300 Gbit/s | Entraînement et inférence ML, HPC | |
P4 | 8 Go GDDR5 à 192 Gbit/s | N/A | Postes de travail à distance pour la visualisation, inférence ML et transcodage de vidéos | |
P100 | 16 Go HBM2 à 732 Gbit/s | N/A | Inférence et entraînement ML, HPC, postes de travail à distance pour la visualisation | |
Fin de vie K80 | 12 Go GDDR5 à 240 Gbit/s | N/A | Inférence et entraînement ML, HPC |
Pour comparer les tarifs des GPU selon les différents modèles de GPU et les différentes régions disponibles sur Compute Engine, consultez la section Tarifs des GPU.
Graphique de comparaison des performances
Le tableau suivant décrit les spécifications des performances des différents modèles de GPU disponibles sur Compute Engine.
Performances de calcul
Modèle GPU | FP64 | FP32 | FP16 | INT8 |
---|---|---|---|---|
H100 80 Go | 34 TFLOPS | 67 TFLOPS | ||
A100 80 Go | 9,7 TFLOPS | 19,5 TFLOPS | ||
A100 40 Go | 9,7 TFLOPS | 19,5 TFLOPS | ||
L4 | 0,5 TFLOPS* | 30,3 TFLOPS | ||
T4 | 0,25 TFLOPS* | 8,1 TFLOPS | ||
V100 | 7,8 TFLOPS | 15,7 TFLOPS | ||
P4 | 0,2 TFLOPS* | 5,5 TFLOPS | 22 TOPS† | |
P100 | 4,7 TFLOPS | 9,3 TFLOPS | 18,7 TFLOPS | |
Fin de vie K80 | 1,46 TFLOPS | 4,37 TFLOPS |
*Pour permettre au code FP64 de fonctionner correctement, un petit nombre d'unités matérielles FP64 sont incluses dans l'architecture des GPU T4, L4 et P4.
†Téra-opérations par seconde.
Performances des cœurs Tensor
Modèle GPU | FP64 | TF32 | Précision mixte FP16/FP32 | INT8 | INT4 | FP8 |
---|---|---|---|---|---|---|
H100 80 Go | 67 TFLOPS | 989 TFLOPS† | 1 979 TFLOPS*, † | 3 958 TOPS† | 3 958 TFLOPS† | |
A100 80 Go | 19,5 TFLOPS | 156 TFLOPS | 312 TFLOPS* | 624 TOPS | 1248 TOPS | |
A100 40 Go | 19,5 TFLOPS | 156 TFLOPS | 312 TFLOPS* | 624 TOPS | 1248 TOPS | |
L4 | 120 TFLOPS† | 242 TFLOPS*, † | 485 TOPS† | 485 TFLOPS† | ||
T4 | 65 TFLOPS | 130 TOPS | 260 TOPS | |||
V100 | 125 TFLOPS | |||||
P4 | ||||||
P100 | ||||||
Fin de vie K80 |
* Pour les entraînements de précision mixte, les GPU NVIDIA H100, A100 et L4 sont également compatibles avec le type de données bfloat16
.
† Pour les GPU H100 et L4, la parcimonie structurelle est compatible avec le doublement de la valeur de performances. Les valeurs affichées prennent en compte la parcimonie. Les spécifications sont inférieures de moitié sans parcimonie.
Étape suivante
- Pour en savoir plus sur les GPU sur Compute Engine, consultez la page À propos des GPU.
- Vérifiez la disponibilité des régions et des zones GPU.
- Consultez les tarifs des GPU.