GPU sur Compute Engine

Google Compute Engine fournit des GPU (processeurs graphiques), que vous pouvez ajouter à vos instances de machine virtuelle. Vous pouvez utiliser ces GPU pour accélérer des charges de travail spécifiques sur vos instances, telles que le machine learning et le traitement des données.

Si vous avez des charges de travail graphiques lourdes, telles que la visualisation 3D, le rendu 3D ou les applications virtuelles, vous pouvez créer des postes de travail virtuels à l'aide de la technologie NVIDIA® GRID®. Pour plus d'informations sur les GPU pour les applications graphiques lourdes, consultez la section GPU pour les charges de travail graphiques.

Pour apprendre à ajouter des GPU à vos instances, consultez la section Ajouter des GPU aux instances.

Présentation

Compute Engine fournit des GPU NVIDIA® Tesla® pour vos instances en mode passthrough, pour permettre à vos instances de machine virtuelle de contrôler directement les GPU et leur mémoire associée.

Voici l'état des versions des modèles GPU disponibles pour les tâches de calcul :

  • NVIDIA® Tesla® T4 : nvidia-tesla-t4 : disponibilité générale

  • NVIDIA® Tesla® V100 : nvidia-tesla-v100 : disponibilité générale

  • NVIDIA® Tesla® P100 : nvidia-tesla-p100 : disponibilité générale

  • NVIDIA® Tesla® P4 : nvidia-tesla-p4 : disponibilité générale

  • NVIDIA® Tesla® K80 : nvidia-tesla-k80 : disponibilité générale

Voici l'état des versions des modèles GPU disponibles pour les tâches de calcul :

  • Postes de travail virtuels NVIDIA® Tesla® T4 : nvidia-tesla-t4-vws : disponibilité générale
  • Postes de travail virtuels NVIDIA® Tesla® P100 : nvidia-tesla-p100-vws : disponibilité générale
  • Postes de travail virtuels NVIDIA® Tesla® P4 : nvidia-tesla-p4-vws : disponibilité générale

Pour en savoir plus sur les GPU pour postes de travail virtuels, consultez la section GPU pour les charges de travail graphiques.

Vous ne pouvez associer des GPU qu'à des instances dont le type de machine est prédéfini ou personnalisé. Les GPU ne sont pas compatibles avec les types de machines à cœur partagé ou à mémoire optimisée.

Les instances disposant de peu de GPU sont limitées à un nombre maximal de processeurs virtuels. En règle générale, un nombre plus élevé de GPU permet de créer des instances dotées d'une plus grande quantité de processeurs virtuels et de mémoire.

GPU pour les tâches de calcul

Modèle GPU GPU Mémoire de GPU Processeurs virtuels disponibles Mémoire disponible Zones disponibles
NVIDIA® Tesla® T4 1 GPU 16 Go GDDR6 1 - 24 processeurs virtuels 1 - 156 Go
  • asia-northeast1-a
  • asia-south1-b
  • asia-southeast1-b
  • europe-west4-b
  • europe-west4-c
  • southamerica-east1-c
  • us-central1-a
  • us-central1-b
  • us-east1-c
  • us-east1-d
  • us-west1-a
  • us-west1-b
2 GPU 32 Go GDDR6 1 - 48 processeurs virtuels 1 - 312 Go
4 GPU 64 Go GDDR6 1 - 96 processeurs virtuels 1 - 624 Go
NVIDIA® Tesla® P4 1 GPU 8 Go GDDR5 1 - 24 processeurs virtuels 1 - 156 Go
  • us-west2-c
  • us-west2-b
  • us-central1-a
  • us-central1-c
  • us-east4-a
  • us-east4-b
  • us-east4-c
  • northamerica-northeast1-a
  • northamerica-northeast1-b
  • northamerica-northeast1-c
  • europe-west4-b
  • europe-west4-c
  • australia-southeast1-a
  • australia-southeast1-b
  • asia-southeast1-b
  • asia-southeast1-c
2 GPU 16 Go GDDR5 1 - 48 processeurs virtuels 1 - 312 Go
4 GPU 32 Go GDDR5 1 - 96 processeurs virtuels 1 - 624 Go
NVIDIA® Tesla® V100 1 GPU 16 Go HBM2 1 - 12 processeurs virtuels 1 - 78 Go
  • us-west1-a
  • us-west1-b
  • us-central1-a
  • us-central1-b
  • us-central1-c
  • us-central1-f
  • europe-west4-a
  • europe-west4-b
  • europe-west4-c
  • asia-east1-c
2 GPU 32 Go HBM2 1 - 24 processeurs virtuels 1 - 156 Go
4 GPU 64 Go HBM2 1 - 48 processeurs virtuels 1 - 312 Go
8 GPU 128 Go HBM2 1 - 96 processeurs virtuels 1 - 624 Go
NVIDIA® Tesla® P100 1 GPU 16 Go HBM2 1 - 16 processeurs virtuels 1 - 104 Go
  • us-west1-a
  • us-west1-b
  • us-central1-c
  • us-central1-f
  • us-east1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • europe-west4-a
  • asia-east1-a
  • asia-east1-c
  • australia-southeast1-c
2 GPU 32 Go HBM2 1 - 32 processeurs virtuels 1 - 208 Go
4 GPU 64 Go HBM2

1 - 64 processeurs virtuels
(us-east1-c, europe-west1-d, europe-west1-b)

1 - 96 processeurs virtuels
(toutes les autres zones)

1 - 208 Go
(us-east1-c, europe-west1-d, europe-west1-b)

1 - 624 Go
(toutes les autres zones)

NVIDIA® Tesla® K80 1 GPU 12 Go GDDR5 1 - 8 processeurs virtuels 1 - 52 Go
  • us-west1-b
  • us-central1-a
  • us-central1-c
  • us-east1-c
  • us-east1-d
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-b
2 GPU 24 Go GDDR5 1 - 16 processeurs virtuels 1 - 104 Go
4 GPU 48 Go de GDDR5 1 - 32 processeurs virtuels 1 - 208 Go
8 GPU 96 Go GDDR5 1 - 64 processeurs virtuels

1 - 416 Go
(asia-east1-a et us-east1-d)

1 - 208 Go
(toutes les autres zones)

Remarques :
  • Pour obtenir une description plus détaillée des zones, consultez la page Régions et zones.
  • Les cartes NVIDIA® K80® contiennent chacune deux GPU. Le prix des GPU K80 est calculé par GPU et non par carte.

Les appareils GPU bénéficient de remises automatiques proportionnelles à une utilisation soutenue similaires à celles des processeurs virtuels. Consultez la page des tarifs GPU pour en savoir plus sur la tarification horaire et mensuelle des appareils GPU.

Pour les charges de travail multi-GPU, les GPU V100 sont proposés avec des connexions rapides NVLink™ pour la communication entre les GPU.

Pour afficher des informations sur la manière dont vos GPU se connectent les uns aux autres, ainsi qu'à vos processeurs, exécutez la commande suivante sur votre instance :

nvidia-smi topo -m

Pour en savoir plus sur NVLink et ses avantages, consultez le blog des développeurs NVIDIA.

GPU NVIDIA® GRID® pour les charges de travail graphiques

Si vous avez des charges de travail graphique lourdes, telles que la visualisation 3D, vous pouvez créer des postes de travail virtuels qui utilisent la plate-forme NVIDIA GRID®.

Pour en savoir plus, consultez la présentation de la plate-forme GRID.

Lorsque vous sélectionnez un GPU pour un poste de travail virtuel, une licence NVIDIA GRID est ajoutée à votre instance. Pour que les GPU puissent fonctionner sur vos postes de travail virtuels, vous devez installer un pilote de GPU.

Après avoir créé votre poste de travail virtuel, vous pouvez vous y connecter à l'aide d'un protocole de bureau à distance, tel que Teradici® PCoIP ou VMWare® Horizon View.

Modèle GPU GPU Mémoire de GPU Processeurs virtuels disponibles Mémoire disponible Zones disponibles
Poste de travail virtuel NVIDIA® Tesla® T4 1 GPU 16 Go GDDR6 1 - 24 processeurs virtuels 1 - 156 Go
  • asia-northeast1-a
  • asia-south1-b
  • asia-southeast1-b
  • europe-west4-b
  • europe-west4-c
  • southamerica-east1-c
  • us-central1-a
  • us-central1-b
  • us-east1-c
  • us-east1-d (à venir)
  • us-west1-a
  • us-west1-b
2 GPU 32 Go GDDR6 1 - 48 processeurs virtuels 1 - 312 Go
4 GPU 64 Go GDDR6 1 - 96 processeurs virtuels 1 - 624 Go
NVIDIA® Tesla® P4 Virtual Workstation 1 GPU 8 Go GDDR5 1 - 16 processeurs virtuels 1 - 192 Go
  • us-west2-c
  • us-west2-b
  • us-central1-a
  • us-central1-c
  • us-east4-a
  • us-east4-b
  • us-east4-c
  • northamerica-northeast1-a
  • northamerica-northeast1-b
  • northamerica-northeast1-c
  • europe-west4-b
  • europe-west4-c
  • australia-southeast1-a
  • australia-southeast1-b
  • asia-southeast1-b
  • asia-southeast1-c
2 GPU 16 Go GDDR5 1 - 48 processeurs virtuels 1 - 312 Go
4 GPU 32 Go GDDR5 1 - 96 processeurs virtuels 1 - 624 Go
NVIDIA® Tesla® P100 Virtual Workstation 1 GPU 16 Go HBM2 1 - 16 processeurs virtuels 1 - 104 Go
  • us-west1-b
  • us-central1-c
  • us-central1-f
  • us-east1-b
  • us-east1-c
  • europe-west1-b
  • europe-west1-d
  • asia-east1-a
  • asia-east1-c
  • europe-west4-a
  • australia-southeast1-c
2 GPU 32 Go HBM2 1 - 32 processeurs virtuels 1 - 208 Go
4 GPU 64 Go HBM2

1 - 64 processeurs virtuels
(us-east1-c, europe-west1-d, europe-west1-b)

1 - 96 processeurs virtuels
(toutes les autres zones)

1 - 208 Go
(us-east1-c, europe-west1-d, europe-west1-b)

1 - 624 Go
(toutes les autres zones)

GPU sur des instances préemptives

Vous pouvez ajouter des GPU à vos instances de VM préemptives en bénéficiant des prix réduits des ressources préemptives. Les GPU associés à des instances préemptives fonctionnent comme des GPU normaux dont la durée de vie n'excède pas celle de l'instance. Les instances préemptives dotées de GPU suivent le même processus de préemption que toutes les instances préemptives.

Lorsque vous ajoutez un GPU à une instance préemptive, vous utilisez votre quota de GPU habituel. Si vous avez besoin d'un quota distinct pour les GPU préemptifs, demandez un quota de GPU préemptifs distinct.

Lors des événements de maintenance, les instances préemptives avec GPU sont préemptées par défaut et ne peuvent pas être redémarrées automatiquement. Si vous souhaitez recréer vos instances après leur préemption, utilisez un groupe d'instances géré. Les groupes d'instances gérés recréent vos instances si les ressources de processeur virtuel, de mémoire et de GPU sont disponibles.

Si vous souhaitez être averti avant que votre instance soit préemptée, ou encore configurer votre instance pour qu'elle redémarre automatiquement après un événement de maintenance, utilisez une instance non préemptive avec un GPU. Pour les instances non préemptives avec GPU, il est prévu qu'un avis soit envoyé une heure avant la préemption.

L'utilisation de GPU sur Compute Engine ne vous est pas facturée si leurs instances sont préemptées dans la minute qui suit leur exécution.

Pour connaître les étapes permettant de faire en sorte qu'une instance non préemptive redémarre automatiquement, consultez la section Mettre les options d'une instance à jour.

Pour apprendre à créer des instances préemptives avec des GPU associés, consultez la section Créer une instance avec un GPU.

Réserver des GPU avec des remises sur engagement d'utilisation

Pour réserver des ressources GPU locales dans une zone spécifique, reportez-vous à la section Réserver des ressources zonales. Les réservations sont obligatoires pour obtenir des remises sur engagement d'utilisation pour les GPU.

Tableau de comparaison des GPU

Consultez cette section pour en savoir plus sur des facteurs tels que les spécifications de performances, la disponibilité des fonctionnalités, ainsi que les types de charges de travail les mieux adaptés aux différents types de GPU disponibles sur Compute Engine.

La quantité maximale de processeurs et de mémoire disponibles pour tout type de GPU dépend de la zone dans laquelle la ressource GPU est en cours d'exécution. Pour en savoir plus sur la mémoire, les ressources de processeurs, ainsi que les régions et zones disponibles, consultez la liste des GPU.

Les disques SSD locaux sont compatibles avec les GPU s'exécutant dans toutes les régions et zones disponibles, à l'exception des GPU P4. Ces derniers n'acceptent les disques SSD locaux que dans les zones us-central1-c et us-central1-f.

Métrique T4 P4 V100 P100 K80
Cœurs Tensor 320 ND 640 ND ND
Cœurs CUDA 2 560 2 560 5 120 3 840 2 496
Performances maximales dans TeraFLOPS (TFLOPS) Double précision (FP64) 0,25 TFLOPS1 0,2 TFLOPS1 7,8 TFLOPS 4,7 TFLOPS 1,46 TFLOPS
Simple précision (FP32) 8,1 TFLOPS 5,5 TFLOPS 15,7 TFLOPS 9,3 TFLOPS 4,37 TFLOPS
Demi-précision (FP16) 65 TFLOPS2 ND 125 TFLOPS2 18,7 TFLOPS ND
INT8 130 TOPS3 22 TOPS3 63 TOPS3 ND ND
Interconnexion NVLink/PCIe PCIe génération 3x16 PCIe génération 3x16 NVLink ; 300 Go/s, PCIe génération 3x16 PCIe génération 3x16 PCIe génération 3x16
Mémoire avec bande passante 16 Go GDDR6@ 320 Go/s 8 Go GDDR5@ 192 Go/s 16 Go HBM2@ 900 Go/s 16 Go HBM2@ 732 Go/s 12 Go GDDR5@ 240 Go/s
Prise en charge des postes de travail à distance GRID O O N O N
Utilisation optimale Inférence et entraînement ML, postes de travail à distance pour la visualisation, transcodage de vidéos Postes de travail à distance pour la visualisation, inférence ML et transcodage de vidéos Entraînement et inférence ML, HPC Inférence et entraînement ML, HPC, postes de travail à distance pour la visualisation Inférence et entraînement ML, HPC
Tarifs Pour comparer les tarifs des GPU selon les différents types de GPU et les différentes régions disponibles sur Compute Engine, consultez la section Tarifs des GPU.

1 Pour permettre au code FP64 de fonctionner correctement, un petit nombre d'unités matérielles FP64 sont incluses dans l'architecture GPU T4 et P4.

2 Cette performance est obtenue à l'aide des cœurs Tensor.

3 Téra-opérations par seconde

Restrictions

Les instances avec des GPU sont soumises à des restrictions spécifiques, qui leur confèrent un comportement différent des autres types d'instance.

  • Si vous voulez utiliser des GPU Tesla K80 avec vos instances, celles-ci ne pourront pas utiliser les plates-formes de processeurs Intel Skylake ou versions ultérieures.

  • Actuellement, les GPU ne sont compatibles qu'avec les types de machines N1 à usage général.

  • Les instances avec GPU doivent être interrompues pour les événements de maintenance de l'hôte, mais peuvent redémarrer automatiquement. Ces événements se produisent généralement une fois par mois, mais peuvent être plus fréquents si nécessaire. Vous devez configurer vos charges de travail de sorte qu'elles gèrent correctement ces événements de maintenance. Plus particulièrement, les charges de travail de longue durée, telles que le machine learning et le calcul hautes performances, doivent être en mesure de gérer les interruptions liées aux événements de maintenance de l'hôte. Découvrez comment gérer les événements de maintenance de l'hôte sur des instances avec des GPU.

  • Pour protéger les systèmes et les utilisateurs de Compute Engine, les nouveaux projets bénéficient d'un quota global de GPU, ce qui limite le nombre total de GPU que vous pouvez créer dans les zones disponibles. Lorsque vous demandez un quota de GPU, vous devez inclure les modèles de GPU que vous souhaitez créer dans chaque région, mais également demander un quota global supplémentaire pour le nombre total de GPU de tous types, dans toutes les zones.

  • Les instances avec un ou plusieurs GPU possèdent un nombre maximal de processeurs virtuels pour chaque GPU que vous ajoutez à l'instance. Par exemple, chaque GPU NVIDIA® Tesla® K80 vous permet de bénéficier d'un maximum de huit processeurs virtuels et de 52 Go de mémoire système dans le type de machine de votre instance. Pour afficher les processeurs virtuels et plages de mémoire disponibles pour différentes configurations de GPU, consultez la liste des GPU.

  • Vous ne pouvez pas associer de GPU à des instances avec des types de machines à cœur partagé.

  • Les GPU nécessitent des pilotes d'appareil pour fonctionner correctement. Les GPU NVIDIA exécutés sur Google Compute Engine doivent utiliser les versions de pilotes suivantes :

    • Instances Linux :

      • Pilote NVIDIA 410.79 ou supérieur
    • Instances Windows Server :

      • Pilote NVIDIA 411.98 ou supérieur
  • Les instances avec un modèle GPU associé spécifique ne sont couvertes par le contrat de niveau de service de Google Compute Engine que si ce modèle GPU associé est disponible dans plusieurs zones de la même région que celle où se trouve l'instance. Le contrat de niveau de service de Google Compute Engine ne couvre pas les modèles GPU spécifiques dans les zones suivantes :

    • NVIDIA® Tesla® T4 :
      • asia-northeast1-a
      • asia-south1-b
      • asia-southeast1-b
      • southamerica-east1-c
    • NVIDIA® Tesla® V100 :
      • asia-east1-c
    • NVIDIA® Tesla® P100 :
      • us-west1-b
      • europe-west4-a
    • NVIDIA® Tesla® K80 :
      • us-west1-b
      • us-central1-c
  • Les instances avec des GPU NVIDIA® Tesla® P100 dans la zone europe-west1-d ne peuvent pas utiliser de disques SSD locaux.

  • Compute Engine est compatible avec l'exécution simultanée d'un utilisateur par GPU.

Et ensuite ?

Cette page vous a-t-elle été utile ? Évaluez-la :

Envoyer des commentaires concernant…

Documentation Compute Engine