À propos des GPU


Vous pouvez associer des processeurs graphiques (GPU) à votre instance de machine virtuelle (VM) pour accélérer des charges de travail spécifiques sur Compute Engine.

Ce document décrit les fonctionnalités et les limites des GPU exécutés sur Compute Engine.

GPU et séries de machines

Les GPU sont compatibles avec les applications à usage général N1 et les séries de machines optimisées pour les accélérateurs (A3, A2 et G2). Pour les VM qui utilisent des types de machines N1, vous associez le GPU à la VM pendant ou après sa création. Pour les VM qui utilisent des types de machines A3, A2 ou G2, les GPU sont automatiquement associés lors de la création de la VM. Les GPU ne peuvent pas être utilisés avec d'autres séries de machines.

Série de machines optimisées pour les accélérateurs

Chaque type de machine optimisé pour les accélérateurs est associé à un modèle spécifique de GPU NVIDIA.

  • Pour les types de machines optimisés pour l'accélérateur A3, les GPU NVIDIA H100 80 Go sont associés.
  • Pour les types de machines optimisés pour l'accélérateur A2, les GPU NVIDIA A100 sont associés. Elles sont disponibles dans les options A100 40 Go et A100 80 Go.
  • Pour les types de machines optimisés pour l'accélérateur G2, les GPU NVIDIA L4 sont associés.

Pour en savoir plus, consultez la section Série de machines optimisée pour les accélérateurs.

Série de machines à usage général N1

Pour tous les autres types de GPU, vous pouvez utiliser la plupart des types de machines N1, à l'exception du type N1 à cœur partagé.

Pour cette série de machines, vous pouvez utiliser des types de machines prédéfinis ou personnalisés.

GPU sur des instances de VM préemptives

Vous pouvez ajouter des GPU à vos instances de VM préemptives en bénéficiant des prix Spot pour les GPU. Les GPU associés à des instances préemptives fonctionnent comme des GPU normaux dont la durée de vie n'excède pas celle de l'instance. Les instances préemptives dotées de GPU suivent le même processus de préemption que toutes les instances préemptives.

Envisagez de demander un quota Preemptible GPU dédié à utiliser pour les GPU sur les instances préemptives. Pour plus d'informations, consultez la section Quotas pour les instances de VM préemptives.

Lors des événements de maintenance, les instances préemptives avec GPU sont préemptées par défaut et ne peuvent pas être redémarrées automatiquement. Si vous souhaitez recréer vos instances après leur préemption, utilisez un groupe d'instances géré. Les groupes d'instances gérés recréent vos instances si les ressources de processeur virtuel, de mémoire et de GPU sont disponibles.

Si vous souhaitez être averti avant que votre instance soit préemptée, ou encore configurer votre instance pour qu'elle redémarre automatiquement après un événement de maintenance, utilisez une instance standard avec un GPU. Pour les instances standards avec GPU, Google envoie un avis préalable une heure avant la préemption.

L'utilisation de GPU sur Compute Engine ne vous est pas facturée si leurs instances sont préemptées dans la minute qui suit leur exécution.

Pour connaître les étapes permettant de faire en sorte qu'une instance standard redémarre automatiquement, consultez la section Mettre à jour les options d'une instance.

Pour apprendre à créer des instances préemptives avec des GPU associés, consultez la section Créer une VM avec des GPU associés.

GPU et Confidential VM

Vous ne pouvez pas associer de GPU à des instances Confidential VM. Pour en savoir plus sur Confidential VM, consultez la page Présentation de Confidential VM.

GPU et stockage de blocs

Lorsque vous créez une VM sur une plate-forme GPU, vous pouvez ajouter un stockage de blocs durable en associant un disque persistant à la VM. Vous pouvez également ajouter un stockage de blocs temporaire en associant des disques SSD locaux lors de la création de la VM.

Les VM auxquelles sont associés des GPU ne sont pas compatibles avec Google Cloud Hyperdisk.

Disques persistants

Vous pouvez ajouter des volumes Persistent Disk aux VM auxquelles sont associés des GPU. Les données stockées sur un volume Persistent Disk sont indépendantes du cycle de vie de la VM. Elles sont donc adaptées au stockage de données non temporaires.

Pour en savoir plus sur les types de disques Persistent Disk disponibles pour les séries de machines compatibles avec les GPU, consultez les pages N1 et Séries de machines optimisées pour les accélérateurs.

Disques SSD locaux

Les disques SSD locaux fournissent un espace de stockage temporaire rapide pour la mise en cache, le traitement de données ou d'autres données temporaires. Les disques SSD locaux offrent un stockage rapide, car ils sont rattachés physiquement au serveur qui héberge votre VM. Ils sont temporaires, car les données peuvent être perdues si la VM redémarre.

Vous ne devez pas stocker de données ayant des exigences fortes de persistance sur des disques SSD locaux. Pour stocker des données non temporaires, utilisez plutôt l'une des options de stockage durables disponibles.

Si vous arrêtez manuellement une VM à l'aide d'un GPU, vous pouvez conserver les données des disques SSD locaux, avec certaines restrictions. Pour en savoir plus, consultez la documentation sur les SSD locaux.

Pour connaître la compatibilité régionale des disques SSD locaux avec des types de GPU, consultez la section Disponibilité des disques SSD locaux par régions et zones GPU.

GPU et maintenance de l'hôte

Les VM auxquelles sont associés des GPU sont toujours arrêtées lorsque Compute Engine effectue des événements de maintenance sur ces VM. Si la VM est associée à des disques SSD locaux, les données de ces disques sont perdues après l'arrêt de la VM.

Pour en savoir plus sur la gestion des événements de maintenance, consultez la section Gérer les événements de maintenance de l'hôte GPU.

Tarifs des GPU

La plupart des VM auxquelles sont associés un GPU bénéficient de remises automatiques proportionnelles à une utilisation soutenue semblables à celles appliquées aux processeurs virtuels. Lorsque vous sélectionnez un GPU pour un poste de travail virtuel, une licence de poste de travail virtuel NVIDIA RTX est ajoutée à votre VM.

Pour connaître les tarifs horaires et mensuels des GPU, consultez la page Tarifs des GPU.

Réserver des GPU avec des remises sur engagement d'utilisation

Pour réserver des ressources GPU locales dans une zone spécifique, consultez la section Réservations de ressources zonales Compute Engine.

Pour bénéficier de remises sur engagement d'utilisation pour les GPU dans une zone spécifique, vous devez souscrire des engagements basés sur les ressources pour les GPU et associer des réservations qui spécifient les GPU correspondants à vos engagements. Pour en savoir plus, consultez la section Associer des réservations à des engagements basés sur les ressources.

Restrictions et limitations des GPU

Pour les VM auxquelles sont associés des GPU, les restrictions et limites suivantes s'appliquent :

  • Les GPU ne sont compatibles qu'avec les types de machines N1 ou optimisés pour les accélérateurs, A3, A2 et G2.

  • Pour protéger les systèmes et les utilisateurs de Compute Engine, les nouveaux projets bénéficient d'un quota global de GPU, ce qui limite le nombre total de GPU que vous pouvez créer dans les zones disponibles. Lorsque vous demandez un quota de GPU, vous devez inclure les modèles de GPU que vous souhaitez créer dans chaque région, mais également demander un quota global supplémentaire pour le nombre total de GPU de tous types, dans toutes les zones.

  • Les VM comprenant un ou plusieurs GPU possèdent un nombre maximal de processeurs virtuels pour chaque GPU que vous ajoutez à la VM. Pour afficher les processeurs virtuels et plages de mémoire disponibles pour différentes configurations de GPU, consultez la liste des GPU.

  • Les GPU nécessitent des pilotes d'appareil pour fonctionner correctement. Les GPU NVIDIA exécutés sur Compute Engine doivent utiliser une version minimale du pilote. Pour en savoir plus sur les versions de pilote, consultez la page sur les versions de pilote NVIDIA requises.

  • Les VM auxquelles est associé un modèle de GPU spécifique ne sont couvertes par le contrat de niveau de service de Compute Engine que si ce modèle GPU associé est accessible à tous et compatible avec plusieurs zones de la même région. Le contrat de niveau de service de Compute Engine ne couvre pas les modèles de GPU dans les zones suivantes :

    • NVIDIA H100 80 Go :
      • asia-northeast1-b
      • europe-west1-b
      • us-east5-a
      • us-west4-a
    • NVIDIA L4
      • europe-west3-b
      • europe-west6-b
    • NVIDIA A100 80 Go :
      • asia-southeast1-c
      • us-east4-c
      • us-east5-b
    • NVIDIA A100 40 Go :
      • us-east1-b
      • us-west1-b
      • us-west3-b
      • us-west4-b
    • NVIDIA T4 :
      • europe-west3-b
      • southamerica-east1-c
      • us-west3-b
    • NVIDIA V100 :
      • asia-east1-c
      • us-east1-c
    • NVIDIA P100 :
      • australia-southeast1-c
      • europe-west4-a
  • Compute Engine accepte un utilisateur simultané par GPU.

Étape suivante