À propos des GPU


Pour accélérer des charges de travail spécifiques sur Compute Engine, vous pouvez déployer une VM optimisée pour les accélérateurs à laquelle des GPU sont associés ou associer des GPU à une VM N1 à usage général.

Ce document décrit les fonctionnalités et les limites des GPU exécutés sur Compute Engine.

GPU et séries de machines

Les GPU sont compatibles avec les applications à usage général N1 et les séries de machines optimisées pour les accélérateurs (A3, A2 et G2). Pour les VM qui utilisent des types de machines N1, vous associez le GPU à la VM pendant ou après sa création. Pour les VM qui utilisent des types de machines A3, A2 ou G2, les GPU sont automatiquement associés lors de la création de la VM. Les GPU ne peuvent pas être utilisés avec d'autres séries de machines.

Série de machines optimisées pour les accélérateurs

Chaque type de machine optimisé pour les accélérateurs est associé à un modèle spécifique de GPU NVIDIA.

Pour en savoir plus, consultez la section Série de machines optimisée pour les accélérateurs.

Série de machines à usage général N1

Pour tous les autres types de GPU, vous pouvez utiliser la plupart des types de machines N1, à l'exception du type N1 à cœur partagé (f1-micro et g1-small).

Pour cette série de machines, vous pouvez utiliser des types de machines prédéfinis ou personnalisés.

GPU sur des VM Spot

Vous pouvez ajouter des GPU à vos VM Spot à des tarifs Spot pour les GPU. Les GPU associés à des VM Spot fonctionnent comme des GPU normaux dont la durée de vie n'excède pas celle de la VM. Les VM Spot avec des GPU suivent le même processus de préemption que toutes les VM Spot.

Envisagez de demander un quota Preemptible GPU dédié à utiliser pour les GPU sur les VM Spot. Pour en savoir plus, consultez la section Quotas pour les VM Spot.

Lors des événements de maintenance, les VM Spot avec GPU sont préemptées par défaut et ne peuvent pas être redémarrées automatiquement. Si vous souhaitez recréer vos VM après leur préemption, utilisez un groupe d'instances géré. Les groupes d'instances gérés recréent vos instances de VM si les ressources de processeur virtuel, de mémoire et de GPU sont disponibles.

Si vous souhaitez être averti avant que vos VM soient préemptées, ou si vous souhaitez configurer vos VM pour qu'elles redémarrent automatiquement après un événement de maintenance, utilisez des VM standards avec un GPU. Pour les VM standards comportant des GPU, Compute Engine envoie un avis préalable une heure avant la préemption.

L'utilisation de GPU sur Compute Engine ne vous est pas facturée si leurs VM sont préemptées dans la minute qui suit leur exécution.

Pour découvrir comment créer des VM Spot avec des GPU associés, consultez les sections Créer une VM avec des GPU associés et Créer des VM Spot.

GPU sur des VM avec des durées d'exécution prédéfinies

Les ressources des VM qui utilisent le modèle de provisionnement standard par défaut (VM standards) ne peuvent généralement pas utiliser les quotas d'allocation préemptive, qui sont destinés aux charges de travail temporaires et sont généralement plus disponibles. Si votre projet ne dispose pas de quota préemptif et que vous n'avez jamais demandé de quota préemptif, toutes les VM de ce projet consomment des quotas d'allocation standards.

Toutefois, une fois que vous avez demandé un quota d'allocation préemptive, les VM standards qui répondent à tous les critères suivants ne peuvent consommer que le quota d'allocation préemptive.

En consommant le quota d'allocation préemptive pour ces charges de travail, vous bénéficiez à la fois de la durée d'exécution ininterrompue des VM standards et d'une meilleure disponibilité grâce au quota d'allocation préemptive.

Quel que soit le quota utilisé, les VM standards ne sont pas éligibles aux tarifs des VM Spot et ne sont pas soumis à la préemption.

Pour en savoir plus, consultez la section Quotas préemptifs.

GPU et Confidential VM

Vous ne pouvez pas associer de GPU à des instances Confidential VM. Pour en savoir plus sur Confidential VM, consultez la page Présentation de Confidential VM.

GPU et stockage de blocs

Lorsque vous créez une VM sur une plate-forme GPU, vous pouvez ajouter un stockage de blocs persistant ou temporaire à la VM. Pour stocker des données non temporaires, utilisez un stockage de blocs persistant tel que Hyperdisk ML ou Persistent Disk, car les disques sont indépendants du cycle de vie de la VM. Les données du stockage persistant peuvent être conservées même après la suppression de la VM.

Pour le stockage temporaire ou les caches, utilisez le stockage de blocs temporaire en ajoutant des disques SSD locaux lorsque vous créez la VM.

Stockage de blocs persistant avec des volumes Persistent Disk et Hyperdisk

Vous pouvez associer des volumes Persistent Disk et Hyperdisk ML avec des VM compatibles avec le GPU.

Pour les charges de travail d'entraînement et de traitement du machine learning, Google recommande d'utiliser des volumes Hyperdisk ML, qui offrent un débit élevé et des temps de chargement de données plus courts. Hyperdisk ML est donc une option plus rentable pour les charges de travail de ML, car il offre des temps d'inactivité des GPU plus faibles.

Les volumes Hyperdisk ML sont compatibles avec la multi-association en lecture seule. Vous pouvez donc associer le même disque à plusieurs VM, ce qui permet à chaque VM d'accéder aux mêmes données.

Pour en savoir plus sur les types de disques compatibles avec les séries de machines compatibles avec les GPU, consultez les pages sur les séries de machines N1 et optimisées pour les accélérateurs.

Disques SSD locaux

Les disques SSD locaux fournissent un stockage temporaire rapide pour la mise en cache, le traitement des données ou d'autres données temporaires. Les disques SSD locaux sont un stockage rapide, car ils sont physiquement connectés au serveur qui héberge votre VM. Elles sont temporaires, car les données sont perdues si la VM redémarre.

Vous ne devez pas stocker de données avec des exigences de persistance strictes sur des disques SSD locaux. Pour stocker des données non temporaires, utilisez plutôt un stockage persistant.

Si vous arrêtez manuellement une VM avec un GPU, vous pouvez conserver les données du disque SSD local, sous certaines restrictions. Pour en savoir plus, consultez la documentation sur les SSD locaux.

Pour connaître la compatibilité régionale des disques SSD locaux avec les types de GPU, consultez la section Disponibilité des disques SSD locaux par régions et zones GPU.

GPU et maintenance de l'hôte

Les VM auxquelles sont associés des GPU sont toujours arrêtées lorsque Compute Engine effectue des événements de maintenance sur les VM. Si des disques SSD locaux sont associés à la VM, les données SSD locales sont perdues après l'arrêt de la VM.

Pour en savoir plus sur la gestion des événements de maintenance, consultez la section Gérer les événements de maintenance de l'hôte GPU.

Tarifs des GPU

La plupart des VM auxquelles sont associés un GPU bénéficient de remises automatiques proportionnelles à une utilisation soutenue semblables à celles appliquées aux processeurs virtuels. Lorsque vous sélectionnez un GPU pour un poste de travail virtuel, une licence de poste de travail virtuel NVIDIA RTX est ajoutée à votre VM.

Pour connaître les tarifs horaires et mensuels des GPU, consultez la page Tarifs des GPU.

Réserver des GPU avec des remises sur engagement d'utilisation

Pour réserver des ressources GPU dans une zone spécifique, consultez la section Réservations de ressources zonales Compute Engine.

Pour bénéficier de remises sur engagement d'utilisation pour les GPU dans une zone spécifique, vous devez souscrire des engagements basés sur les ressources pour ces GPU, et associer également des réservations spécifiant des GPU correspondants à vos engagements. Pour en savoir plus, consultez la section Associer des réservations à des engagements basés sur les ressources.

Restrictions et limitations des GPU

Pour les VM auxquelles sont associés des GPU, les restrictions et limites suivantes s'appliquent :

  • Les GPU ne sont compatibles qu'avec les types de machines N1 ou optimisés pour les accélérateurs, A3, A2 et G2.

  • Pour protéger les systèmes et les utilisateurs de Compute Engine, les nouveaux projets bénéficient d'un quota global de GPU, ce qui limite le nombre total de GPU que vous pouvez créer dans les zones disponibles. Lorsque vous demandez un quota de GPU, vous devez inclure les modèles de GPU que vous souhaitez créer dans chaque région, mais également demander un quota global supplémentaire pour le nombre total de GPU de tous types, dans toutes les zones.

  • Les VM comprenant un ou plusieurs GPU possèdent un nombre maximal de processeurs virtuels pour chaque GPU que vous ajoutez à la VM. Pour afficher les processeurs virtuels et plages de mémoire disponibles pour différentes configurations de GPU, consultez la liste des GPU.

  • Les GPU nécessitent des pilotes d'appareil pour fonctionner correctement. Les GPU NVIDIA exécutés sur Compute Engine doivent utiliser une version minimale du pilote. Pour en savoir plus sur les versions de pilote, consultez la page sur les versions de pilote NVIDIA requises.

  • Les VM auxquelles est associé un modèle de GPU spécifique ne sont couvertes par le contrat de niveau de service de Compute Engine que si ce modèle GPU associé est accessible à tous et compatible avec plusieurs zones de la même région. Le contrat de niveau de service de Compute Engine ne couvre pas les modèles de GPU dans les zones suivantes:

    • NVIDIA H100 80 Go :
      • asia-south1-c
      • australia-southeast1-c
      • europe-west2-b
      • europe-west1-b
      • europe-west2-b
      • europe-west3-a
      • europe-west4-b
      • europe-west8-c
      • europe-west9-c
      • europe-west12-b
      • us-east5-a
      • us-west4-a
    • NVIDIA L4
      • asia-northeast1-b
      • northamerica-northeast2-a
    • NVIDIA A100 80 Go :
      • asia-southeast1-c
      • us-east4-c
      • us-east5-b
    • NVIDIA A100 40 Go :
      • us-east1-b
      • us-west1-b
      • us-west3-b
      • us-west4-b
    • NVIDIA T4 :
      • europe-west3-b
      • southamerica-east1-c
      • us-west3-b
    • NVIDIA V100 :
      • asia-east1-c
      • us-east1-c
    • NVIDIA P100 :
      • australia-southeast1-c
      • europe-west4-a
  • Compute Engine accepte un utilisateur simultané par GPU.

Étape suivante