Présentation de la création d'une instance avec des GPU associés

Ce document présente les étapes requises pour créer une instance Compute Engine à laquelle sont associés des processeurs graphiques (GPU). Vous pouvez utiliser des GPU pour accélérer des charges de travail spécifiques, telles que le machine learning et le traitement des données.

Vous pouvez également utiliser certains types de machines GPU sur AI Hypercomputer. AI Hypercomputer est un système de supercalcul optimisé pour prendre en charge vos charges de travail d'intelligence artificielle (IA) et de machine learning (ML). Cette option est recommandée pour créer une infrastructure à allocation dense et optimisée pour les performances, qui intègre les planificateurs Google Kubernetes Engine (GKE) et Slurm.

Pour en savoir plus sur les GPU sur Compute Engine, consultez la page À propos des GPU.

Sélectionner le modèle de GPU

Pour obtenir la liste des modèles de GPU disponibles, consultez la page Plates-formes GPU. Notez également le type de machine compatible avec le modèle de GPU sélectionné.

Il peut également être utile de passer en revue les éléments suivants pour chaque modèle :

Limites

Outre les restrictions applicables à toutes les instances avec GPU, chaque série de machines avec GPU associés présente les limites suivantes :

Instances A4X

Instances A4

Instances A3 Ultra

Instances A3 Mega

Instances A3 High

Instances A3 Edge

Instances A2 standard

  • Vous ne pouvez demander de la capacité qu'en utilisant les options de consommation compatibles pour un type de machine A2 Standard.
  • Vous ne bénéficiez pas de remises automatiques proportionnelles à une utilisation soutenue ni de remises sur engagement d'utilisation flexibles pour les instances qui utilisent un type de machine A2 Standard.
  • Vous ne pouvez utiliser un type de machine A2 Standard que dans certaines régions et zones.
  • Les types de machines A2 Standard ne sont disponibles que sur la plate-forme Cascade Lake.
  • Si votre instance utilise un type de machine A2 Standard, vous ne pouvez passer d'un type de machine A2 Standard qu'à un autre type de machine A2 Standard. Vous ne pouvez pas passer à un autre type de machine. Pour en savoir plus, consultez Modifier des instances optimisées pour les accélérateurs.
  • Vous ne pouvez pas utiliser le système d'exploitation Windows avec le type de machine a2-megagpu-16g. Lorsque vous utilisez un système d'exploitation Windows, choisissez un autre type de machine A2 standard.
  • Vous ne pouvez pas effectuer un formatage rapide des disques SSD locaux associés à des instances Windows qui utilisent des types de machines A2 Standard. Pour formater ces disques SSD locaux, vous devez effectuer un formatage complet en utilisant l'utilitaire diskpart et en spécifiant format fs=ntfs label=tmpfs.
  • Les types de machines A2 Standard ne sont pas compatibles avec la location unique.

Instances A2 Ultra

  • Vous ne pouvez demander de la capacité qu'en utilisant les options de consommation compatibles pour un type de machine A2 Ultra.
  • Vous ne bénéficiez pas de remises automatiques proportionnelles à une utilisation soutenue ni de remises sur engagement d'utilisation flexibles pour les instances qui utilisent un type de machine A2 Ultra.
  • Vous ne pouvez utiliser un type de machine A2 Ultra que dans certaines régions et zones.
  • Les types de machines A2 Ultra ne sont disponibles que sur la plate-forme Cascade Lake.
  • Si votre instance utilise un type de machine A2 Ultra, vous ne pouvez pas le modifier. Si vous devez utiliser un autre type de machine A2 Ultra ou toute autre famille de machines, vous devez créer une instance.
  • Vous ne pouvez pas remplacer un autre type de machine par un type de machine A2 Ultra. Si vous avez besoin d'une instance utilisant un type de machine A2 Ultra, vous devez en créer une.
  • Vous ne pouvez pas effectuer un formatage rapide des disques SSD locaux associés à des instances Windows qui utilisent des types de machines A2 Ultra. Pour formater ces disques SSD locaux, vous devez effectuer un formatage complet en utilisant l'utilitaire diskpart et en spécifiant format fs=ntfs label=tmpfs.

Instances G4

Instances G2

  • Vous ne pouvez demander de la capacité qu'en utilisant les options de consommation compatibles pour un type de machine G2.
  • Vous ne bénéficiez pas de remises automatiques proportionnelles à une utilisation soutenue ni de remises sur engagement d'utilisation flexibles pour les instances qui utilisent un type de machine G2.
  • Vous ne pouvez utiliser un type de machine G2 que dans certaines régions et zones.
  • Le type de machine G2 n'est disponible que sur la plate-forme Cascade Lake.
  • Les disques persistants standards (pd-standard) ne sont pas compatibles avec les instances qui utilisent le type de machine G2. Pour connaître les types de disques compatibles, consultez la section Types de disques compatibles pour G2.
  • Vous ne pouvez pas créer de GPU multi-instances sur une instance qui utilise un type de machine G2.
  • Si vous devez modifier le type de machine d'une instance G2, consultez la page Modifier des instances optimisées pour les accélérateurs.
  • Vous ne pouvez pas utiliser de Deep Learning VM Image en tant que disque de démarrage pour les instances utilisant le type de machine G2.
  • Le pilote par défaut actuel de Container-Optimized OS n'est pas compatible avec les GPU L4 s'exécutant sur des types de machines G2. De plus, Container-Optimized OS n'accepte qu'un ensemble sélectionné de pilotes. Si vous souhaitez utiliser Container-Optimized OS sur des types de machines G2, consultez les notes suivantes :
    • Utilisez une version de Container-Optimized OS compatible avec le pilote NVIDIA version 525.60.13 recommandée (minimum) ou ultérieure. Pour en savoir plus, consultez les Notes de version de Container-Optimized OS.
    • Lorsque vous installez le pilote, spécifiez la dernière version disponible compatible avec les GPU L4. Exemple :sudo cos-extensions install gpu -- -version=525.60.13
  • Vous devez utiliser Google Cloud CLI ou REST pour créer des instances G2 dans les scénarios suivants :
    • Vous souhaitez spécifier des valeurs personnalisées de la mémoire.
    • Vous souhaitez personnaliser le nombre de cœurs de processeur visibles.

Instances N1+GPU

Pour en savoir plus sur les limites des instances N1 avec GPU, consultez les fonctionnalités de la série de machines N1 et les GPU pour la série de machines N1.

Choisir un système d'exploitation

Si vous utilisez des GPU pour le machine learning, utilisez l'un des systèmes d'exploitation suivants :

  • Images optimisées pour les charges de travail d'IA. Vous pouvez utiliser des images Ubuntu et Rocky, disponibles dans des versions optimisées pour les accélérateurs avec les pilotes NVIDIA et CUDA Toolkit préinstallés. Consultez la section Images de l'OS dans la documentation AI Hypercomputer.

  • Instances Deep Learning VM Image. Chaque Deep Learning VM dispose d'un outil d'installation de pilote GPU et inclut des packages tels que TensorFlow et PyTorch. Vous pouvez également utiliser une Deep Learning VM pour les charges de travail générales des GPU. Pour en savoir plus sur les images disponibles et les packages installés sur ces images, consultez Choisir une image dans la documentation de Deep Learning VM.

Vous pouvez également utiliser une image publique ou personnalisée. Pour la plupart des images publiques ou des images personnalisées, vous devez installer les pilotes NVIDIA et CUDA Toolkit. Pour identifier les pilotes adaptés à votre modèle de GPU, consultez Installer des pilotes de GPU.

Vérifier le quota de GPU

Pour protéger les systèmes et les utilisateurs de Compute Engine, les nouveaux projets bénéficient d'un quota global de GPU, ce qui limite le nombre total de GPU que vous pouvez créer dans les zones disponibles. Pour consulter le quota de GPU, consultez Quota de GPU.

Si vous avez besoin d'un quota de GPU supplémentaire, demandez une augmentation de quota. Lorsque vous demandez un quota de GPU, vous devez demander un quota pour les types de GPU que vous souhaitez créer dans chaque région, mais également un quota mondial supplémentaire pour le nombre total de GPU de tout type dans toutes les zones.

Si votre projet a un historique de facturation établi, il recevra automatiquement un quota après l'envoi de la demande.

Instances de GPU et quotas d'allocation préemptifs

Les instances qui utilisent le modèle de provisionnement standard ne peuvent généralement pas utiliser les quotas d'allocation préemptifs. Les quotas préemptifs sont destinés aux charges de travail temporaires et sont généralement plus disponibles. Si votre projet ne dispose pas de quota préemptif et que vous n'en avez jamais demandé, toutes les instances de votre projet consomment des quotas d'allocation standards.

Si vous demandez un quota d'allocation préemptive, les instances qui utilisent le modèle de provisionnement standard doivent répondre à tous les critères suivants pour consommer le quota d'allocation préemptive :

Lorsque vous consommez une allocation préemptive pour des charges de travail GPU limitées dans le temps, vous pouvez bénéficier à la fois d'une durée d'exécution ininterrompue et de la grande disponibilité du quota d'allocation d'allocation préemptive. Pour en savoir plus, consultez la section Quotas préemptifs.

Créer une instance avec des GPU associés

Pour créer une instance à laquelle sont associés des GPU, procédez comme suit :

  1. Créez l'instance. La méthode utilisée pour créer une instance dépend de la charge de travail que vous souhaitez exécuter.

    Types de machines GPU
    Charges de travail d'IA et de ML Graphiques et visualisation Autres charges de travail GPU
    Les types de machines de la série A optimisés pour les accélérateurs sont conçus pour les charges de travail de calcul hautes performances (HPC), d'intelligence artificielle (IA) et de machine learning (ML).

    Pour ces types de machines, le modèle de GPU est automatiquement associé à l'instance.

    Les types de machines de la série G optimisés pour les accélérateurs sont conçus pour les charges de travail telles que les charges de travail de simulation NVIDIA Omniverse, les applications gourmandes en ressources graphiques, le transcodage vidéo et les postes de travail virtuels. Ces types de machines sont compatibles avec les postes de travail virtuels (vWS) NVIDIA RTX.

    Pour ces types de machines, le modèle de GPU est automatiquement associé à l'instance.

    Pour les types de machines à usage général N1, à l'exception des types N1 à cœur partagé (f1-micro et g1-small), vous pouvez associer une sélection de modèles de GPU. Certains de ces modèles de GPU sont également compatibles avec les postes de travail virtuels (vWS) NVIDIA RTX.

    Pour les charges de travail d'IA, de ML et de HPC, choisissez l'une des options suivantes :

    Pour créer une instance G2 (L4) ou G4 (RTX PRO 6000), consultez Créer une instance G2 ou G4. Pour créer une instance N1 à laquelle sont associés des GPU NVIDIA T4, P4, P100 ou V100, consultez Créer une instance N1 associée à des GPU.
  2. Installez le pilote de GPU sur votre instance pour que celle-ci puisse utiliser le GPU. Si vous avez activé un poste de travail virtuel NVIDIA RTX (anciennement appelé NVIDIA GRID), installez un pilote pour le poste de travail virtuel.

Étape suivante