Créer une instance Deep Learning VM PyTorch

Cette page explique comment créer une instance Deep Learning VM Image PyTorch avec PyTorch et d'autres outils pré-installés. Vous pouvez créer une instance PyTorch depuis Cloud Marketplace dans Google Cloud Console ou à l'aide de la ligne de commande.

Avant de commencer

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Si vous utilisez des GPU avec votre instance Deep Learning VM, consultez la page Quotas pour vous assurer que vous disposez de suffisamment de GPU dans votre projet. Si les GPU ne figurent pas sur la page "Quotas" ou si vous avez besoin d'un quota de GPU supplémentaire, demandez une augmentation de quota.

Créer une instance Deep Learning VM PyTorch depuis Cloud Marketplace

Pour créer une instance Deep Learning VM PyTorch depuis Cloud Marketplace, procédez comme suit :

  1. Accédez à la page "Deep Learning VM" de Cloud Marketplace dans Google Cloud Console.

    Accéder à la page "Deep Learning VM" de Cloud Marketplace

  2. Cliquez sur Get started (Commencer).

  3. Saisissez un nom de déploiement. Ce nom correspond à la racine du nom de la VM. Compute Engine ajoute -vm à ce nom lorsque vous nommez votre instance.

  4. Sélectionnez une zone.

  5. Sous Type de machine, sélectionnez les spécifications de votre choix pour votre VM. En savoir plus sur les types de machines.

  6. Sous GPU, sélectionnez le type de GPU et le nombre de GPU. Si vous ne souhaitez pas utiliser de GPU, cliquez sur le bouton Supprimer le GPU, puis passez à l'étape 7. En savoir plus sur les GPU

    1. Choisissez un type de GPU. Certains types de GPU ne sont pas disponibles dans toutes les zones. Recherchez une combinaison acceptée.
    2. Sélectionnez le nombre de GPU. Chaque GPU est compatible avec un nombre différent de GPU. Recherchez une combinaison acceptée.
  7. Sous Framework, sélectionnez PyTorch 1.8 + fast.ai 2.1 (CUDA 11.0).

  8. Si vous utilisez des GPU, vous devez disposer d'un pilote NVIDIA. Vous pouvez installer le pilote vous-même ou sélectionner l'option Install NVIDIA GPU driver automatically on first startup (Installer le pilote de GPU NVIDIA automatiquement au premier démarrage).

  9. Vous pouvez sélectionner l'option Enable access to JupyterLab via URL instead of SSH (Autoriser l'accès à JupyterLab via une URL au lieu de SSH) disponible en version bêta. L'activation de cette fonctionnalité bêta vous permet d'accéder à votre instance JupyterLab à l'aide d'une URL. Toute personne disposant du rôle d'éditeur ou de propriétaire dans votre projet Google Cloud peut accéder à cette URL. Actuellement, cette fonctionnalité n'est disponible qu'aux États-Unis, dans l'Union européenne et en Asie.

  10. Sélectionnez le type et la taille du disque de démarrage.

  11. Sélectionnez les paramètres de mise en réseau de votre choix.

  12. Cliquez sur Déployer.

L'installation des pilotes NVIDIA peut prendre trois à cinq minutes.

Une fois la VM déployée, la page est mise à jour avec les instructions d'accès à l'instance.

Créer une instance Deep Learning VM PyTorch depuis la ligne de commande

Pour créer une instance de VM deep learning à l'aide de Google Cloud CLI, vous devez d'abord installer et initialiser Google Cloud CLI :

  1. Téléchargez et installez Google Cloud CLI en suivant les instructions fournies sur la page Installer Google Cloud CLI.
  2. Initialisez le SDK à l'aide des instructions fournies sur la page Initialiser le SDK Cloud.

Pour utiliser gcloud dans Cloud Shell, commencez par l'activer à l'aide des instructions fournies sur la page Démarrer Cloud Shell.

Sans GPU

Pour créer une instance Deep Learning VM avec la dernière famille d'images PyTorch et un processeur, saisissez les chaînes suivantes dans la ligne de commande :

export IMAGE_FAMILY="pytorch-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Options :

  • --image-family doit être pytorch-latest-cpu ou pytorch-VERSION-cpu (par exemple, pytorch-1-13-cpu).

  • --image-project doit être deeplearning-platform-release.

Avec un ou plusieurs GPU

Compute Engine offre la possibilité d'ajouter un ou plusieurs GPU aux instances de machines virtuelles. Les GPU permettent de traiter plus rapidement de nombreuses tâches complexes de données et de machine learning. Pour en savoir plus sur les GPU, consultez la page GPU sur Compute Engine.

Pour créer une instance de VM deep learning avec la dernière famille d'images PyTorch et un ou plusieurs GPU associés, saisissez les chaînes suivantes dans la ligne de commande :

export IMAGE_FAMILY="pytorch-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Options :

  • --image-family doit être pytorch-latest-gpu ou pytorch-VERSION-CUDA-VERSION (par exemple, pytorch-1-10-cu110).

  • --image-project doit être deeplearning-platform-release.

  • --maintenance-policy doit être TERMINATE. Pour en savoir plus, consultez les restrictions en matière de GPU.

  • --accelerator indique le type de GPU à utiliser. Il doit être spécifié au format --accelerator="type=TYPE,count=COUNT". Exemple : --accelerator="type=nvidia-tesla-p100,count=2". Consultez la table des modèles de GPU pour obtenir la liste des types et nombres de GPU disponibles.

    Certains types de GPU ne sont pas disponibles dans toutes les régions. Pour en savoir plus, consultez la section Disponibilité des GPU dans les régions et zones.

  • L'option --metadata permet d'indiquer que le pilote NVIDIA doit être installé en votre nom. La valeur est de install-nvidia-driver=True. Si elle est spécifiée, Compute Engine charge le dernier pilote stable lors du premier démarrage et effectue les étapes nécessaires (y compris un redémarrage final pour activer le pilote).

L'installation des pilotes NVIDIA peut prendre trois à cinq minutes.

Le provisionnement complet de votre VM peut prendre jusqu'à cinq minutes. Vous ne pouvez pas vous connecter en SSH à votre machine pendant cet intervalle. Pour vérifier que le pilote a bien été installé, vous pouvez vous connecter en SSH et exécuter nvidia-smi.

Une fois que vous avez configuré votre image, vous pouvez en enregistrer un instantané afin de pouvoir démarrer des instances dérivées sans avoir à attendre que le pilote soit installé.

Créer une instance préemptive

Vous pouvez créer une instance Deep Learning VM préemptive. Une instance préemptive est une instance que vous pouvez créer et exécuter à un prix bien inférieur à celui des instances normales. Cependant, Compute Engine peut arrêter (préempter) ces instances s'il a besoin d'accéder à ces ressources pour d'autres tâches. Les instances préemptives s'arrêtent toujours au bout de 24 heures. Pour en savoir plus sur les instances préemptives, consultez la page Instances de VM préemptives.

Pour créer une instance Deep Learning VM préemptive, procédez comme suit :

  • Suivez les instructions ci-dessus pour créer une instance à l'aide de la ligne de commande. Ajoutez le paramètre suivant à la commande gcloud compute instances create :

      --preemptible

Étape suivante

Pour découvrir comment vous connecter à votre nouvelle instance Deep Learning VM via Google Cloud Console ou la ligne de commande, consultez la page Se connecter à des instances. Le nom de votre instance correspond au nom du déploiement que vous avez spécifié, auquel est ajouté -vm.