Créer une instance Deep Learning VM TensorFlow

Cette page explique comment créer une instance Deep Learning VM Image TensorFlow avec TensorFlow et d'autres outils pré-installés. Vous pouvez créer une instance TensorFlow depuis Cloud Marketplace dans Google Cloud Console ou à l'aide de la ligne de commande.

Avant de commencer

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  3. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  4. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  5. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  6. Si vous utilisez des GPU avec votre instance Deep Learning VM, consultez la page Quotas pour vous assurer que vous disposez de suffisamment de GPU dans votre projet. Si les GPU ne figurent pas sur la page "Quotas" ou si vous avez besoin d'un quota de GPU supplémentaire, demandez une augmentation de quota.

Créer une instance Deep Learning VM TensorFlow depuis Cloud Marketplace

Pour créer une instance Deep Learning VM TensorFlow depuis Cloud Marketplace, procédez comme suit :

  1. Accédez à la page "Deep Learning VM" de Cloud Marketplace dans Google Cloud Console.

    Accéder à la page "Deep Learning VM" de Cloud Marketplace

  2. Cliquez sur Launch (Lancer).

  3. Saisissez un nom de déploiement. Ce nom correspond à la racine du nom de la VM. Compute Engine ajoute -vm à ce nom lorsque vous nommez votre instance.

  4. Sélectionnez une zone.

  5. Sous Type de machine, sélectionnez les spécifications de votre choix pour votre VM. En savoir plus sur les types de machines.

  6. Sous GPU, sélectionnez le type de GPU et le nombre de GPU. Si vous ne souhaitez pas utiliser de GPU, cliquez sur le bouton Supprimer le GPU, puis passez à l'étape 7. En savoir plus sur les GPU

    1. Choisissez un type de GPU. Certains types de GPU ne sont pas disponibles dans toutes les zones. Recherchez une combinaison acceptée.
    2. Sélectionnez le nombre de GPU. Chaque GPU est compatible avec un nombre différent de GPU. Recherchez une combinaison acceptée.
  7. Sous Framework, sélectionnez l'une des versions de framework TensorFlow.

  8. Si vous utilisez des GPU, vous devez disposer d'un pilote NVIDIA. Vous pouvez installer le pilote vous-même ou sélectionner l'option Install NVIDIA GPU driver automatically on first startup (Installer le pilote de GPU NVIDIA automatiquement au premier démarrage).

  9. Vous pouvez sélectionner l'option Enable access to JupyterLab via URL instead of SSH (Autoriser l'accès à JupyterLab via une URL au lieu de SSH) disponible en version bêta. L'activation de cette fonctionnalité bêta vous permet d'accéder à votre instance JupyterLab à l'aide d'une URL. Toute personne disposant du rôle d'éditeur ou de propriétaire dans votre projet Google Cloud peut accéder à cette URL. Actuellement, cette fonctionnalité n'est disponible qu'aux États-Unis, dans l'Union européenne et en Asie.

  10. Sélectionnez le type et la taille du disque de démarrage.

  11. Sélectionnez les paramètres de mise en réseau de votre choix.

  12. Cliquez sur Déployer.

L'installation des pilotes NVIDIA peut prendre trois à cinq minutes.

Une fois la VM déployée, la page est mise à jour avec les instructions d'accès à l'instance.

Créer une instance Deep Learning VM TensorFlow depuis la ligne de commande

Pour créer une instance de VM deep learning à l'aide de Google Cloud CLI, vous devez d'abord installer et initialiser la Google Cloud CLI comme suit :

  1. Téléchargez et installez Google Cloud CLI en suivant les instructions fournies sur la page Installer Google Cloud CLI.
  2. Initialisez le SDK à l'aide des instructions fournies sur la page Initialiser le SDK Cloud.

Pour utiliser gcloud dans Cloud Shell, commencez par l'activer à l'aide des instructions fournies sur la page Démarrer Cloud Shell.

Vous pouvez créer une instance TensorFlow avec ou sans GPU.

Sans GPU

Pour provisionner une instance Deep Learning VM sans GPU, procédez comme suit :

export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Options :

  • --image-family doit correspondre à l'un des éléments suivants :
  • --image-project doit être deeplearning-platform-release.

Avec un ou plusieurs GPU

Compute Engine offre la possibilité d'ajouter un ou plusieurs GPU aux instances de machines virtuelles. Les GPU permettent d'effectuer plus rapidement de nombreuses tâches complexes de traitement de données et de machine learning. Pour en savoir plus sur les GPU, consultez la page GPU sur Compute Engine.

Pour provisionner une instance Deep Learning VM avec un ou plusieurs GPU, procédez comme suit :

export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Options :

  • --image-family doit être l'un des éléments suivants :

  • --image-project doit être deeplearning-platform-release.

  • --maintenance-policy doit être TERMINATE. Pour en savoir plus, consultez les restrictions en matière de GPU.

  • --accelerator indique le type de GPU à utiliser. Il doit être spécifié au format --accelerator="type=TYPE,count=COUNT". Exemple : --accelerator="type=nvidia-tesla-p100,count=2". Consultez la table des modèles de GPU pour obtenir la liste des types et nombres de GPU disponibles.

    Certains types de GPU ne sont pas disponibles dans toutes les régions. Pour en savoir plus, consultez la section Disponibilité des GPU dans les régions et zones.

  • L'option --metadata permet d'indiquer que le pilote NVIDIA doit être installé en votre nom. La valeur est de install-nvidia-driver=True. Si elle est spécifiée, Compute Engine charge le dernier pilote stable lors du premier démarrage et effectue les étapes nécessaires (y compris un redémarrage final pour activer le pilote).

L'installation des pilotes NVIDIA peut prendre trois à cinq minutes.

Le provisionnement complet de votre VM peut prendre jusqu'à cinq minutes. Vous ne pouvez pas vous connecter en SSH à votre machine pendant cet intervalle. Pour vérifier que le pilote a bien été installé, vous pouvez vous connecter en SSH et exécuter nvidia-smi.

Une fois que vous avez configuré votre image, vous pouvez en enregistrer un instantané afin de pouvoir démarrer des instances dérivées sans avoir à attendre que le pilote soit installé.

À propos de TensorFlow Enterprise

TensorFlow Enterprise est une distribution de TensorFlow qui a été optimisée pour fonctionner sur Google Cloud et qui inclut l'assistance à long terme des versions.

Créer une instance préemptive

Vous pouvez créer une instance Deep Learning VM préemptive. Une instance préemptive est une instance que vous pouvez créer et exécuter à un prix bien inférieur à celui des instances normales. Cependant, Compute Engine peut arrêter (préempter) ces instances s'il a besoin d'accéder à ces ressources pour d'autres tâches. Les instances préemptives s'arrêtent toujours au bout de 24 heures. Pour en savoir plus sur les instances préemptives, consultez la page Instances de VM préemptives.

Pour créer une instance Deep Learning VM préemptive, procédez comme suit :

  • Suivez les instructions ci-dessus pour créer une instance à l'aide de la ligne de commande. Ajoutez le paramètre suivant à la commande gcloud compute instances create :

      --preemptible

Étapes suivantes

Pour découvrir comment vous connecter à votre nouvelle instance Deep Learning VM via Google Cloud Console ou la ligne de commande, consultez la page Se connecter à des instances. Le nom de votre instance correspond au nom du déploiement que vous avez spécifié, auquel est ajouté -vm.