Cette page explique comment créer une instance Deep Learning VM Image TensorFlow avec TensorFlow et d'autres outils pré-installés. Vous pouvez créer une instance TensorFlow depuis Cloud Marketplace dans Google Cloud Console ou à l'aide de la ligne de commande.
Avant de commencer
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Si vous utilisez des GPU avec votre instance Deep Learning VM, consultez la page Quotas pour vous assurer que vous disposez de suffisamment de GPU dans votre projet. Si les GPU ne figurent pas sur la page "Quotas" ou si vous avez besoin d'un quota de GPU supplémentaire, demandez une augmentation de quota.
Créer une instance Deep Learning VM TensorFlow depuis Cloud Marketplace
Pour créer une instance Deep Learning VM TensorFlow depuis Cloud Marketplace, procédez comme suit :
Accédez à la page "Deep Learning VM" de Cloud Marketplace dans Google Cloud Console.
Cliquez sur Get started (Commencer).
Saisissez un nom de déploiement. Ce nom correspond à la racine du nom de la VM. Compute Engine ajoute
-vm
à ce nom lorsque vous nommez votre instance.Sélectionnez une zone.
Sous Type de machine, sélectionnez les spécifications de votre choix pour votre VM. En savoir plus sur les types de machines.
Sous GPU, sélectionnez le type de GPU et le nombre de GPU. Si vous ne souhaitez pas utiliser de GPU, cliquez sur le bouton Supprimer le GPU, puis passez à l'étape 7. En savoir plus sur les GPU
- Choisissez un type de GPU. Certains types de GPU ne sont pas disponibles dans toutes les zones. Recherchez une combinaison acceptée.
- Sélectionnez le nombre de GPU. Chaque GPU est compatible avec un nombre différent de GPU. Recherchez une combinaison acceptée.
Sous Framework, sélectionnez l'une des versions de framework TensorFlow.
Si vous utilisez des GPU, vous devez disposer d'un pilote NVIDIA. Vous pouvez installer le pilote vous-même ou sélectionner l'option Install NVIDIA GPU driver automatically on first startup (Installer le pilote de GPU NVIDIA automatiquement au premier démarrage).
Vous pouvez sélectionner l'option Enable access to JupyterLab via URL instead of SSH (Autoriser l'accès à JupyterLab via une URL au lieu de SSH) disponible en version bêta. L'activation de cette fonctionnalité bêta vous permet d'accéder à votre instance JupyterLab à l'aide d'une URL. Toute personne disposant du rôle d'éditeur ou de propriétaire dans votre projet Google Cloud peut accéder à cette URL. Actuellement, cette fonctionnalité n'est disponible qu'aux États-Unis, dans l'Union européenne et en Asie.
Sélectionnez le type et la taille du disque de démarrage.
Sélectionnez les paramètres de mise en réseau de votre choix.
Cliquez sur Déployer.
L'installation des pilotes NVIDIA peut prendre trois à cinq minutes.
Une fois la VM déployée, la page est mise à jour avec les instructions d'accès à l'instance.
Créer une instance Deep Learning VM TensorFlow depuis la ligne de commande
Pour créer une instance de VM deep learning à l'aide de Google Cloud CLI, vous devez d'abord installer et initialiser la Google Cloud CLI comme suit :
- Téléchargez et installez Google Cloud CLI en suivant les instructions fournies sur la page Installer Google Cloud CLI.
- Initialisez le SDK à l'aide des instructions fournies sur la page Initialiser le SDK Cloud.
Pour utiliser gcloud
dans Cloud Shell, commencez par l'activer à l'aide des instructions fournies sur la page Démarrer Cloud Shell.
Vous pouvez créer une instance TensorFlow avec ou sans GPU.
Sans GPU
Pour provisionner une instance Deep Learning VM sans GPU, procédez comme suit :
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
Options :
--image-family
doit être l'un des éléments suivants :tf-ent-latest-cpu
pour obtenir la dernière image de TensorFlow Enterprise 2- Ancien nom de famille d'images TensorFlow ou TensorFlow Enterprise (voir Choisir une image)
--image-project
doit êtredeeplearning-platform-release
.
Avec un ou plusieurs GPU
Compute Engine offre la possibilité d'ajouter un ou plusieurs GPU aux instances de machines virtuelles. Les GPU permettent d'effectuer plus rapidement de nombreuses tâches complexes de traitement de données et de machine learning. Pour en savoir plus sur les GPU, consultez la page GPU sur Compute Engine.
Pour provisionner une instance Deep Learning VM avec un ou plusieurs GPU, procédez comme suit :
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
Options :
--image-family
doit être l'un des éléments suivants :tf-ent-latest-gpu
pour obtenir la dernière image de TensorFlow Enterprise 2- Ancien nom de famille d'images TensorFlow ou TensorFlow Enterprise (voir Choisir une image)
--image-project
doit êtredeeplearning-platform-release
.--maintenance-policy
doit êtreTERMINATE
. Pour en savoir plus, consultez les restrictions en matière de GPU.--accelerator
indique le type de GPU à utiliser. Il doit être spécifié au format--accelerator="type=TYPE,count=COUNT"
. Exemple :--accelerator="type=nvidia-tesla-p100,count=2"
. Consultez la table des modèles de GPU pour obtenir la liste des types et nombres de GPU disponibles.Certains types de GPU ne sont pas disponibles dans toutes les régions. Pour en savoir plus, consultez la section Disponibilité des GPU dans les régions et zones.
L'option
--metadata
permet d'indiquer que le pilote NVIDIA doit être installé en votre nom. La valeur est deinstall-nvidia-driver=True
. Si elle est spécifiée, Compute Engine charge le dernier pilote stable lors du premier démarrage et effectue les étapes nécessaires (y compris un redémarrage final pour activer le pilote).
L'installation des pilotes NVIDIA peut prendre trois à cinq minutes.
Le provisionnement complet de votre VM peut prendre jusqu'à cinq minutes. Vous ne pouvez pas vous connecter en SSH à votre machine pendant cet intervalle. Pour vérifier que le pilote a bien été installé, vous pouvez vous connecter en SSH et exécuter nvidia-smi
.
Une fois que vous avez configuré votre image, vous pouvez en enregistrer un instantané afin de pouvoir démarrer des instances dérivées sans avoir à attendre que le pilote soit installé.
À propos de TensorFlow Enterprise
TensorFlow Enterprise est un distribution de TensorFlow optimisé pour fonctionner sur Google Cloud et qui inclut Version à long terme Assistance.
Créer une instance préemptive
Vous pouvez créer une instance Deep Learning VM préemptive. Une instance préemptive est une instance que vous pouvez créer et exécuter à un prix bien inférieur à celui des instances normales. Cependant, Compute Engine peut arrêter (préempter) ces instances s'il a besoin d'accéder à ces ressources pour d'autres tâches. Les instances préemptives s'arrêtent toujours au bout de 24 heures. Pour en savoir plus sur les instances préemptives, consultez la page Instances de VM préemptives.
Pour créer une instance Deep Learning VM préemptive, procédez comme suit :
Suivez les instructions ci-dessus pour créer une instance à l'aide de la ligne de commande. Ajoutez le paramètre suivant à la commande
gcloud compute instances create
:--preemptible
Étape suivante
Pour découvrir comment vous connecter à votre nouvelle instance Deep Learning VM via Google Cloud Console ou la ligne de commande, consultez la page Se connecter à des instances. Le nom de votre instance correspond au nom du déploiement que vous avez spécifié, auquel est ajouté -vm
.