Utiliser TensorFlow Enterprise avec une instance locale de conteneurs de deep learning

Cette page explique comment débuter avec TensorFlow Enterprise avec une instance locale de conteneurs de deep learning.

Dans cet exemple, vous créez et exécutez une instance de conteneurs de deep learning TensorFlow Enterprise sur votre ordinateur local. Vous ouvrez ensuite un notebook JupyterLab (inclus par défaut dans l'instance de conteneur) et exécutez un tutoriel de classification sur l'utilisation de réseaux de neurones avec Keras.

Avant de commencer

Suivez les étapes ci-dessous pour installer le SDK Cloud et Docker, puis configurer votre ordinateur local.

Installer le SDK Cloud et Docker

Suivez ces étapes pour installer le SDK Cloud et Docker sur votre ordinateur local.

  1. Téléchargez et installez le SDK Cloud sur votre ordinateur local. Le SDK Cloud est un outil de ligne de commande qui vous permet de vous connecter à votre instance.

  2. Téléchargez et installez Docker.

Configurer votre ordinateur local

Suivez les étapes ci-dessous pour configurer votre ordinateur local.

  1. Si vous utilisez un système d'exploitation Linux, tel qu'Ubuntu ou Debian, utilisez la commande suivante pour ajouter votre nom d'utilisateur à ladocker afin de pouvoir exécuter Docker sans utilisersudo ... Remplacez USERNAME par votre nom d'utilisateur.

    sudo usermod -a -G docker USERNAME
    

    Une fois que vous vous serez ajouté au groupe docker, vous devrez peut-être redémarrer votre système.

  2. Ouvrez Docker. Pour vérifier que Docker est en cours d'exécution, exécutez la commande Docker suivante, qui renvoie la date et l'heure actuelles :

    docker run busybox date
    
  3. Utilisez gcloud comme assistant d'identification pour Docker :

    gcloud auth configure-docker
    
  4. Facultative Si vous souhaitez utiliser des conteneurs compatibles GPU, assurez-vous de disposer d'un GPU compatible CUDA 10, qui est le pilote associé.nvidia-docker installé.

Créer une instance Deep Learning Containers

Pour créer une instance de conteneurs de deep learning TensorFlow Enterprise, procédez comme suit pour le type de conteneur local que vous souhaitez créer.

Si vous n'avez pas besoin d'utiliser un conteneur compatible GPU, utilisez la commande suivante. Remplacez /path/to/local/dir par le chemin d'accès au répertoire local que vous souhaitez utiliser.

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

Si vous souhaitez utiliser un conteneur compatible GPU, utilisez la commande suivante. Remplacez /path/to/local/dir par le chemin d'accès au répertoire local que vous souhaitez utiliser.

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

Cette commande démarre le conteneur en mode dissocié, installe le répertoire local /path/to/local/dir dans /home dans le conteneur, et mappe le port 8080 du conteneur au port 8080 de votre ordinateur local.

Ouvrir un notebook JupyterLab et exécuter un tutoriel de classification

Le conteneur est préconfiguré pour démarrer un serveur JupyterLab. Pour ouvrir un notebook JupyterLab et exécuter un tutoriel de classification, procédez comme suit :

  1. Dans votre navigateur local, saisissez l'adresse http://localhost:8080 pour accéder à un notebook JupyterLab.

  2. Sur la gauche, double-cliquez sur les tutoriels pour ouvrir le dossier, puis accédez à tutorials/tf2_course/01_neural_nets_with_keras.ipynb.

  3. Cliquez sur le bouton d'exécution pour exécuter les cellules du tutoriel.

Exécuter votre instance Deep Learning Containers sur Google Cloud

Pour exécuter votre instance de conteneurs de deep learning TensorFlow Enterprise dans un environnement cloud, découvrez les options d'exécution des conteneurs sur Google Cloud. Par exemple, vous pouvez exécuter votre conteneur sur un cluster Google Kubernetes Engine.

Étape suivante