Premiers pas avec un conteneur de deep learning local

Cette page explique comment créer et configurer un conteneur de deep learning local. Dans ce guide, nous partons du principe que vous maîtrisez les bases de Docker.

Avant de commencer

Pour suivre la procédure décrite dans ce guide, vous pouvez utiliser Cloud Shell ou tout environnement dans lequel le SDK Cloud peut être installé.

Pour configurer un compte Google Cloud, activer les API requises, puis installer et activer le SDK Cloud, procédez comme suit :

  1. Dans Google Cloud Console, accédez à la page Gérer les ressources, puis sélectionnez ou créez un projet.

    Accéder à la page "Gérer les ressources"

  2. Si vous utilisez Cloud Shell, vous pouvez ignorer cette étape, car le SDK Cloud et Docker sont déjà installés. Sinon, procédez comme suit :

    1. Installez et initialisez le SDK Cloud.

    2. Installez Docker.

      Si vous utilisez un système d'exploitation Linux, tel qu'Ubuntu ou Debian, ajoutez votre nom d'utilisateur au groupe docker afin de pouvoir exécuter Docker sans utiliser sudo :

      sudo usermod -a -G docker ${USER}
      

      Une fois que vous vous serez ajouté au groupe docker, vous devrez peut-être redémarrer votre système.

  3. Ouvrez Docker. Pour vérifier que Docker est en cours d'exécution, exécutez la commande Docker suivante, qui renvoie la date et l'heure actuelles :

    docker run busybox date
    
  4. Utilisez gcloud comme assistant d'identification pour Docker :

    gcloud auth configure-docker
    
  5. Facultatif : Si vous souhaitez exécuter le conteneur à l'aide d'un GPU en local, installez nvidia-docker.

Créer un conteneur

Suivez la procédure ci-dessous pour créer un conteneur.

  1. Pour afficher la liste des conteneurs disponibles, procédez comme suit :

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Consultez la page Choisir un conteneur pour vous aider à sélectionner le conteneur de votre choix.

  2. Si vous n'avez pas besoin d'utiliser un conteneur compatible GPU, saisissez l'exemple de code suivant. Remplacez tf-cpu.1-13 par le nom du conteneur que vous souhaitez utiliser.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Si vous souhaitez utiliser un conteneur compatible GPU, saisissez l'exemple de code suivant. Remplacez tf-gpu.1-13 par le nom du conteneur que vous souhaitez utiliser.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Cette commande démarre le conteneur en mode dissocié, installe le répertoire local /path/to/local/dir dans /home/jupyter dans le conteneur, et mappe le port 8080 du conteneur au port 8080 de votre ordinateur local. Le conteneur est préconfiguré pour démarrer un serveur JupyterLab, accessible depuis http://localhost:8080.

Étape suivante