Introducción a un contenedor local para el aprendizaje profundo

En esta página, se describe cómo crear y configurar un contenedor de aprendizaje profundo local. En esta guía, se espera que tengas conocimientos básicos de Docker.

Antes de comenzar

Para completar los pasos de esta guía, puedes usar Cloud Shell o cualquier entorno en el que se pueda instalar el SDK de Cloud.

Completa los siguientes pasos para configurar una cuenta de Google Cloud, habilitar las API necesarias, e instalar y activar el SDK de Cloud.

  1. En Google Cloud Console, ve a la página Administrar recursos y selecciona o crea un proyecto.

    Ir a la página Administración de recursos

  2. Si usas Cloud Shell, puedes omitir este paso porque el SDK de Cloud y Docker ya están instalados. De lo contrario, completa estos pasos:

    1. Instala e inicializa el SDK de Cloud.

    2. Instala Docker.

      Si usas un sistema operativo basado en Linux, como Ubuntu o Debian, agrega tu nombre de usuario al grupo docker para que puedas ejecutar Docker sin usar sudo:

      sudo usermod -a -G docker ${USER}
      

      Es posible que debas reiniciar tu sistema después de agregarte al grupo docker.

  3. Abre Docker. Para garantizar que Docker esté en funcionamiento, ejecuta el siguiente comando de Docker, que muestra la hora y la fecha actuales:

    docker run busybox date
    
  4. Usa gcloud como auxiliar de credenciales para Docker:

    gcloud auth configure-docker
    
  5. Opcional: Si deseas ejecutar el contenedor con GPU de forma local, instala nvidia-docker.

Crea tu contenedor

Sigue estos pasos para crear tu contenedor.

  1. Para ver una lista de contenedores disponibles, sigue estos pasos:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Se recomienda ir a Elige un contenedor para ayudarte a seleccionar el contenedor que deseas.

  2. Si no necesitas usar un contenedor con GPU habilitado, ingresa el siguiente ejemplo de código. Reemplaza tf-cpu.1-13 por el nombre del contenedor que deseas usar.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Si deseas usar un contenedor con GPU habilitada, ingresa el siguiente código de ejemplo. Reemplaza tf-gpu.1-13 por el nombre del contenedor que deseas usar.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Este comando inicia el contenedor en modo desconectado, activa el directorio local /path/to/local/dir en /home/jupyter en el contenedor y asigna el puerto 8080 en el contenedor al puerto 8080 en tu máquina local. El contenedor está preconfigurado para iniciar un servidor de JupyterLab, que puedes visitar en http://localhost:8080.

¿Qué sigue?