Empezar a usar un contenedor de aprendizaje profundo local

En esta página se describe cómo crear y configurar un contenedor de aprendizaje profundo local. En esta guía se da por hecho que tienes conocimientos básicos sobre Docker.

Antes de empezar

Sigue estos pasos para configurar una cuenta, habilitar las APIs necesarias e instalar y activar el software necesario. Google Cloud

  1. En la Google Cloud consola, ve a la página Gestionar recursos y selecciona o crea un proyecto.

    Ir a Gestionar recursos

  2. Instala e inicializa gcloud CLI.

  3. Instala Docker.

    Si usas un sistema operativo basado en Linux, como Ubuntu o Debian, añade tu nombre de usuario al grupo docker para poder ejecutar Docker sin usar sudo:

    sudo usermod -a -G docker ${USER}
    

    Es posible que tengas que reiniciar el sistema después de añadirte al grupo docker.

  4. Abre Docker. Para asegurarte de que Docker se está ejecutando, ejecuta el siguiente comando de Docker, que devuelve la hora y la fecha actuales:

    docker run busybox date
    
  5. Usa gcloud como asistente de credenciales para Docker:

    gcloud auth configure-docker
    
  6. Opcional: Si quieres ejecutar el contenedor con una GPU de forma local, instala nvidia-docker.

Crear un contenedor

Sigue estos pasos para crear tu contenedor.

  1. Para ver una lista de los contenedores disponibles, sigue estos pasos:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Puede consultar la sección Elegir un contenedor para que le ayude a seleccionar el contenedor que quiera.

  2. Si no necesitas usar un contenedor con GPU, introduce el siguiente código de ejemplo. Sustituye tf-cpu.1-13 por el nombre del contenedor que quieras usar.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Si quieres usar un contenedor habilitado para GPU, introduce el siguiente código de ejemplo. Sustituye tf-gpu.1-13 por el nombre del contenedor que quieras usar.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Este comando inicia el contenedor en modo independiente, activa el directorio local /path/to/local/dir en /home/jupyter en el contenedor y asigna el puerto 8080 del contenedor al puerto 8080 de tu máquina local. El contenedor está preconfigurado para iniciar un servidor de JupyterLab, al que puedes acceder en http://localhost:8080.

Siguientes pasos