Usar TensorFlow Enterprise con una instancia local de contenedores de aprendizaje profundo

En esta página, se describe cómo comenzar a usar TensorFlow Enterprise con una instancia local de contenedores de aprendizaje profundo.

En este ejemplo, crearás y ejecutarás una instancia de contenedores de aprendizaje profundo de TensorFlow Enterprise en tu máquina local. Luego, abre un notebook de JupyterLab (incluido de forma predeterminada en la instancia de contenedor) y ejecuta un instructivo de clasificación sobre el uso de redes neuronales con Keras.

Antes de comenzar

Completa los siguientes pasos para instalar el SDK de Cloud y Docker, y, luego, configura tu máquina local.

Instala el SDK de Cloud y Docker

Completa estos pasos para instalar el SDK de Cloud y Docker en tu máquina local.

  1. Descarga y, luego, instala el SDK de Cloud en tu máquina local. El SDK de Cloud es una herramienta de línea de comandos que puedes usar para interactuar con la instancia.

  2. Descarga e instala Docker.

Configura tu máquina local

Completa estos pasos para configurar tu máquina local.

  1. Si usas un sistema operativo basado en Linux, como Ubuntu o Debian, usa el siguiente comando para agregar tu nombre de usuario aldocker para que puedas ejecutar Docker sin usarsudo , Reemplaza USERNAME por tu nombre de usuario.

    sudo usermod -a -G docker USERNAME
    

    Es posible que debas reiniciar tu sistema después de agregarte al grupo docker.

  2. Abre Docker. Para garantizar que Docker esté en funcionamiento, ejecuta el siguiente comando de Docker, que muestra la hora y la fecha actuales:

    docker run busybox date
    
  3. Usa gcloud como auxiliar de credenciales para Docker:

    gcloud auth configure-docker
    
  4. Opcional: Si deseas usar los contenedores habilitados para GPU, asegúrate de tener una GPU compatible con CUDA 10, el controlador asociado, nvidia-docker.

Crea una instancia de contenedores de aprendizaje profundo

A fin de crear una instancia de contenedores de aprendizaje profundo de TensorFlow Enterprise, completa los siguientes pasos para el tipo de contenedor local que deseas crear.

Si no necesitas usar un contenedor habilitado para GPU, usa el siguiente comando. Reemplaza /path/to/local/dir por la ruta de acceso al directorio local que deseas usar.

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

Si deseas usar un contenedor habilitado para GPU, usa el siguiente comando. Reemplaza /path/to/local/dir por la ruta de acceso al directorio local que deseas usar.

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

Con este comando, se inicia el contenedor en modo desconectado, se activa el directorio local /path/to/local/dir en /home en el contenedor y se asigna el puerto 8080 en el contenedor al puerto 8080 de tu máquina local.

Abre un notebook de JupyterLab y ejecuta un instructivo de clasificación

El contenedor está preconfigurado para iniciar un servidor de JupyterLab. Completa estos pasos para abrir un notebook de JupyterLab y ejecutar un instructivo de clasificación.

  1. En tu navegador local, visita http://localhost:8080 para acceder a un notebook de JupyterLab.

  2. A la izquierda, haz doble clic en instructivos para abrir la carpeta y navega hasta tutorials/tf2_course/01_neural_nets_with_keras.ipynb.

  3. Haz clic en el botón Ejecutar para ejecutar las celdas del instructivo.

Ejecuta tu instancia de contenedores de aprendizaje profundo en Google Cloud

Para ejecutar la instancia de contenedores de aprendizaje profundo de TensorFlow Enterprise en un entorno de nube, obtén más información sobre las opciones de ejecución de contenedores en Google Cloud. Por ejemplo, es posible que desees ejecutar el contenedor en un clúster de Google Kubernetes Engine.

¿Qué sigue?