Como usar o TensorFlow Enterprise com uma instância local do Deep Learning Containers

Nesta página, descrevemos como começar a usar o TensorFlow Enterprise com uma instância local de contêineres de aprendizado profundo.

Neste exemplo, você cria e executa uma instância de contêineres de aprendizado profundo do TensorFlow Enterprise na máquina local. Em seguida, abra um notebook do JupyterLab, incluído por padrão na instância do contêiner, e execute um tutorial de classificação sobre o uso de redes neurais com o Keras.

Antes de começar

Conclua as etapas a seguir para instalar o SDK do Cloud e o Docker e, em seguida, configure sua máquina local.

Instalar o SDK do Cloud e o Docker

Conclua estas etapas para instalar o SDK do Cloud e o Docker em sua máquina local.

  1. Faça o download e instale o SDK do Cloud na sua máquina local. O SDK do Cloud é uma ferramenta de linha de comando usada para interagir com sua instância.

  2. Faça o download do Docker e instale-o.

Configurar a máquina local

Conclua estas etapas para configurar sua máquina local.

  1. Se você estiver usando um sistema operacional baseado em Linux, como Ubuntu ou Debian, use o seguinte comando para adicionar seu nome de usuário aodocker grupo para que você possa executar o Docker sem usarsudo , Substitua USERNAME pelo seu nome de usuário.

    sudo usermod -a -G docker USERNAME
    

    Talvez seja necessário reiniciar o sistema depois de adicionar você mesmo ao grupo docker.

  2. Abra o Docker. Para garantir que ele esteja funcionando, execute o comando do Docker a seguir, que retorna a hora e a data atuais:

    docker run busybox date
    
  3. Use o gcloud como auxiliar de credencial do Docker:

    gcloud auth configure-docker
    
  4. Opcional: se você quiser usar os contêineres ativados para GPU, verifique se você tem uma GPU compatível com CUDA 10, o driver associado nvidia-docker instalado.

Criar uma instância de contêineres de aprendizado profundo

Para criar uma instância de contêineres de aprendizado profundo do TensorFlow Enterprise, conclua o seguinte para o tipo de contêiner local que você quer criar.

Se você não precisar usar um contêiner ativado para GPU, use este comando. Substitua /path/to/local/dir pelo caminho para o diretório local que você quer usar.

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

Se você quiser usar um contêiner ativado para GPU, use o seguinte comando. Substitua /path/to/local/dir pelo caminho para o diretório local que você quer usar.

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

Esse comando inicia o contêiner no modo separado, monta o diretório local /path/to/local/dir em /home no contêiner e mapeia a porta 8080 no contêiner para a porta 8080 na máquina local.

Abra um notebook JupyterLab e execute um tutorial de classificação

O contêiner está pré-configurado para iniciar um servidor JupyterLab. Conclua estas etapas para abrir um notebook do JupyterLab e executar um tutorial de classificação.

  1. No navegador local, acesse http://localhost:8080 para acessar um notebook do JupyterLab.

  2. double esquerda, clique duas vezes em tutorials para abrir a pasta, navegue e abra tutorials/tf2_course/01_neural_nets_with_keras.ipynb.

  3. Clique no botão de execução para executar as células do tutorial.

Como executar a instância de contêineres de aprendizado profundo no Google Cloud

Para executar sua instância de contêineres de aprendizado profundo do TensorFlow Enterprise em um ambiente de nuvem, saiba mais sobre as opções para executar contêineres no Google Cloud. Por exemplo, é possível executar o contêiner em um cluster do Google Kubernetes Engine.

A seguir