Introdução a um contêiner de aprendizado profundo local

Esta página descreve como criar e configurar um Deep Learning Container local. Para este guia, você precisa estar familiarizado com o Docker (em inglês).

Antes de começar

Conclua as etapas a seguir para configurar uma conta do Google Cloud, ativar as APIs necessárias, além de instalar e ativar o software necessário.

  1. No Console do Google Cloud, acesse a página Gerenciar recursos e selecione ou crie um projeto.

    Acessar "Gerenciar recursos"

  2. Instale e inicialize a CLI gcloud.

  3. Instale o Docker.

    Se você estiver usando um sistema operacional baseado em Linux, como Ubuntu ou Debian, adicione seu nome de usuário ao grupo docker para executar o Docker sem usar sudo:

    sudo usermod -a -G docker ${USER}
    

    Talvez seja necessário reiniciar o sistema depois de adicionar você mesmo ao grupo docker.

  4. Abra o Docker. Para garantir que ele esteja funcionando, execute o comando do Docker a seguir, que retorna a hora e a data atuais:

    docker run busybox date
    
  5. Use o gcloud como auxiliar de credencial do Docker:

    gcloud auth configure-docker
    
  6. Opcional: se você quer executar o contêiner pela GPU no local, instale o nvidia-docker (em inglês).

Criar seu contêiner

Siga estas etapas para criar seu contêiner:

  1. Para ver uma lista de contêineres disponíveis, faça o seguinte:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Acesse Como escolher um contêiner para ajudar a selecionar o contêiner desejado.

  2. Se você não precisar usar um contêiner ativado para a GPU, insira o exemplo de código a seguir. Substitua tf-cpu.1-13 pelo nome do contêiner que você quer usar.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se você quiser usar um contêiner ativado para GPU, insira o exemplo de código a seguir. Substitua tf-gpu.1-13 pelo nome do contêiner que você quer usar.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Esse comando inicia o contêiner no modo separado, monta o diretório local /path/to/local/dir em /home/jupyter no contêiner e mapeia a porta 8080 no contêiner para a porta 8080 na máquina local. O contêiner é pré-configurado para iniciar um servidor JupyterLab, que pode ser acessado em http://localhost:8080.

A seguir