Comece a usar um contentor de aprendizagem profunda local

Esta página descreve como criar e configurar um contentor de aprendizagem profunda local. Este guia pressupõe que tem conhecimentos básicos do Docker.

Antes de começar

Conclua os passos seguintes para configurar uma Google Cloud conta, ativar as APIs necessárias e instalar e ativar o software necessário.

  1. Na Google Cloud consola, aceda à página Gerir recursos e selecione ou crie um projeto.

    Aceda a Gerir recursos

  2. Instale e inicialize a CLI gcloud.

  3. Instale o Docker.

    Se estiver a usar um sistema operativo baseado em Linux, como o Ubuntu ou o Debian, adicione o seu nome de utilizador ao grupo docker para poder executar o Docker sem usar sudo:

    sudo usermod -a -G docker ${USER}
    

    Pode ter de reiniciar o sistema depois de se adicionar ao grupo docker.

  4. Abra o Docker. Para garantir que o Docker está em execução, execute o seguinte comando do Docker, que devolve a data e a hora atuais:

    docker run busybox date
    
  5. Use gcloud como o auxiliar de credenciais para o Docker:

    gcloud auth configure-docker
    
  6. Opcional: se quiser executar o contentor com a GPU localmente, instale nvidia-docker.

Crie o seu contentor

Siga estes passos para criar o seu contentor.

  1. Para ver uma lista dos contentores disponíveis:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Recomendamos que aceda a Escolher um contentor para ajudar a selecionar o contentor pretendido.

  2. Se não precisar de usar um contentor com GPU, introduza o seguinte exemplo de código. Substitua tf-cpu.1-13 pelo nome do contentor que quer usar.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se quiser usar um contentor com GPU, introduza o seguinte código de exemplo. Substitua tf-gpu.1-13 pelo nome do contentor que quer usar.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Este comando inicia o contentor no modo separado, monta o diretório /path/to/local/dir local em /home/jupyter no contentor e mapeia a porta 8080 no contentor para a porta 8080 na sua máquina local. O contentor está pré-configurado para iniciar um servidor JupyterLab, que pode visitar em http://localhost:8080.

O que se segue?