Introduzione a un container di deep learning locale

Questa pagina descrive come creare e configurare un container locale di deep learning. Questa guida si aspetta che tu abbia familiarità con le nozioni di base con Docker.

Prima di iniziare

Completa i seguenti passaggi per configurare un account Google Cloud, abilita le API richieste e installare e attivare il software richiesto.

  1. Nella Google Cloud Console, vai alla pagina Gestisci risorse. e selezionare o creare un progetto.

    Vai a Gestisci

  2. Installa e inizializza con gcloud CLI.

  3. Installa Docker.

    Se utilizzi un sistema operativo basato su Linux, come Ubuntu o Debian, aggiungi il tuo nome utente al gruppo docker per poter eseguire Docker senza utilizzare sudo:

    sudo usermod -a -G docker ${USER}
    

    Dopo aver aggiunto il tuo account, potresti dover riavviare il sistema il gruppo docker.

  4. Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui questo comando Comando Docker, che restituisce la data e l'ora correnti:

    docker run busybox date
    
  5. Usa gcloud come assistente per le credenziali per Docker:

    gcloud auth configure-docker
    
  6. Facoltativo: se vuoi eseguire il container utilizzando la GPU in locale, installazione nvidia-docker

Crea il tuo container

Per creare il contenitore, segui questi passaggi.

  1. Per visualizzare un elenco dei container disponibili:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Ti consigliamo di andare a Scegliere un container per aiutarti a selezionare il container che preferisci.

  2. Se non è necessario utilizzare un container abilitato per GPU, inserisci il seguente codice esempio. Sostituisci tf-cpu.1-13 con il nome del container che vuoi utilizzare.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se vuoi utilizzare un container abilitato per GPU, inserisci il seguente codice esempio. Sostituisci tf-gpu.1-13 con il nome del container che vuoi utilizzare.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Questo comando avvia il container in modalità scollegato, monta il container dalla directory /path/to/local/dir alla /home/jupyter nel container e viene mappata dalla porta 8080 del container alla porta 8080 sulla macchina locale. La un container è preconfigurato per avviare un server JupyterLab, che puoi visita all'indirizzo http://localhost:8080.

Passaggi successivi