Introduzione a un container di deep learning locale

Questa pagina descrive come creare e configurare un container di deep learning locale. Questa guida si aspetta che tu abbia familiarità con le nozioni di base con Docker.

Prima di iniziare

Completa i seguenti passaggi per configurare un account Google Cloud, attivare le API richieste e installare e attivare il software necessario.

  1. Nella Google Cloud Console, vai alla pagina Gestisci risorse. e selezionare o creare un progetto.

    Vai a Gestisci

  2. Installa e inizializza l'interfaccia a riga di comando gcloud.

  3. Installa Docker.

    Se utilizzi un sistema operativo basato su Linux, ad esempio Ubuntu o Debian, aggiungi il tuo nome utente al gruppo docker in modo da poter eseguire Docker senza utilizzare sudo:

    sudo usermod -a -G docker ${USER}
    

    Dopo aver aggiunto il tuo account, potresti dover riavviare il sistema il gruppo docker.

  4. Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui il seguente comando Docker, che restituisce la data e l'ora correnti:

    docker run busybox date
    
  5. Utilizza gcloud come assistente per le credenziali per Docker:

    gcloud auth configure-docker
    
  6. Facoltativo: se vuoi eseguire il container utilizzando la GPU in locale, installazione nvidia-docker

Crea il tuo container

Per creare il contenitore, segui questi passaggi.

  1. Per visualizzare un elenco dei container disponibili:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Ti consigliamo di andare a Scegliere un container per aiutarti a selezionare il container che preferisci.

  2. Se non devi utilizzare un contenitore con GPU, inserisci il seguente esempio di codice. Sostituisci tf-cpu.1-13 con il nome del container che vuoi utilizzare.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se vuoi utilizzare un contenitore con GPU abilitata, inserisci il seguente esempio di codice. Sostituisci tf-gpu.1-13 con il nome del contenitore che vuoi utilizzare.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Questo comando avvia il contenitore in modalità disconnessa, monta la directory locale /path/to/local/dir su /home/jupyter nel contenitore e mappa la porta 8080 sul contenitore alla porta 8080 sulla tua macchina locale. La un container è preconfigurato per avviare un server JupyterLab, che puoi visita all'indirizzo http://localhost:8080.

Passaggi successivi