Introduzione a un container di deep learning locale

Questa pagina descrive come creare e configurare un container di deep learning locale. Questa guida presuppone che tu abbia familiarità di base con Docker.

Prima di iniziare

Completa i seguenti passaggi per configurare un account Google Cloud, abilita le API richieste e installare e attivare il software richiesto.

  1. Nella console Google Cloud, vai alla pagina Gestisci risorse e seleziona o crea un progetto.

    Vai a Gestisci

  2. Installa e inizializza l'interfaccia a riga di comando gcloud.

  3. Installa Docker.

    Se utilizzi un sistema operativo basato su Linux, come Ubuntu o Debian, aggiungi il tuo nome utente al gruppo docker per poter eseguire Docker senza utilizzare sudo:

    sudo usermod -a -G docker ${USER}
    

    Dopo aver aggiunto il tuo account, potresti dover riavviare il sistema il gruppo docker.

  4. Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui il seguente comando Docker, che restituisce la data e l'ora correnti:

    docker run busybox date
    
  5. Usa gcloud come assistente per le credenziali per Docker:

    gcloud auth configure-docker
    
  6. (Facoltativo) Se vuoi eseguire il contenitore utilizzando la GPU in locale, installa nvidia-docker.

Crea il contenitore

Per creare il contenitore, segui questi passaggi.

  1. Per visualizzare un elenco dei container disponibili:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Ti consigliamo di consultare la sezione Scegliere un contenitore per selezionare il contenitore che preferisci.

  2. Se non devi utilizzare un container abilitato per GPU, inserisci il seguente codice esempio. Sostituisci tf-cpu.1-13 con il nome del container che vuoi utilizzare.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se vuoi utilizzare un container abilitato per GPU, inserisci il seguente codice esempio. Sostituisci tf-gpu.1-13 con il nome del contenitore che vuoi utilizzare.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Questo comando avvia il container in modalità scollegato, monta il container dalla directory /path/to/local/dir alla /home/jupyter nel container e viene mappata dalla porta 8080 del container alla porta 8080 sulla macchina locale. La un container è preconfigurato per avviare un server JupyterLab, che puoi visita all'indirizzo http://localhost:8080.

Passaggi successivi