Introduzione a un container di deep learning locale

In questa pagina viene descritto come creare e configurare un contenitore di deep learning locale. Questa guida prevede che tu abbia familiarità con Docker.

Prima di iniziare

Completa i passaggi seguenti per configurare un account Google Cloud, abilitare le API richieste e installare e attivare il software richiesto.

  1. In Google Cloud Console, vai alla pagina Gestisci risorse e seleziona o crea un progetto.

    Vai a Gestisci risorse

  2. Installa e inizializza gcloud CLI.

  3. Installa Docker.

    Se usi un sistema operativo basato su Linux, ad esempio Ubuntu o Debian, aggiungi il tuo nome utente al gruppo docker in modo da poter eseguire Docker senza utilizzare sudo:

    sudo usermod -a -G docker ${USER}
    

    Potrebbe essere necessario riavviare il sistema dopo esserti aggiunto al gruppo docker.

  4. Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui il seguente comando Docker, che restituisce l'ora e la data correnti:

    docker run busybox date
    
  5. Utilizza gcloud come helper delle credenziali per Docker:

    gcloud auth configure-docker
    
  6. (Facoltativo) Se vuoi eseguire il container utilizzando la GPU localmente, installa nvidia-docker.

Crea il contenitore

Per creare il contenitore, segui questi passaggi.

  1. Per visualizzare un elenco dei contenitori disponibili:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Per informazioni su come selezionare il contenitore, consulta Scelta di un contenitore.

  2. Se non è necessario utilizzare un container abilitato per GPU, inserisci il seguente esempio di codice. Sostituisci tf-cpu.1-13 con il nome del container che vuoi utilizzare.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se vuoi utilizzare un container abilitato per GPU, inserisci il seguente esempio di codice. Sostituisci tf-gpu.1-13 con il nome del container che vuoi utilizzare.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Questo comando avvia il container in modalità scollegato, monta la directory locale /path/to/local/dir in /home/jupyter nel container e mappa la porta 8080 del container alla porta 8080 sulla macchina locale. Il container è preconfigurato per l'avvio di un server JupyterLab, che puoi visitare all'indirizzo http://localhost:8080.

Passaggi successivi