Introduzione a un container di deep learning locale

Questa pagina descrive come creare e configurare un container di deep learning locale. Questa guida presuppone che tu abbia familiarità di base con Docker.

Prima di iniziare

Completa i seguenti passaggi per configurare un account, abilitare le API richieste e installare e attivare il software richiesto. Google Cloud

  1. Nella console Google Cloud , vai alla pagina Gestisci risorse e seleziona o crea un progetto.

    Vai a Gestisci risorse

  2. Installa e inizializza gcloud CLI.

  3. Installa Docker.

    Se utilizzi un sistema operativo basato su Linux, ad esempio Ubuntu o Debian, aggiungi il tuo nome utente al gruppo docker per poter eseguire Docker senza utilizzare sudo:

    sudo usermod -a -G docker ${USER}
    

    Potresti dover riavviare il sistema dopo esserti aggiunto al gruppo docker.

  4. Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui questo comando Docker, che restituisce la data e l'ora correnti:

    docker run busybox date
    
  5. Utilizza gcloud come assistente per le credenziali per Docker:

    gcloud auth configure-docker
    
  6. (Facoltativo) Se vuoi eseguire il container utilizzando la GPU in locale, installa nvidia-docker.

Crea il container

Segui questi passaggi per creare il contenitore.

  1. Per visualizzare un elenco dei container disponibili:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Per scegliere il contenitore che preferisci, puoi consultare la sezione Scegliere un contenitore.

  2. Se non devi utilizzare un container abilitato alla GPU, inserisci il seguente codice di esempio. Sostituisci tf-cpu.1-13 con il nome del contenitore che vuoi utilizzare.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se vuoi utilizzare un container abilitato alla GPU, inserisci il seguente esempio di codice. Sostituisci tf-gpu.1-13 con il nome del contenitore che vuoi utilizzare.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Questo comando avvia il container in modalità detached, monta la directory locale /path/to/local/dir su /home/jupyter nel container e mappa la porta 8080 sul container alla porta 8080 sulla tua macchina locale. Il container è preconfigurato per avviare un server JupyterLab, che puoi visitare all'indirizzo http://localhost:8080.

Passaggi successivi