Erste Schritte mit einem lokalen Deep Learning-Container

Auf dieser Seite wird beschrieben, wie Sie einen lokalen Deep-Learning-Container erstellen und einrichten. In dieser Anleitung wird davon ausgegangen, dass Sie mit Docker vertraut sind.

Hinweis

Führen Sie die folgenden Schritte aus, um ein Google Cloud-Konto einzurichten, die erforderlichen APIs zu aktivieren und die benötigte Software zu installieren und zu aktivieren.

  1. Rufen Sie in der Google Cloud Console die Seite Ressourcen verwalten auf und wählen Sie ein Projekt aus oder erstellen Sie ein Projekt.

    Zur Seite „Ressourcen verwalten“

  2. gcloud CLI installieren und initialisieren

  3. Installieren Sie Docker.

    Wenn Sie ein Linux-basiertes Betriebssystem wie Ubuntu oder Debian nutzen, fügen Sie der Gruppe docker Ihren Nutzernamen hinzu, damit Sie Docker ohne sudo ausführen können:

    sudo usermod -a -G docker ${USER}
    

    Möglicherweise müssen Sie Ihr System neu starten, wenn Sie sich zur Gruppe docker hinzugefügt haben.

  4. Öffnen Sie Docker. Prüfen Sie mit dem folgenden Docker-Befehl, durch den die aktuelle Zeit und das aktuelle Datum zurückgegeben werden, ob Docker ausgeführt wird:

    docker run busybox date
    
  5. Verwenden Sie gcloud als Credential Helper für Docker:

    gcloud auth configure-docker
    
  6. Optional: Wenn Sie den Container mit GPU lokal ausführen möchten, installieren Sie nvidia-docker.

Container erstellen

So erstellen Sie einen Container:

  1. So rufen Sie eine Liste der verfügbaren Container auf:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Unter Container auswählen können Sie den gewünschten Container auswählen.

  2. Wenn Sie keinen GPU-fähigen Container verwenden müssen, geben Sie das folgende Codebeispiel ein. Ersetzen Sie tf-cpu.1-13 durch den Namen des Containers, den Sie verwenden möchten.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Wenn Sie einen GPU-fähigen Container verwenden möchten, geben Sie das folgende Codebeispiel ein. Ersetzen Sie tf-gpu.1-13 durch den Namen des Containers, den Sie verwenden möchten.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Dieser Befehl startet den Container im getrennten Modus, stellt das lokale Verzeichnis /path/to/local/dir zu /home/jupyter im Container bereit und ordnet Port 8080 im Container Port 8080 auf Ihrem lokalen Computer zu. Der Container ist vorkonfiguriert, um einen JupyterLab-Server zu starten. Diesen können Sie unter http://localhost:8080 aufrufen.

Nächste Schritte