Auf dieser Seite werden die ersten Schritte mit TensorFlow Enterprise mit einer lokalen Deep Learning Container-Instanz beschrieben.
In diesem Beispiel erstellen und führen Sie eine TensorFlow Enterprise Deep Learning Container-Instanz auf Ihrem lokalen Computer aus. Dann öffnen Sie ein JupyterLab-Notebook (standardmäßig in der Containerinstanz enthalten) und führen eine Klassifizierungsanleitung zur Verwendung neuronaler Netzwerke mit Keras aus.
Hinweis
Führen Sie die folgenden Schritte aus, um das Cloud SDK und Docker zu installieren, und richten Sie dann Ihren lokalen Computer ein.
Cloud SDK und Docker installieren
Führen Sie die folgenden Schritte aus, um das Cloud SDK und Docker auf Ihrem lokalen Computer zu installieren.
Laden Sie das Cloud SDK herunter und installieren Sie es auf Ihrem lokalen Computer. Das Cloud SDK ist ein Befehlszeilentool, mit dem Sie mit der Instanz interagieren können.
Lokalen Computer einrichten
Führen Sie die folgenden Schritte aus, um Ihren lokalen Rechner einzurichten.
Wenn Sie ein Linux-basiertes Betriebssystem wie Ubuntu oder Debian verwenden, fügen Sie dem folgenden Befehl Ihren Nutzernamen hinzu:
docker
Gruppe, sodass Sie Docker ohne diesesudo
auf Ihrem Mobilgerät. Ersetzen Sie USERNAME durch Ihren Nutzernamen.sudo usermod -a -G docker USERNAME
Möglicherweise müssen Sie Ihr System neu starten, wenn Sie sich zur Gruppe
docker
hinzugefügt haben.Öffnen Sie Docker. Prüfen Sie mit dem folgenden Docker-Befehl, durch den die aktuelle Zeit und das aktuelle Datum zurückgegeben werden, ob Docker ausgeführt wird:
docker run busybox date
Verwenden Sie
gcloud
als Credential Helper für Docker:gcloud auth configure-docker
Optional. Wenn Sie die GPU-fähigen Container verwenden möchten, benötigen Sie eine mit CUDA 10 kompatible GPU, den zugehörigen Treiber.
nvidia-docker
installiert ist.
Deep Learning Container-Instanz erstellen
Führen Sie die folgenden Schritte für den Typ des lokalen Containers aus, den Sie erstellen möchten, um eine TensorFlow Enterprise Deep Learning Container-Instanz zu erstellen.
Wenn Sie keinen GPU-fähigen Container verwenden müssen, verwenden Sie den folgenden Befehl. Ersetzen Sie /path/to/local/dir durch den Pfad zu Ihrem lokalen Verzeichnis, das Sie verwenden möchten.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
Wenn Sie einen GPU-fähigen Container verwenden möchten, verwenden Sie den folgenden Befehl. Ersetzen Sie /path/to/local/dir durch den Pfad zu Ihrem lokalen Verzeichnis, das Sie verwenden möchten.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
Dieser Befehl startet den Container im getrennten Modus, stellt das lokale Verzeichnis /path/to/local/dir
zu /home
im Container bereit und ordnet Port 8080 im Container Port 8080 auf Ihrem lokalen Computer zu.
JupyterLab-Notebook öffnen und eine Klassifizierungsanleitung ausführen
Der Container ist zum Starten eines JupyterLab-Servers vorkonfiguriert. Führen Sie die folgenden Schritte aus, um ein JupyterLab-Notebook zu öffnen und eine Klassifizierungsanleitung auszuführen.
Rufen Sie in Ihrem lokalen Browser http://localhost:8080 auf, um auf ein JupyterLab-Notebook zuzugreifen.
Klicken Sie links doppelt auf tutorials, um den Ordner zu öffnen, und öffnen Sie tutorials/tf2_course/01_neural_nets_with_keras.ipynb.
Klicken Sie auf die Schaltfläche "Ausführen"
, um Zellen der Anleitung auszuführen.
Deep Learning Container-Instanz in Google Cloud ausführen
Wenn Sie die TensorFlow Enterprise Deep Learning Container-Instanz in einer Cloudumgebung ausführen möchten, finden Sie hier weitere Informationen über Optionen zum Ausführen von Containern in Google Cloud. Sie können beispielsweise den Container in einem Google Kubernetes Engine-Cluster ausführen.
Nächste Schritte
- Weitere Informationen zu Deep Learning-Containern
- TensorFlow Enterprise mit Deep Learning VM verwenden
- TensorFlow Enterprise mit Notebooks verwenden