Auf dieser Seite wird beschrieben, wie Sie eine Deep Learning-VM-Imagesinstanz mit TensorFlow mit vorinstalliertem TensorFlow und anderen Tools erstellen. Sie können eine TensorFlow-Instanz über Cloud Marketplace in der Google Cloud Console oder über die Befehlszeile erstellen.
Vorbereitung
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
- Wenn Sie mit der Deep Learning-VM GPUs verwenden, prüfen Sie auf der Seite "Kontingente", ob die Anzahl der im Projekt verfügbaren GPUs ausreicht. Wenn auf der Seite "Kontingente" keine GPUs aufgeführt sind oder Sie zusätzliche GPU-Kontingente benötigen, können Sie eine Erhöhung des Kontingents beantragen.
TensorFlow Deep Learning VM-Instanz in Cloud Marketplace erstellen
Führen Sie die folgenden Schritte aus, um über Cloud Marketplace eine TensorFlow-Deep Learning-VM-Instanz zu erstellen:
Rufen Sie in der Google Cloud Console die Seite "Deep Learning VM Cloud Marketplace" auf.
Klicken Sie auf Jetzt starten.
Geben Sie einen Bereitstellungsnamen ein, der zum Stamm für Ihren VM-Namen wird. Compute Engine fügt bei der Benennung der Instanz das Suffix
-vm
an.Zone auswählen
Wählen Sie unter Maschinentyp die gewünschten Spezifikationen für die VM aus Weitere Informationen zu Maschinentypen.
Wählen Sie unter GPUs den GPU-Typ und die Anzahl der GPUs aus. Wenn Sie keine GPUs verwenden möchten, klicken Sie auf die Schaltfläche GPU löschen und fahren Sie mit Schritt 7 fort. Weitere Informationen zu GPUs.
- Wählen Sie einen GPU-Typ aus. Nicht alle GPU-Typen sind in allen Zonen verfügbar. Kombinationen finden, die unterstützt werden
- Wählen Sie die Anzahl der GPUs aus. Jede GPU unterstützt eine unterschiedliche Anzahl von GPUs. Kombinationen finden, die unterstützt werden
Wählen Sie unter Framework eine der TensorFlow-Framework-Versionen aus.
Wenn Sie GPUs verwenden, ist ein NVIDIA-Treiber erforderlich. Sie können den Treiber selbst installieren oder die Option NVIDIA GPU-Treiber bei Start-up automatisch installieren auswählen.
Sie können die Option Zugriff auf JupyterLab über URL statt SSH aktivieren (Beta) auswählen. Wenn Sie diese Betafunktion aktivieren, können Sie über eine URL auf Ihre JupyterLab-Instanz zugreifen. Alle, die in Ihrem Google Cloud-Projekt die Rollen Bearbeiter oder Inhaber haben, können auf diese URL zugreifen. Derzeit funktioniert diese Funktion nur in den USA, der Europäischen Union und Asien.
Wählen Sie einen Typ für das Bootlaufwerk und die Größe des Bootlaufwerks aus.
Wählen Sie die gewünschten Netzwerkeinstellungen aus.
Klicken Sie auf Deploy.
Wenn Sie sich für das Installieren von NVIDIA-Treibern entschieden haben, dauert die Installation drei bis fünf Minuten.
Nach dem Bereitstellen der VM wird die Seite mit einer Anleitung für den Zugriff auf die Instanz aktualisiert.
TensorFlow Deep Learning-VM-Instanz über die Befehlszeile erstellen
Wenn Sie die Google Cloud CLI zum Erstellen einer neuen Deep-Learning-VM-Instanz verwenden möchten, müssen Sie zuerst die Google Cloud CLI installieren und initialisieren:
- Laden Sie die Google Cloud-CLI herunter und installieren Sie sie. Folgen Sie dabei der Anleitung unter Google Cloud CLI installieren.
- Initialisieren Sie das SDK gemäß der Anleitung in Cloud SDK initialisieren.
Wenn Sie gcloud
in Cloud Shell verwenden möchten, aktivieren Sie zuerst Cloud Shell. Folgen Sie dazu der Anleitung unter Cloud Shell starten.
Eine TensorFlow-Instanz können Sie mit oder ohne GPUs erstellen.
Ohne GPUs
So stellen Sie eine Deep Learning-VM-Instanz ohne GPU bereit:
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
Optionen:
--image-family
muss einer der folgenden Datentypen sein:tf-ent-latest-cpu
zum Abrufen des aktuellen TensorFlow Enterprise 2-Image- Ein früherer TensorFlow- oder TensorFlow Enterprise-Image-Familienname (siehe Image auswählen)
--image-project
mussdeeplearning-platform-release
lauten.
Mit einer oder mehreren GPUs
In Compute Engine können Sie Ihren VM-Instanzen eine oder mehrere GPUs hinzufügen. GPUs ermöglichen bei vielen komplexen Aufgaben in den Bereichen Daten und maschinelles Lernen eine schnellere Verarbeitung. Weitere Informationen zu GPUs finden Sie unter GPUs in Compute Engine.
So stellen Sie eine Deep Learning-VM-Instanz mit einer oder mehreren GPUs bereit:
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
Optionen:
--image-family
muss einer der folgenden Datentypen sein:tf-ent-latest-gpu
zum Abrufen des aktuellen TensorFlow Enterprise 2-Image- Ein früherer TensorFlow- oder TensorFlow Enterprise-Image-Familienname (siehe Image auswählen)
--image-project
mussdeeplearning-platform-release
lauten.--maintenance-policy
mussTERMINATE
lauten. Weitere Informationen finden Sie unter GPU-Einschränkungen.--accelerator
gibt den zu verwendenden GPU-Typ an. Dieser muss im Format--accelerator="type=TYPE,count=COUNT"
angegeben werden. Beispiel:--accelerator="type=nvidia-tesla-p100,count=2"
Eine Liste der verfügbaren GPU-Typen und -Anzahl finden Sie in der Tabelle der GPU-Modelle.Nicht alle GPU-Typen werden in allen Regionen unterstützt. Weitere Informationen finden Sie unter Verfügbarkeit von GPU-Regionen und -Zonen.
Mit
--metadata
wird angegeben, dass der NVIDIA-Treiber für Sie installiert werden soll. Der Wert istinstall-nvidia-driver=True
. Ist er angegeben, lädt Compute Engine beim ersten Start den aktuellen stabilen Treiber und führt die erforderlichen Schritte aus, einschließlich eines abschließenden Neustarts zum Aktivieren des Treibers.
Wenn Sie sich für das Installieren von NVIDIA-Treibern entschieden haben, dauert die Installation drei bis fünf Minuten.
Die vollständige Bereitstellung der VM kann bis zu fünf Minuten dauern. In diesem Zeitraum können Sie keine SSH-Verbindung mit dem Computer herstellen. Nach Abschluss der Installation können Sie prüfen, ob die Treiber erfolgreich installiert wurden. Dazu stellen Sie eine SSH-Verbindung her und führen nvidia-smi
aus.
Wenn Sie das Image konfiguriert haben, können Sie einen Snapshot des Image speichern. Sie können davon abgeleitete Instanzen erstellen, ohne dass Sie abwarten müssen, bis die Treiber installiert wurden.
Über TensorFlow Enterprise
TensorFlow Enterprise ist ein Verteilung von TensorFlow das für Google Cloud optimiert wurde und umfasst Langfristige Version Support
Instanz auf Abruf erstellen
Sie können eine Deep Learning-VM-Instanz auf Abruf erstellen. Eine Instanz auf Abruf kann zu einem wesentlich günstigeren Preis als normale Instanzen erstellt und ausgeführt werden. Compute Engine kann diese Instanzen jedoch (auf Abruf) beenden, wenn für andere Aufgaben Zugriff auf diese Ressourcen benötigt wird. Instanzen auf Abruf werden immer nach 24 Stunden beendet. Weitere Informationen zu Instanzen auf Abruf finden Sie unter VM-Instanzen auf Abruf.
So erstellen Sie eine Deep Learning-VM-Instanz auf Abruf:
Befolgen Sie die obige Anleitung und erstellen Sie eine neue Instanz über die Befehlszeile. An den Befehl
gcloud compute instances create
fügen Sie Folgendes an:--preemptible
Nächste Schritte
Eine Anleitung zum Herstellen einer Verbindung mit Ihrer neuen Deep Learning-VM-Instanz über die GCP Console oder die Befehlszeile finden Sie unter Verbindung zu Instanzen herstellen. Als Name der Instanz gilt der von Ihnen angegebene Bereitstellungsname mit dem Suffix -vm
.