Deep Learning-VM-Instanz mit TensorFlow erstellen

Auf dieser Seite wird beschrieben, wie Sie eine Deep Learning-VM-Imagesinstanz mit TensorFlow mit vorinstalliertem TensorFlow und anderen Tools erstellen. Sie können eine TensorFlow-Instanz über Cloud Marketplace in der Google Cloud Console oder über die Befehlszeile erstellen.

Hinweise

  1. Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  5. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  6. Wenn Sie mit der Deep Learning-VM GPUs verwenden, prüfen Sie auf der Seite "Kontingente", ob die Anzahl der im Projekt verfügbaren GPUs ausreicht. Wenn auf der Seite "Kontingente" keine GPUs aufgeführt sind oder Sie zusätzliche GPU-Kontingente benötigen, können Sie eine Erhöhung des Kontingents beantragen.

TensorFlow Deep Learning VM-Instanz in Cloud Marketplace erstellen

Führen Sie die folgenden Schritte aus, um über Cloud Marketplace eine TensorFlow-Deep Learning-VM-Instanz zu erstellen:

  1. Rufen Sie in der Google Cloud Console die Seite "Deep Learning VM Cloud Marketplace" auf.

    Zur Seite "Deep Learning VM Cloud Marketplace"

  2. Klicken Sie auf Starten.

  3. Geben Sie einen Bereitstellungsnamen ein, der zum Stamm für Ihren VM-Namen wird. Compute Engine fügt bei der Benennung der Instanz das Suffix -vm an.

  4. Zone auswählen

  5. Wählen Sie unter Maschinentyp die gewünschten Spezifikationen für die VM aus Weitere Informationen zu Maschinentypen.

  6. Wählen Sie unter GPUs den GPU-Typ und die Anzahl der GPUs aus. Wenn Sie keine GPUs verwenden möchten, klicken Sie auf die Schaltfläche GPU löschen und fahren Sie mit Schritt 7 fort. Weitere Informationen zu GPUs.

    1. Wählen Sie einen GPU-Typ aus. Nicht alle GPU-Typen sind in allen Zonen verfügbar. Kombinationen finden, die unterstützt werden
    2. Wählen Sie die Anzahl der GPUs aus. Jede GPU unterstützt eine unterschiedliche Anzahl von GPUs. Kombinationen finden, die unterstützt werden
  7. Wählen Sie unter Framework eine der TensorFlow-Framework-Versionen aus.

  8. Wenn Sie GPUs verwenden, ist ein NVIDIA-Treiber erforderlich. Sie können den Treiber selbst installieren oder die Option NVIDIA GPU-Treiber bei Start-up automatisch installieren auswählen.

  9. Sie können die Option Zugriff auf JupyterLab über URL statt SSH aktivieren (Beta) auswählen. Wenn Sie diese Betafunktion aktivieren, können Sie über eine URL auf Ihre JupyterLab-Instanz zugreifen. Alle, die in Ihrem Google Cloud-Projekt die Rollen Bearbeiter oder Inhaber haben, können auf diese URL zugreifen. Derzeit funktioniert diese Funktion nur in den USA, der Europäischen Union und Asien.

  10. Wählen Sie einen Typ für das Bootlaufwerk und die Größe des Bootlaufwerks aus.

  11. Wählen Sie die gewünschten Netzwerkeinstellungen aus.

  12. Klicken Sie auf Deploy.

Wenn Sie sich für das Installieren von NVIDIA-Treibern entschieden haben, dauert die Installation drei bis fünf Minuten.

Nach dem Bereitstellen der VM wird die Seite mit einer Anleitung für den Zugriff auf die Instanz aktualisiert.

TensorFlow Deep Learning-VM-Instanz über die Befehlszeile erstellen

Wenn Sie die Google Cloud CLI zum Erstellen einer neuen Deep-Learning-VM-Instanz verwenden möchten, müssen Sie zuerst die Google Cloud CLI installieren und initialisieren:

  1. Laden Sie die Google Cloud-CLI herunter und installieren Sie sie. Folgen Sie dabei der Anleitung unter Google Cloud CLI installieren.
  2. Initialisieren Sie das SDK gemäß der Anleitung in Cloud SDK initialisieren.

Wenn Sie gcloud in Cloud Shell verwenden möchten, aktivieren Sie zuerst Cloud Shell. Folgen Sie dazu der Anleitung unter Cloud Shell starten.

Eine TensorFlow-Instanz können Sie mit oder ohne GPUs erstellen.

Ohne GPUs

So stellen Sie eine Deep Learning-VM-Instanz ohne GPU bereit:

export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Optionen:

  • --image-family muss einer der folgenden Werte sein:
  • --image-project muss deeplearning-platform-release lauten.

Mit einer oder mehreren GPUs

In Compute Engine können Sie Ihren VM-Instanzen eine oder mehrere GPUs hinzufügen. GPUs ermöglichen bei vielen komplexen Aufgaben in den Bereichen Daten und maschinelles Lernen eine schnellere Verarbeitung. Weitere Informationen zu GPUs finden Sie unter GPUs in Compute Engine.

So stellen Sie eine Deep Learning-VM-Instanz mit einer oder mehreren GPUs bereit:

export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Optionen:

  • --image-family muss einer der folgenden Datentypen sein:

  • --image-project muss deeplearning-platform-release lauten.

  • --maintenance-policy muss TERMINATE lauten. Weitere Informationen finden Sie unter GPU-Einschränkungen.

  • --accelerator gibt den zu verwendenden GPU-Typ an. Dieser muss im Format --accelerator="type=TYPE,count=COUNT" angegeben werden. Beispiel: --accelerator="type=nvidia-tesla-p100,count=2" Eine Liste der verfügbaren GPU-Typen und -Anzahl finden Sie in der Tabelle der GPU-Modelle.

    Nicht alle GPU-Typen werden in allen Regionen unterstützt. Weitere Informationen finden Sie unter Verfügbarkeit von GPU-Regionen und -Zonen.

  • Mit --metadata wird angegeben, dass der NVIDIA-Treiber für Sie installiert werden soll. Der Wert ist install-nvidia-driver=True. Ist er angegeben, lädt Compute Engine beim ersten Start den aktuellen stabilen Treiber und führt die erforderlichen Schritte aus, einschließlich eines abschließenden Neustarts zum Aktivieren des Treibers.

Wenn Sie sich für das Installieren von NVIDIA-Treibern entschieden haben, dauert die Installation drei bis fünf Minuten.

Die vollständige Bereitstellung der VM kann bis zu fünf Minuten dauern. In diesem Zeitraum können Sie keine SSH-Verbindung mit dem Computer herstellen. Nach Abschluss der Installation können Sie prüfen, ob die Treiber erfolgreich installiert wurden. Dazu stellen Sie eine SSH-Verbindung her und führen nvidia-smi aus.

Wenn Sie das Image konfiguriert haben, können Sie einen Snapshot des Image speichern. Sie können davon abgeleitete Instanzen erstellen, ohne dass Sie abwarten müssen, bis die Treiber installiert wurden.

Über TensorFlow Enterprise

TensorFlow Enterprise ist eine Distribution von TensorFlow, die für die Ausführung in Google Cloud optimiert wurde und Langzeitsupport für die einzelnen Versionen enthält.

Instanz auf Abruf erstellen

Sie können eine Deep Learning-VM-Instanz auf Abruf erstellen. Eine Instanz auf Abruf kann zu einem wesentlich günstigeren Preis als normale Instanzen erstellt und ausgeführt werden. Compute Engine kann diese Instanzen jedoch (auf Abruf) beenden, wenn für andere Aufgaben Zugriff auf diese Ressourcen benötigt wird. Instanzen auf Abruf werden immer nach 24 Stunden beendet. Weitere Informationen zu Instanzen auf Abruf finden Sie unter VM-Instanzen auf Abruf.

So erstellen Sie eine Deep Learning-VM-Instanz auf Abruf:

  • Befolgen Sie die obige Anleitung und erstellen Sie eine neue Instanz über die Befehlszeile. An den Befehl gcloud compute instances create fügen Sie Folgendes an:

      --preemptible

Nächste Schritte

Eine Anleitung zum Herstellen einer Verbindung mit Ihrer neuen Deep Learning-VM-Instanz über die GCP Console oder die Befehlszeile finden Sie unter Verbindung zu Instanzen herstellen. Als Name der Instanz gilt der von Ihnen angegebene Bereitstellungsname mit dem Suffix -vm.