Deep Learning-VM-Instanz mit TensorFlow erstellen

Auf dieser Seite erfahren Sie, wie Sie eine TensorFlow Deep Learning VM Images-Instanz mit vorinstallierten TensorFlow- und anderen Tools erstellen. Sie können eine TensorFlow-Instanz in Cloud Marketplace in der Google Cloud Console oder über die Befehlszeile erstellen.

Hinweis

  1. Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für Ihr Projekt aktiviert ist.

  4. Wenn Sie mit der Deep Learning-VM GPUs verwenden, prüfen Sie auf der Seite "Kontingente", ob die Anzahl der im Projekt verfügbaren GPUs ausreicht. Wenn auf der Seite "Kontingente" keine GPUs aufgeführt sind oder Sie zusätzliche GPU-Kontingente benötigen, können Sie eine Erhöhung des Kontingents beantragen.

TensorFlow Deep Learning VM-Instanz in Cloud Marketplace erstellen

Führen Sie die folgenden Schritte aus, um über Cloud Marketplace eine TensorFlow-Deep Learning-VM-Instanz zu erstellen:

  1. Rufen Sie in der Google Cloud Console die Seite "Deep Learning VM Cloud Marketplace" auf.

    Zur Seite "Deep Learning VM Cloud Marketplace"

  2. Klicken Sie auf Starten.

  3. Geben Sie einen Bereitstellungsnamen ein, der zum Stamm für Ihren VM-Namen wird. Compute Engine fügt bei der Benennung der Instanz das Suffix -vm an.

  4. Zone auswählen

  5. Wählen Sie unter Maschinentyp die gewünschten Spezifikationen für die VM aus Weitere Informationen zu Maschinentypen.

  6. Wählen Sie unter GPUs die GPU-Typ und die Anzahl der GPUs aus. Wenn Sie keine GPUs verwenden möchten, klicken Sie auf die Schaltfläche GPU löschen und fahren Sie mit Schritt 7 fort. Weitere Informationen zu GPUs.

    1. Wählen Sie einen GPU-Typ aus. Nicht alle GPU-Typen sind in allen Zonen verfügbar. Eine unterstützte Kombination suchen
    2. Wählen Sie die Anzahl der GPUs aus. Jede GPU unterstützt eine unterschiedliche Anzahl von GPUs. Eine unterstützte Kombination suchen
  7. Wählen Sie unter Framework eine der TensorFlow-Framework-Versionen aus.

  8. Wenn Sie GPUs verwenden, ist ein NVIDIA-Treiber erforderlich. Sie können den Treiber selbst installieren oder wählen Sie NVIDIA GPU-Treiber beim ersten Start automatisch installieren.

  9. Sie können die Option Zugriff auf JupyterLab über URL anstelle von SSH aktivieren (Beta) auswählen. Wenn Sie diese Betafunktion aktivieren, können Sie über eine URL auf Ihre JupyterLab-Instanz zugreifen. Alle, die in Ihrem Google Cloud-Projekt die Rollen "Bearbeiter" oder "Inhaber" innehaben, können auf diese URL zugreifen. Die Funktion ist derzeit nur in den USA, der Europäischen Union und Asien verfügbar.

  10. Wählen Sie den Typ und die Größe des Bootlaufwerks aus.

  11. Wählen Sie die gewünschten Netzwerkeinstellungen aus.

  12. Klicken Sie auf Deploy.

Wenn Sie NVIDIA-Treiber installieren, benötigen Sie drei bis fünf Minuten, bis die Installation abgeschlossen ist.

Nach dem Bereitstellen der VM wird die Seite mit einer Anleitung für den Zugriff auf die Instanz aktualisiert.

TensorFlow Deep Learning-VM-Instanz über die Befehlszeile erstellen

Damit Sie eine neue Deep-Learning-VM-Instanz mit dem gcloud-Befehlszeilentool erstellen können, muss zuerst das Cloud SDK installiert und initialisiert werden:

  1. Laden Sie das Cloud SDK herunter und installieren Sie es. Folgen Sie dabei der Anleitung in Google Cloud SDK installieren.
  2. Initialisieren Sie das SDK gemäß der Anleitung in Cloud SDK initialisieren.

Wenn Sie gcloud in Cloud Shell verwenden möchten, aktivieren Sie zuerst Cloud Shell. Folgen Sie dazu der Anleitung unter Cloud Shell starten.

Eine TensorFlow-Instanz können Sie mit oder ohne GPUs erstellen.

Ohne GPUs

So stellen Sie eine Deep Learning-VM-Instanz ohne GPU bereit:

export IMAGE_FAMILY="tf2-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Optionen:

  • --image-family muss einer der folgenden Datentypen sein:
  • --image-project muss deeplearning-platform-release lauten.

Mit einer oder mehreren GPUs

In Compute Engine können Sie Ihren VM-Instanzen eine oder mehrere GPUs hinzufügen. GPUs ermöglichen bei vielen komplexen Aufgaben in den Bereichen Daten und maschinelles Lernen eine schnellere Verarbeitung. Weitere Informationen zu GPUs finden Sie unter GPUs in Compute Engine.

So stellen Sie eine Deep Learning-VM-Instanz mit einer oder mehreren GPUs bereit:

export IMAGE_FAMILY="tf2-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Optionen:

  • --image-family muss einer der folgenden Datentypen sein:

  • --image-project muss deeplearning-platform-release lauten.

  • --maintenance-policy muss TERMINATE lauten. Weitere Informationen finden Sie unter GPU-Einschränkungen.

  • --accelerator gibt den zu verwendenden GPU-Typ an. Er muss im Format --accelerator="type=TYPE,count=COUNT" angegeben werden. Die folgenden Werte werden für TYPE unterstützt:

    • nvidia-tesla-v100 (count=1 oder 8)
    • nvidia-tesla-p100 (count=1, 2 oder 4)
    • nvidia-tesla-p4 (count=1, 2 oder 4)
    • nvidia-tesla-k80 (count=1, 2, 4 oder 8)

    Nicht alle GPU-Typen werden in allen Regionen unterstützt. Einzelheiten hierzu finden Sie unter GPUs in Compute Engine.

  • Mit --metadata wird angegeben, dass der NVIDIA-Treiber für Sie installiert werden soll. Der Wert ist install-nvidia-driver=True. Ist er angegeben, lädt Compute Engine beim ersten Start den aktuellen stabilen Treiber und führt die erforderlichen Schritte aus, einschließlich eines abschließenden Neustarts zum Aktivieren des Treibers.

Wenn Sie sich für das Installieren von NVIDIA-Treibern entschieden haben, dauert die Installation drei bis fünf Minuten.

Die vollständige Bereitstellung der VM kann bis zu fünf Minuten dauern. In diesem Zeitraum können Sie keine SSH-Verbindung mit dem Computer herstellen. Nach Abschluss der Installation können Sie prüfen, ob die Treiber erfolgreich installiert wurden. Dazu stellen Sie eine SSH-Verbindung her und führen nvidia-smi aus.

Wenn Sie das Image konfiguriert haben, können Sie einen Snapshot des Image speichern. Sie können davon abgeleitete Instanzen erstellen, ohne dass Sie abwarten müssen, bis die Treiber installiert wurden.

Über TensorFlow Enterprise

TensorFlow Enterprise ist eine Distribution von TensorFlow, die für die Ausführung in Google Cloud optimiert wurde und Langzeitsupport für die einzelnen Versionen enthält.

Instanz auf Abruf erstellen

Sie können eine Deep Learning-VM-Instanz auf Abruf erstellen. Eine Instanz auf Abruf kann zu einem wesentlich günstigeren Preis als normale Instanzen erstellt und ausgeführt werden. Compute Engine kann diese Instanzen jedoch (auf Abruf) beenden, wenn für andere Aufgaben Zugriff auf diese Ressourcen benötigt wird. Instanzen auf Abruf werden immer nach 24 Stunden beendet. Weitere Informationen zu Instanzen auf Abruf finden Sie unter VM-Instanzen auf Abruf.

So erstellen Sie eine Deep Learning-VM-Instanz auf Abruf:

  • Befolgen Sie die obige Anleitung und erstellen Sie eine neue Instanz über die Befehlszeile. An den Befehl gcloud compute instances create fügen Sie Folgendes an:

      --preemptible

Nächste Schritte

Eine Anleitung zum Herstellen einer Verbindung mit Ihrer neuen Deep-Learning-VM-Instanz über die Cloud Console oder die Befehlszeile finden Sie unter Verbindung zu Instanzen herstellen. Als Name der Instanz wird der von Ihnen angegebene Bereitstellungsname mit dem Suffix -vm verwendet.