Deep Learning-VM-Instanz über die Befehlszeile erstellen

In diesem Abschnitt wird beschrieben, wie Sie eine neue Deep Learning VM Images-Instanz über die Befehlszeile erstellen. Sie können das gcloud-Befehlszeilentool mit Ihrer bevorzugten SSH-Anwendung oder in Cloud Shell verwenden.

Hinweise

Wenn Sie die Google Cloud CLI zum Erstellen einer neuen Deep-Learning-VM-Instanz verwenden möchten, müssen Sie zuerst die Google Cloud CLI installieren und initialisieren:

  1. Laden Sie die Google Cloud-CLI herunter und installieren Sie sie. Folgen Sie dabei der Anleitung unter Google Cloud CLI installieren.
  2. Initialisieren Sie das SDK gemäß der Anleitung in Cloud SDK initialisieren.

Wenn Sie gcloud in Cloud Shell verwenden möchten, aktivieren Sie zuerst Cloud Shell. Folgen Sie dazu der Anleitung unter Cloud Shell starten.

Wählen Sie anschließend das zu verwendende Deep Learning VM-Image aus. Ihre Auswahl hängt von Ihrem bevorzugten Framework und Prozessortyp ab. Weitere Informationen zu den verfügbaren Images finden Sie unter Image auswählen.

Instanz ohne GPUs erstellen

So stellen Sie eine Deep Learning VM-Instanz mit einer CPU, jedoch ohne GPU bereit:

export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release

Optionen:

  • --image-family muss einer der CPU-spezifischen Image-Typen sein. Weitere Informationen finden Sie unter Image auswählen.

  • --image-project muss deeplearning-platform-release lauten.

Instanz mit einer oder mehreren GPUs erstellen

Compute Engine bietet Ihnen die Möglichkeit, Ihren VM-Instanzen GPUs hinzuzufügen. GPUs ermöglichen bei vielen komplexen Aufgaben in den Bereichen Daten und maschinelles Lernen eine schnellere Verarbeitung. Weitere Informationen zu GPUs finden Sie unter GPUs in Compute Engine.

So stellen Sie eine Deep Learning VM-Instanz mit einer oder mehreren GPUs bereit:

export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"

gcloud compute instances create $INSTANCE_NAME \
  --zone=$ZONE \
  --image-family=$IMAGE_FAMILY \
  --image-project=deeplearning-platform-release \
  --maintenance-policy=TERMINATE \
  --accelerator="type=nvidia-tesla-v100,count=1" \
  --metadata="install-nvidia-driver=True"

Optionen:

  • --image-family muss einer der GPU-spezifischen Image-Typen sein. Weitere Informationen finden Sie unter Image auswählen.

  • --image-project muss deeplearning-platform-release lauten.

  • --maintenance-policy muss TERMINATE lauten. Weitere Informationen finden Sie unter GPU-Einschränkungen.

  • --accelerator gibt den zu verwendenden GPU-Typ an. Dieser muss im Format --accelerator="type=TYPE,count=COUNT" angegeben werden. Die folgenden Werte werden für TYPE unterstützt:

    • nvidia-tesla-v100 (count=1 oder 8)
    • nvidia-tesla-p100 (count=1, 2 oder 4)
    • nvidia-tesla-p4 (count=1, 2 oder 4)
    • nvidia-tesla-k80 (count=1, 2, 4 oder 8)

    Nicht alle GPU-Typen werden in allen Regionen unterstützt. Einzelheiten hierzu finden Sie unter GPUs in Compute Engine.

  • Mit --metadata wird angegeben, dass der NVIDIA-Treiber für Sie installiert werden soll. Der Wert ist install-nvidia-driver=True. Ist er angegeben, lädt Compute Engine beim ersten Start den aktuellen stabilen Treiber und führt die erforderlichen Schritte aus (einschließlich eines abschließenden Neustarts zum Aktivieren des Treibers).

Wenn Sie sich für das Installieren von NVIDIA-Treibern entschieden haben, dauert die Installation drei bis fünf Minuten.

Die vollständige Bereitstellung der VM kann bis zu fünf Minuten dauern. In diesem Zeitraum können Sie keine SSH-Verbindung mit dem Computer herstellen. Nach Abschluss der Installation können Sie sich überzeugen, dass die Treiber erfolgreich installiert wurden. Dazu stellen Sie eine SSH-Verbindung her und führen nvidia-smi aus.

Speichern Sie nach der Konfiguration einen Snapshot Ihres Image. Dann können Sie abgeleitete Instanzen starten, ohne auf die Installation der Treiber warten zu müssen.

Instanz auf Abruf erstellen

Sie können eine Deep Learning-VM-Instanz auf Abruf erstellen. Eine Instanz auf Abruf kann zu einem wesentlich günstigeren Preis als normale Instanzen erstellt und ausgeführt werden. Compute Engine kann diese Instanzen jedoch (auf Abruf) beenden, wenn für andere Aufgaben Zugriff auf diese Ressourcen benötigt wird. Instanzen auf Abruf werden immer nach 24 Stunden beendet. Weitere Informationen zu Instanzen auf Abruf finden Sie unter VM-Instanzen auf Abruf.

So erstellen Sie eine Deep Learning-VM-Instanz auf Abruf:

  • Folgen Sie den obigen Anweisungen und erstellen Sie eine neue Instanz. Fügen Sie an den Befehl gcloud compute instances create Folgendes an:

      --preemptible

Nächste Schritte

Eine Anleitung zum Herstellen einer Verbindung mit Ihrer neuen Deep Learning-VM-Instanz über die GCP Console oder die Befehlszeile finden Sie unter Verbindung zu Instanzen herstellen. Als Name der Instanz gilt der von Ihnen angegebene Bereitstellungsname mit dem Suffix -vm.