Instanzen mit GPU-Beschleunigern ausführen

Auf dieser Seite wird beschrieben, wie Sie die GPU-Hardwarebeschleuniger (GPU) von NVIDIA für Container-Optimized OS-VM-Instanzen verwenden.

Überblick

Mithilfe von Compute Engine können Sie VM-Instanzen mit angehängten GPUs erstellen, auf denen Container-Optimized OS ausgeführt wird. Sie können beim Ausführen von GPUs in Compute Engine nur zwei Maschinenfamilien verwenden: beschleunigeroptimiert und N1 für allgemeine Zwecke.

  • Bei beschleunigeroptimierten Maschinentypen ist jedem Maschinentyp ein bestimmtes Modell von NVIDIA-GPUs zugeordnet.

    • Für A3-Beschleuniger-optimierte Maschinentypen sind NVIDIA H100-GPUs mit 80 GB angehängt.
    • An A2-Beschleuniger-optimierte Maschinentypen sind NVIDIA A100-GPUs angehängt. Diese sind in den Optionen A100 mit 40 GB sowie A100 mit 80 GB verfügbar.
    • An G2-Beschleuniger optimierte Maschinentypen sind NVIDIA L4-GPUs angehängt.
  • Für N1-Maschinentypen für allgemeine Zwecke können Sie die folgenden GPUs anhängen:

GPUs bieten Rechenleistung, um Deep-Learning-Aufgaben wie Bilderkennung und Natural Language Processing sowie andere rechenintensive Aufgaben wie Videotranscodierung und Bildverarbeitung auszuführen.

Google Cloud bietet Ihnen die nahtlose Ausführung Ihrer GPU-Arbeitslasten in Containern auf Container-Optimized OS-VM-Instanzen. Damit können Sie von anderen Container-Optimized OS-Features wie Sicherheit und Zuverlässigkeit profitieren.

Weitere Informationen zu den Anwendungsfällen für GPUs finden Sie unter Cloud-GPUs.

Informationen zur Verwendung von GPUs in Google Kubernetes Engine (GKE) finden Sie unter GPUs in GKE ausführen.

Voraussetzungen

Für die Ausführung von GPUs auf Container-Optimized OS-VM-Instanzen gelten folgende Anforderungen:

  • x86-Images von Container-Optimized OS:Nur x86-basierte Container-Optimized OS-Images unterstützen die Ausführung von GPUs. ARM-basierte Container-Optimized OS-Images unterstützen das Feature nicht.

  • Version des Container-Optimized OS: Um GPUs auf Container-Optimized OS-VM-Instanzen auszuführen, muss der Meilenstein-Release des Container-Optimized OS ein LTS-Meilenstein und die Meilensteinnummer mindestens 85 sein.

  • GPU-Kontingent: Sie benötigen ein Compute Engine-GPU-Kontingent in der ausgewählten Zone, bevor Sie Container-Optimized OS-VM-Instanzen mit GPUs erstellen können. Unter Kontingente in der Google Cloud Console können Sie prüfen, ob in Ihrem Projekt ein ausreichendes GPU-Kontingent vorhanden ist.

    Wenn Sie ein höheres GPU-Kontingent benötigen, müssen Sie in der Google Cloud Console ein GPU-Kontingent anfordern. Falls Sie ein Abrechnungskonto eingerichtet haben, erhält Ihr Projekt nach dem Einreichen Ihrer Kontingentanfrage automatisch ein GPU-Kontingent.

  • NVIDIA-GPU-Treiber: Sie müssen NVIDIA GPU-Treiber manuell auf Ihren VM-Instanzen mit Container-Optimized OS installieren. In diesem Abschnitt wird erläutert, wie Sie die Treiber auf VM-Instanzen von Container-Optimized OS installieren.

VM erstellen

In den folgenden Abschnitten wird erläutert, wie GPUs auf VMs mit Container-Optimized OS ausgeführt werden.

Zuerst benötigen Sie eine VM-Instanz mit Container-Optimized OS und GPUs. Welche Methode zum Erstellen einer VM verwendet wird, hängt vom ausgewählten GPU-Modell ab.

Sie können auch vorhandenen Container-Optimized OS-VM-Instanzen GPUs hinzufügen.

Denken Sie beim Erstellen von VMs daran, Images oder Image-Familien aus dem Image-Projekt cos-cloud auszuwählen.

Führen Sie den folgenden Befehl aus, um alle GPUs zu prüfen, die Ihren aktuellen VM-Instanzen mit Container-Optimized OS zugeordnet sind:

gcloud compute instances describe INSTANCE_NAME \
    --project=PROJECT_ID \
    --zone ZONE \
    --format="value(guestAccelerators)"

Ersetzen Sie Folgendes:

  • INSTANCE_NAME ist der Name der neuen VM-Instanz.
  • PROJECT_ID ist Ihre Projekt-ID.
  • zone ist die Zone der VM-Instanz.

NVIDIA-GPU-Gerätetreiber installieren

Nachdem Sie eine Instanz mit einer oder mehreren GPUs erstellt haben, benötigt Ihr System Gerätetreiber, damit Ihre Anwendungen auf das Gerät zugreifen können. In dieser Anleitung wird beschrieben, wie Sie NVIDIA-eigenständige Treiber auf Container-Optimized OS-VM-Instanzen installieren können.

Container-Optimized OS stellt dasintegrierte Dienstprogramm cos-extensions zur Vereinfachung der Installation von NVIDIA-Treibern bereit. Durch Ausführen des Dienstprogramms stimmen Nutzer der NVIDIA-Lizenzvereinbarung zu.

GPU-Treiberversionen ermitteln

Jede Version eines Container-Optimized OS-Images hat eine standardmäßig unterstützte NVIDIA GPU-Treiberversion. In den Versionshinweisen zu den wichtigsten LTS-Meilensteinen für Container-Optimized OS finden Sie die standardmäßig unterstützte Version.

Sie können auch alle unterstützten GPU-Treiberversionen prüfen. Führen Sie dazu folgenden Befehl auf Ihrer VM-Instanz unter dem Container-Optimized OS aus:

sudo cos-extensions list

K80-GPU-Kompatibilität

NVIDIA R470-Treiber sind die letzte Treiberfamilie, die K80-GPU unterstützt. Wenn eine höhere Version in einer Instanz mit K80-GPU installiert werden soll, greift der von cos-extensions aufgerufene cos-gpu-installer:v2 (ab Version 2.0.26) automatisch auf eine verfügbare R470-Version zurück.

Erforderliche CUDA-Toolkit-Version ermitteln

Wenn Ihre Anwendungen CUDA verwenden, installieren Sie das CUDA-Toolkit von NVIDIA in Ihren Containern. Für jede CUDA-Version ist mindestens eine GPU-Treiberversion oder eine neuere Version erforderlich. Informationen zum Prüfen der für Ihre CUDA-Version erforderlichen Mindest-GPU-Treiberversion finden Sie unter CUDA-Toolkit und kompatible Treiberversionen. Achten Sie darauf, dass die von Ihnen verwendete Container Optimized OS-Version die GPU-Treiberversion für die von Ihnen verwendete CUDA-Version hat.

Treiber installieren

Sie können GPUs mit Shell-Befehlen, Startup-Skripts oder cloud-init installieren. Bei allen drei Methoden wird mit dem Befehl sudo cos-extensions install gpu der GPU-Standardtreiber für die LTS-Version von Container-Optimized OS installiert.

Shell

Nach dem Herstellen einer Verbindung zu Ihren Container-Optimized OS-VM-Instanzen können Sie folgenden Befehl manuell ausführen, um Treiber zu installieren:

sudo cos-extensions install gpu

Startskripts

Sie können GPU-Treiber auch mithilfe von Startskripts installieren. Sie können das Startskript angeben, wenn Sie VM-Instanzen erstellen, das Skript auf laufende VM-Instanzen anwenden und die VMs dann neu starten, um die Option zu aktivieren. Auf diese Weise können Sie Treiber installieren, ohne eine Verbindung zu den VMs herzustellen. Außerdem werden die GPU-Treiber bei jedem VM-Neustart konfiguriert.

Das folgende Beispiel zeigt ein Startskript zum Installieren von Treibern:

#! /bin/bash

sudo cos-extensions install gpu

Cloud-init

"cloud-init" ähnelt Startskripts, ist jedoch leistungsfähiger. Im folgenden Beispiel wird gezeigt, wie Sie GPU-Treiber über cloud-init installieren:

#cloud-config

runcmd:
  - cos-extensions install gpu

Mit cloud-init können Sie die Abhängigkeiten angeben, sodass Ihre GPU-Anwendungen erst ausgeführt werden, nachdem der Treiber installiert wurde. Weitere Informationen finden Sie im Abschnitt End-to-End: GPU-Anwendung auf Container-Optimized-OS ausführen.

Weitere Informationen zur Verwendung von cloud-init auf VM-Instanzen mit Container-Optimized-OS finden Sie auf der Seite Instanzen erstellen und konfigurieren.

In einigen Fällen erfüllt der Standardtreiber nicht die Mindesttreiberanforderungen Ihres CUDA-Toolkits oder Ihres GPU-Modells. Hängen Sie das Versions-Flag an, um eine bestimmte Treiberversion des GPU-Treibers zu installieren. Ersetzen Sie DRIVER_VERSION durch die GPU-Treiberversion, die für Ihr GPU-Modell erforderlich und von Container-Optimized OS unterstützt wird. Container-Optimized OS unterstützt nur eine ausgewählte Reihe von NVIDIA-Treibern.

sudo cos-extensions install gpu -- -version=DRIVER_VERSION

Installation überprüfen

Sie können auf Ihren VM-Instanzen mit Container-Optimized OS folgende Befehle ausführen, um die Installation der GPU-Treiber manuell zu prüfen: Die Ausgabe des Befehls zeigt die GPU-Geräteinformationen, z. B. Gerätestatus und Treiberversion.

# Make the driver installation path executable by re-mounting it.
sudo mount --bind /var/lib/nvidia /var/lib/nvidia
sudo mount -o remount,exec /var/lib/nvidia
/var/lib/nvidia/bin/nvidia-smi

Container für die Nutzung von GPUs konfigurieren

Nachdem die GPU-Treiber installiert wurden, können Sie Container so konfigurieren, dass sie GPUs nutzen. Das folgende Beispiel zeigt, wie Sie eine CUDA-Anwendung in einem Docker-Container ausführen, der /dev/nvidia0 verwendet:

docker run \
  --volume /var/lib/nvidia/lib64:/usr/local/nvidia/lib64 \
  --volume /var/lib/nvidia/bin:/usr/local/nvidia/bin \
  --device /dev/nvidia0:/dev/nvidia0 \
  --device /dev/nvidia-uvm:/dev/nvidia-uvm \
  --device /dev/nvidiactl:/dev/nvidiactl \
  gcr.io/google_containers/cuda-vector-add:v0.1

Sie können Ihre Container über cloud-init ausführen, um die Abhängigkeit zwischen den Treiberinstallationen und Ihren Containern anzugeben. Weitere Informationen finden Sie im Abschnitt End-to-End: GPU-Anwendung auf Container-Optimized OS ausführen.

End-to-End: GPU-Anwendung auf Container-Optimized-OS ausführen

Im folgenden End-to-End-Beispiel wird gezeigt, wie Sie mithilfe von cloud-init Container-Optimized-OS-VM-Instanzen konfigurieren, die einen GPU-Anwendungscontainer myapp:latest bereitstellen, nachdem der GPU-Treiber installiert wurde:

#cloud-config

users:
- name: myuser
  uid: 2000

write_files:
  - path: /etc/systemd/system/install-gpu.service
    permissions: 0644
    owner: root
    content: |
      [Unit]
      Description=Install GPU drivers
      Wants=gcr-online.target docker.socket
      After=gcr-online.target docker.socket

      [Service]
      User=root
      Type=oneshot
      ExecStart=cos-extensions install gpu
      StandardOutput=journal+console
      StandardError=journal+console
  - path: /etc/systemd/system/myapp.service
    permissions: 0644
    owner: root
    content: |
      [Unit]
      Description=Run a myapp GPU application container
      Requires=install-gpu.service
      After=install-gpu.service

      [Service]
      User=root
      Type=oneshot
      RemainAfterExit=true
      ExecStart=/usr/bin/docker run --rm -u 2000 --name=myapp --device /dev/nvidia0:/dev/nvidia0 myapp:latest
      StandardOutput=journal+console
      StandardError=journal+console

runcmd:
  - systemctl daemon-reload
  - systemctl start install-gpu.service
  - systemctl start myapp.service

Informationen zu NVIDIA CUDA-X-Bibliotheken

CUDA® ist die NVIDIA-Plattform für paralleles Computing und das Programmiermodell für GPUs. Zur Verwendung von CUDA-Anwendungen müssen die Bibliotheken in dem von Ihnen verwendeten Image vorhanden sein. Sie haben folgende Möglichkeiten, die NVIDIA CUDA-X-Bibliotheken hinzuzufügen:

  • Verwenden Sie ein Image mit den vorinstallierten NVIDIA CUDA-X-Bibliotheken. Sie können beispielsweise Deep Learning Container von Google verwenden. In diesen Containern werden die wichtigsten Data-Science-Frameworks, die NVIDIA CUDA-X-Bibliotheken und die Tools vorinstalliert. Alternativ enthält das CUDA-Image von NVIDIA nur die NVIDIA CUDA-X-Bibliotheken.

  • Erstellen und verwenden Sie ein eigenes Image. Fügen Sie in diesem Fall /usr/local/cuda-XX.X/lib64 mit den NVIDIA CUDA-X-Bibliotheken und /usr/local/nvidia/lib64 mit den NVIDIA-Gerätetreibern in die Umgebungsvariable LD_LIBRARY_PATH ein. Der Name des Verzeichnisses hängt bei /usr/local/cuda-XX.X/lib64 von der Version des verwendeten Images ab. Zum Beispiel können sich NVIDIA CUDA-X-Bibliotheken und Dienstprogramme zur Fehlerbehebung in Docker-Containern unter /usr/local/cuda-11.0/lib64 bzw. /usr/local/nvidia/bin befinden.

Sicherheit

Wie andere Kernel-Module auf Container-Optimized OS sind GPU-Treiber kryptografisch verschlüsselt und werden durch Schlüssel verifiziert, die in den Container-Optimized OS-Kernel eingebunden sind. Im Gegensatz zu anderen Distributionen ist es bei Container-Optimized OS nicht möglich, dass Nutzer ihren Computerinhaberschlüssel (MOK) registrieren und damit benutzerdefinierte Kernel-Module signieren. Dadurch werden die Integrität des Kernels des Container-Optimized OS sichergestellt und die Angriffsoptionen reduziert.

Einschränkungen

Versionseinschränkungen des Container-Optimized OS

Nur das Container-Optimized OS LTS-Meilenstein-Release 85 und höher unterstützen das cos-extensions-Dienstprogramm, das im Abschnitt NVIDIA-GPU-Treiber installieren erwähnt wird. Verwenden Sie für frühere Meilenstein-Releases von Container-Optimized OS das Open-Source-Tool cos-gpu-installer, um GPU-Treiber manuell zu installieren.

Einschränkungen für VM-Instanzen

VM-Instanzen mit GPUs unterliegen bestimmten Beschränkungen. Daher verhalten sie sich anders als andere Instanztypen. Weitere Informationen finden Sie auf der Compute Engine-Seite GPU-Einschränkungen.

Kontingent und Verfügbarkeit

GPUs sind in bestimmten Regionen und Zonen verfügbar. Berücksichtigen Sie also bei Ihrer GPU-Kontingent die Regionen, in denen Sie Ihre VM-Instanzen mit Container-Optimized-OS ausführen möchten.

Eine vollständige Liste der betreffenden Regionen und Zonen finden Sie unter GPUs in Compute Engine. Mit dem Google Cloud CLI können Sie auch GPUs aufrufen, die in Ihrer Zone verfügbar sind.

gcloud compute accelerator-types list

Preise

GPU-Preiseinformationen finden Sie auf der Seite Compute Engine-Preise.

Support

Jede Version des Container-Optimized-OS ist mindestens eine unterstützte NVIDIA GPU-Treiberversion. Das Container-Optimized-OS-Team erfüllt die unterstützten GPU-Treiber vor der Veröffentlichung mit der Version des Container-Optimized-OS, um sicherzustellen, dass sie kompatibel sind. Es werden gelegentlich neue Versionen der NVIDIA-GPU-Treiber bereitgestellt. Einige GPU-Treiberversionen eignen sich nicht für Container-Optimized OS und der Qualifizierungszeitraum kann nicht garantiert werden.

Wenn das Container-Optimized OS-Team eine neue Version per Release-Meilenstein veröffentlicht, versuchen wir, die neueste GPU-Treiberversion im entsprechenden Treiberzweig zu unterstützen. Damit werden Sicherheitslücken behoben, die in GPU-Treibern festgestellt werden.

Wenn ein Kunde mit Container-Optimized-OS ein Problem feststellt, das sich auf die NVIDIA-GPU-Treiber bezieht, muss der Kunde direkt mit NVIDIA zusammenarbeiten. Wenn das Problem nicht treiberspezifisch ist, können Nutzer eine Anfrage beim Cloud Customer Care stellen.

Nächste Schritte