Activer et utiliser des GPU NVIDIA sur des VM avec l'environnement d'exécution des VM sur GDC

Ce document explique comment activer la compatibilité des GPU NVIDIA® pour les machines virtuelles (VM) exécutées à l'aide de l'environnement d'exécution VM sur GDC. Vous apprendrez à installer les pilotes NVIDIA sur vos nœuds GKE sur bare metal, à vérifier que les GPU sont disponibles et à attribuer des GPU aux VM.

Avant de commencer

Pour suivre les instructions de ce document, vous devez disposer des ressources suivantes :

Cartes de GPU Nvidia compatibles

GKE sur Bare Metal version 1.13 ou ultérieure est compatible avec les GPU NVIDIA suivants:

  • Tesla T4
  • Tesla P4
  • Tesla V100 SXM2 32 Go
  • A100 SXM4 40 Go
  • A100 PCIe 40 Go
  • A100 SXM4 80 Go
  • A100 PCIe 80 Go

Installer des pilotes NVIDIA sur des nœuds

Avant que vos VM puissent utiliser les GPU NVIDIA, vous devez configurer vos nœuds GKE sur Bare Metal pour qu'ils soient compatibles avec les appareils GPU. Pour installer les pilotes NVIDIA sur vos nœuds, procédez comme suit sur chaque nœud de votre cluster comprenant un GPU NVIDIA. Ce document utilise une version d'Ubuntu compatible pour les nœuds :

  1. Connectez-vous au nœud GKE sur Bare Metal que vous souhaitez configurer pour la compatibilité GPU.
  2. Obtenez la version de noyau de votre nœud :

    KERNEL_VERSION="$(uname -r)"
    
  3. Mettez à jour votre nœud Ubuntu et installez les en-têtes de noyau appropriés :

    sudo apt update && \
    apt install -y linux-headers-${KERNEL_VERSION}
    
  4. Installez le package build-essential pour pouvoir compiler les pilotes Nvidia dans une étape suivante :

    sudo apt install -y build-essential
    
  5. Téléchargez le package de pilotes NVIDIA approprié pour votre GPU. Pour obtenir la liste complète des pilotes, consultez la page Téléchargements des pilotes NVIDIA.

    L'exemple suivant télécharge la version 470.82.01 du pilote Linux x86_64 :

    wget https://us.download.nvidia.com/tesla/470.82.01/NVIDIA-Linux-x86_64-470.82.01.run
    
  6. Installez le package de pilotes NVIDIA. Utilisez le nom du package de pilotes NVIDIA que vous avez téléchargé à l'étape précédente :

    sudo sh NVIDIA-Linux-x86_64-470.82.01.run \
      --accept-license \
      --silent \
      --no-nouveau-check
    
  7. Chargez le module de noyau NVIDIA :

    sudo modprobe nvidia
    
  8. Répétez les étapes de cette section sur chaque nœud de votre cluster disposant d'un GPU NVIDIA.

Activer la prise en charge des GPU dans l'environnement d'exécution des VM sur GDC

Après avoir installé les pilotes NVIDIA sur vos nœuds GKE sur bare metal, vous activez la compatibilité avec les GPU dans l'environnement d'exécution des VM sur GDC. Vos VM peuvent ensuite accéder aux GPU sur les nœuds.

Chaque nœud redémarre dans le cadre du processus suivant. Vos VM peuvent être affectées par ce processus de redémarrage. Si possible et si leur configuration le permet, les VM pouvant être migrées sont migrées vers d'autres nœuds. Pour en savoir plus, découvrez comment configurer la règle d'éviction des VM lors des événements de maintenance.

Pour activer la compatibilité GPU dans l'environnement d'exécution des VM sur GDC, procédez comme suit.

  1. Modifiez la ressource personnalisée VMRuntime :

    kubectl edit vmruntime vmruntime
    
  2. Ajoutez la propriété enableGPU: true au fichier manifeste VMRuntime :

    apiVersion: vm.cluster.gke.io/v1
    kind: VMRuntime
    metadata:
      name: vmruntime
    spec:
      enabled: true
      enableGPU: true
    ...
    
  3. Enregistrez et fermez la ressource personnalisée VMRuntime dans votre éditeur.

  4. Vérifiez l'état des contrôleurs de GPU dans l'espace de noms vm-system :

    kubectl get pods --namespace vm-system  -w
    

    L'activation des contrôleurs prend environ cinq minutes. Attendez que l'état (STATUS) affiche Running pour tous les contrôleurs de GPU. L'exemple de sortie suivante affiche l'état souhaité :

    NAME                                          READY  STATUS    RESTARTS     AGE
    gpu-controller-controller-manager-gwvcb       2/2    Running   0            10m
    kubevirt-gpu-dp-daemonset-2lfkl               1/1    Running   0            10m
    kubevm-gpu-driver-daemonset-5fwh6             1/1    Running   0            10m
    nvidia-gpu-dp-daemonset-9zq2w                 1/1    Running   0            10m
    nvidia-mig-manager-5g7pz                      1/1    Running   0            10m
    vm-controller-controller-manager-7b6df6979b   2/2    Running   2 (13m ago)  14m
    
  5. Vérifiez que les GPU sont disponibles lorsque les contrôleurs de GPU indiquent tous leur état comme Running :

    kubectl get gpuallocations --namespace vm-system
    

    L'exemple de sortie suivante montre que les GPU des nœuds peuvent être utilisés. Chaque nœud de votre cluster compatible avec les GPU s'affiche. Dans la section suivante, vous allez les allouer à des VM :

    NAME       ALLOCATED   DEVICEMODEL
    bm-node1   true        Tesla A100 SXM4 40GB
    bm-node2   true        Tesla A100 SXM4 40GB
    

Allouer des GPU à utiliser avec les VM

Une fois la compatibilité GPU configurée dans les clusters Anthos sur nœuds bare metal et dans l'environnement d'exécution des VM sur GDC, allouez les GPU à utiliser avec des VM. Par défaut, les GPU sont alloués pour être utilisés avec les pods (conteneurs).

  1. Modifiez la ressource personnalisée GPUAllocation à utiliser avec les VM. Cette étape attribue les GPU sur les nœuds à utiliser avec les VM :

    kubectl edit gpuallocation NODE_NAME --namespace vm-system
    

    Remplacez NODE_NAME par le nom du nœud à partir duquel vous souhaitez allouer des GPU.

  2. Configurez le nombre de GPU à allouer aux VM. Initialement, tous les GPU sont alloués aux pods.

    Le nombre total de GPU alloués aux VM et aux pods doit être égal au nombre de GPU dans le nœud. Par exemple, votre nœud peut comporter quatre GPU. Si vous allouez deux GPU aux VM, deux GPU restent alloués aux pods. Le fichier manifeste GPUAllocation est rejeté si vous essayez d'allouer deux GPU aux VM et un GPU aux pods, car un GPU n'est pas alloué.

    Mettez à jour le nombre de GPU sur le nœud que vous souhaitez allouer pour l'utilisation avec des VM, comme indiqué dans l'exemple suivant :

    apiVersion: gpu.cluster.gke.io/v1
    kind: GPUAllocation
    metadata:
      name: gpu-w2
      namespace: vm-system
    spec:
      node: gpu-w2
      pod: 0
      vm: 4
    

    Dans cet exemple, les quatre GPU installés dans le nœud sont alloués aux VM. Aucun GPU n'est alloué aux pods.

  3. Enregistrez et fermez la ressource personnalisée GPUAllocation dans votre éditeur.

  4. Vérifiez que les GPU signalent leur état ALLOCATED comme true :

    kubectl get gpuallocations --namespace vm-system
    

    L'exemple de sortie suivante montre que les GPU des nœuds peuvent être utilisés :

    NAME     ALLOCATED   DEVICEMODEL
    gpu-w1   true        Tesla A100 SXM4 40GB
    gpu-w2   true        Tesla A100 SXM4 40GB
    

Créer une VM compatible avec les GPU

Vous pouvez maintenant créer une VM qui utilise le GPU du nœud. Dans la ressource personnalisée de VM, vous spécifiez le nom et la quantité de GPU du nœud à allouer.

  1. Obtenez le nom de la carte GPU à partir de l'hôte :

    kubectl describe node NODE_NAME
    

    Remplacez NODE_NAME par le nom de l'hôte à partir duquel vous souhaitez obtenir le nom du GPU.

    L'exemple de sortie suivante montre que le nom du GPU pouvant être alloué sur ce nœud est NVIDIA_A100_SXM4_40GB :

    Name:               bm-node1
    Roles:              worker
    [...]
    Allocatable:
      cpu:                                         47810m
      [...]
      memory:                                      336929400Ki
      nvidia.com/gpu-vm-NVIDIA_A100_SXM4_40GB:     1
    [...]
    
  2. Créez un fichier manifeste VirtualMachine, tel que my-gpu-vm.yaml, dans l'éditeur de votre choix :

    nano my-gpu-vm.yaml
    
  3. Copiez et collez le fichier manifeste YAML suivant :

    apiVersion: vm.cluster.gke.io/v1
    kind: VirtualMachine
    metadata:
      name: VM_NAME
    spec:
      interfaces:
        - name: eth0
          networkName: pod-network
          default: true
      disks:
        - virtualMachineDiskName: VM_NAME-boot-dv
          boot: true
          gpu:
            model: nvidia.com/gpu-vm-GPU_NAME
            quantity: 1
    

    Dans ce fichier YAML, définissez les paramètres suivants :

    • VM_NAME : nom de votre VM.
    • GPU_NAME : nom du GPU du nœud à allouer à la VM.
      • Ce nom de GPU est affiché dans la sortie de la commande kubectl describe node d'une étape précédente, tel que NVIDIA_A100_SXM4_40GB.

    La VM connecte eth0 au réseau pod-network par défaut.

    Le disque de démarrage nommé VM_NAME-boot-dv doit déjà exister. Pour plus d'informations, consultez la page Créer et gérer des disques virtuels.

  4. Enregistrez et fermez le fichier manifeste de VM dans votre éditeur.

  5. Créez la VM en utilisant kubectl :

    kubectl apply -f my-gpu-vm.yaml
    
  6. Une fois votre VM en cours d'exécution, connectez-vous à celle-ci et vérifiez que le matériel GPU est disponible.

Étapes suivantes