Configurer la planification des VM compatibles avec NUMA

Ce document explique comment configurer des clusters et des VM pour gérer des charges de travail hautes performances et à faible latence avec l'efficacité de calcul de l'accès à la mémoire non uniforme (NUMA). Vous trouverez des instructions pour régler les paramètres Kubernetes pour les nœuds de cluster. Ce document comprend également des instructions sur la configuration des machines virtuelles (VM) avec l'affinité NUMA, afin qu'elles soient planifiées et optimisées pour les nœuds NUMA.

Avec une VM compatible avec NUMA, toutes les communications au sein de la VM sont locales, vers le nœud NUMA. La VM compatible avec NUMA évite les transactions de données vers et depuis des ressources distantes qui peuvent dégrader les performances de la VM.

Configurer les nœuds pour utiliser NUMA

Les sections suivantes décrivent comment configurer les composants Kubernetes essentiels pour régler le nœud et s'assurer qu'il peut planifier des conteneurs compatibles avec NUMA. Ces nœuds NUMA sont réglés pour optimiser les performances du processeur et de la mémoire. Suivez les instructions pour chaque nœud sur lequel vous souhaitez exécuter des VM compatibles avec NUMA.

Mettre à jour la configuration du kubelet

Dans le cadre de la configuration des nœuds compatible avec l'affinité de nœuds NUMA, vous devez apporter les modifications suivantes à la configuration du kubelet:

  • Activer le gestionnaire de processeurs avec une règle static
  • Activer le gestionnaire de mémoire avec une règle Static
  • Activer le gestionnaire de topologie avec la topologie restricted

Pour configurer kubelet sur votre nœud de calcul:

  1. Recherchez le fichier kubelet sur votre nœud de calcul et ouvrez-le pour le modifier:

    edit /etc/default/kubelet
    

    Si vous ne voyez pas le fichier kubelet, créez-le à l'aide de la commande suivante:

    echo "KUBELET_EXTRA_ARGS=\"\"" >> /etc/default/kubelet
    

    Cette commande crée le fichier kubelet avec une section KUBELET_EXTRA_ARGS="" vide.

  2. Pour activer le gestionnaire de processeurs avec une règle static, ajoutez l'option --cpu-manager-policy=static à la section KUBELET_EXTRA_ARGS="" du fichier:

    KUBELET_EXTRA_ARGS="--cpu-manager-policy=static"
    
  3. Pour activer le gestionnaire de mémoire avec une règle Static, ajoutez l'option --memory-manager-policy=Static à la section KUBELET_EXTRA_ARGS="" du fichier:

    KUBELET_EXTRA_ARGS="--cpu-manager-policy=static --memory-manager-policy=Static"
    
  4. Pour activer le gestionnaire de topologie avec une règle restricted, ajoutez l'option --topology-manager-policy=restricted à la section KUBELET_EXTRA_ARGS="" du fichier:

    KUBELET_EXTRA_ARGS="--cpu-manager-policy=static --memory-manager-policy=Static --topology-manager-policy=restricted"
    
  5. Vérifiez la quantité de mémoire actuellement réservée par GKE sur une solution Bare Metal:

    cat /var/lib/kubelet/kubeadm-flags.env
    

    Le résultat doit se présenter sous la forme suivante :

    KUBELET_KUBEADM_ARGS="--anonymous-auth=false --authentication-token-webhook=true --authorization-mode=Webhook --container-runtime=remote --container-runtime-endpoint=unix:///run/containerd/containerd.sock --feature-gates=SeccompDefault=true --kube-reserved=cpu=100m,memory=3470Mi --max-pods=110 --node-ip=192.168.1.190 --node-labels=baremetal.cluster.gke.io/k8s-ip=192.168.1.190,baremetal.cluster.gke.io/namespace=cluster-user001,baremetal.cluster.gke.io/node-pool=node-pool-1,cloud.google.com/gke-nodepool=node-pool-1 --pod-infra-container-image=gcr.io/anthos-baremetal-release/pause-amd64:3.1-gke.5 --provider-id=baremetal://192.168.1.190 --read-only-port=10255 --rotate-server-certificates=true --seccomp-default=true"

    Le paramètre --kube-reserved=cpu=100m,memory=3470Mi indique que GKE sur Bare Metal a réservé 3 470 mébioctets de mémoire sur le nœud.

  6. Définissez l'option --reserved-memory dans la section KUBELET_EXTRA_ARGS du fichier kubelet sur 100 mébioctets de plus que la mémoire réservée actuelle afin de tenir compte du seuil d'éviction. Si aucune mémoire n'est réservée, vous pouvez ignorer cette étape.

    Par exemple, avec la mémoire réservée de 3470Mi de l'exemple de l'étape précédente, vous réservez 3570Mi de mémoire dans le fichier kubelet:

    KUBELET_EXTRA_ARGS="--cpu-manager-policy=static --memory-manager-policy=Static --topology-manager-policy=restricted --reserved-memory=0:memory=3570Mi"
    
  7. Supprimez les fichiers d'état du processeur et de la mémoire du répertoire /var/lib:

    rm /var/lib/cpu_manager_state
    rm /var/lib/memory_manager_state
    
  8. Redémarrez kubelet:

    systemctl start kubelet
    

Pour en savoir plus sur ces paramètres de stratégie, consultez la documentation Kubernetes suivante:

Configurer le nœud pour utiliser les "hugepages"

Une fois que vous avez activé le gestionnaire de mémoire avec la règle Static, vous pouvez ajouter d'énormes pages pour améliorer encore les performances des charges de travail de conteneurs sur vos nœuds NUMA. Comme son nom l'indique, la page "Hoverpages" vous permet de spécifier les pages de mémoire d'une taille supérieure au quota standard de 4 kibioctets (Kio). L'environnement d'exécution des VM sur Google Distributed Cloud accepte les énormes pages de 2 mébioctet (Mio) et de 1 gibioctet (Gio). Vous pouvez définir des "hugepages" pour un nœud au moment de l'exécution ou au moment du démarrage de la machine. Nous vous recommandons de configurer de grandes pages sur chaque nœud sur lequel vous souhaitez exécuter des VM compatibles avec NUMA.

  1. Pour configurer le nombre de "hugepages" d'une taille spécifique sur votre nœud NUMA au moment de l'exécution, utilisez la commande suivante:

    echo HUGEPAGE_QTY > \
        /sys/devices/system/node/NUMA_NODE/hugepages/hugepages-HUGEPAGE_SIZEkB/nr_hugepages
    

    Remplacez les éléments suivants :

    • HUGEPAGE_QTY: nombre d'énormes pages à allouer pour la taille spécifiée.

    • NUMA_NODE: nœud NUMA, tel que node0, auquel vous allouez des énormespages.

    • HUGEPAGE_SIZE: taille des "hugepages" en kibioctets, 2048 (2 Mio) ou 1048576 (1 Gio).

Configurer une VM pour utiliser le nœud NUMA

Une fois que les nœuds de votre cluster sont réglés pour NUMA, vous pouvez créer des VM compatibles avec NUMA. Les VM compatibles avec NUMA sont planifiées sur des nœuds NUMA.

Pour créer une VM compatible avec NUMA, procédez comme suit:

  1. Suivez les instructions pour créer une VM à partir d'un fichier manifeste.

    Utilisez les paramètres compute suivants pour configurer votre VM de sorte qu'elle prenne en compte NUMA:

    • spec.compute.guaranteed: définissez guaranteed sur true. Avec ce paramètre, le pod virt-launcher est configuré pour être placé dans la classe de qualité de service (QoS) garantie par Kubernetes.

    • spec.compute.advancedCompute:

      • dedicatedCPUPlacement: définissez dedicatedCPUPlacement sur true. Ce paramètre épingle les processeurs virtuels aux processeurs physiques du nœud.
      • hugePageSize: définissez hugePageSize sur 2Mi ou 1Gi pour spécifier la taille "hugepages" que votre VM doit utiliser (2 mébioctet ou 1 gibioctet).
      • numaGuestMappingPassthrough: incluez une structure vide ({}) pour ce paramètre. Ce paramètre établit une affinité NUMA afin que votre VM ne soit programmée que sur des nœuds NUMA.

    L'exemple de fichier manifeste de VirtualMachine suivant montre à quoi peut ressembler une configuration de VM compatible avec NUMA:

    apiVersion: vm.cluster.gke.io/v1
    kind: VirtualMachine
    metadata:
      name: vm1
    spec:
      compute:
        cpu:
          vcpus: 2
        guaranteed: true
        advancedCompute:
          dedicatedCPUPlacement: true
          hugePageSize: 2Mi
          numaGuestMappingPassthrough: {}
        memory:
          capacity: 256Mi
      interfaces:
      - name: eth0
        networkName: pod-network
        default: true
      disks:
      - virtualMachineDiskName: disk-from-gcs
        boot: true
        readOnly: true