Ce document explique comment configurer des clusters et des VM pour gérer des charges de travail hautes performances et à faible latence avec l'efficacité de calcul de l'accès à la mémoire non uniforme (NUMA). Il existe des instructions concernant l'ajustement des paramètres Kubernetes pour les nœuds de cluster. Ce document inclut également des instructions pour configurer des machines virtuelles (VM) avec une affinité NUMA afin qu'elles soient planifiées et qu'elles profitent des nœuds NUMA.
Avec une VM compatible NUMA, toutes les communications au sein de la VM sont locales vers le nœud NUMA. La VM compatible NUMA évite les transactions de données vers et depuis des ressources distantes qui peuvent dégrader les performances de la VM.
Configurer les nœuds pour qu'ils utilisent NUMA
Les sections suivantes décrivent comment configurer les composants Kubernetes critiques pour ajuster le nœud et s'assurer qu'il peut planifier des conteneurs compatibles avec NUMA. Ces nœuds NUMA sont réglés pour optimiser les performances du processeur et de la mémoire. Suivez les instructions pour chaque nœud sur lequel vous souhaitez exécuter des VM compatibles NUMA.
Mettre à jour la configuration du kubelet
Dans le cadre de la configuration des nœuds pour assurer l'affinité de nœuds NUMA, vous devez apporter les modifications suivantes à la configuration du kubelet:
- Activer le gestionnaire de processeur avec une règle
static
- Activer le gestionnaire de mémoire avec une règle
Static
- Activer le gestionnaire de topologie avec la topologie
restricted
Pour configurer kubelet sur votre nœud de calcul:
Recherchez le fichier
kubelet
sur votre nœud de calcul et ouvrez-le pour le modifier:edit /etc/default/kubelet
Si le fichier
kubelet
ne s'affiche pas, créez-le à l'aide de la commande suivante:echo "KUBELET_EXTRA_ARGS=\"\"" >> /etc/default/kubelet
Cette commande crée le fichier
kubelet
avec une sectionKUBELET_EXTRA_ARGS=""
vide.Pour activer le gestionnaire de processeur avec une règle
static
, ajoutez l'option--cpu-manager-policy=static
à la sectionKUBELET_EXTRA_ARGS=""
du fichier:KUBELET_EXTRA_ARGS="--cpu-manager-policy=static"
Pour activer le gestionnaire de mémoire avec une règle
Static
, ajoutez l'option--memory-manager-policy=Static
à la sectionKUBELET_EXTRA_ARGS=""
du fichier:KUBELET_EXTRA_ARGS="--cpu-manager-policy=static --memory-manager-policy=Static"
Pour activer le gestionnaire de topologie avec une règle
restricted
, ajoutez l'option--topology-manager-policy=restricted
à la sectionKUBELET_EXTRA_ARGS=""
du fichier:KUBELET_EXTRA_ARGS="--cpu-manager-policy=static --memory-manager-policy=Static --topology-manager-policy=restricted"
Vérifiez la quantité de mémoire actuellement réservée par Google Distributed Cloud :
cat /var/lib/kubelet/kubeadm-flags.env
Le résultat doit se présenter sous la forme suivante :
KUBELET_KUBEADM_ARGS="--anonymous-auth=false --authentication-token-webhook=true --authorization-mode=Webhook --container-runtime=remote --container-runtime-endpoint=unix:///run/containerd/containerd.sock --feature-gates=SeccompDefault=true --kube-reserved=cpu=100m,memory=3470Mi --max-pods=110 --node-ip=192.168.1.190 --node-labels=baremetal.cluster.gke.io/k8s-ip=192.168.1.190,baremetal.cluster.gke.io/namespace=cluster-user001,baremetal.cluster.gke.io/node-pool=node-pool-1,cloud.google.com/gke-nodepool=node-pool-1 --pod-infra-container-image=gcr.io/anthos-baremetal-release/pause-amd64:3.1-gke.5 --provider-id=baremetal://192.168.1.190 --read-only-port=10255 --rotate-server-certificates=true --seccomp-default=true"
Le paramètre
--kube-reserved=cpu=100m,memory=3470Mi
indique que Google Distributed Cloud a réservé 3 470 Mio de mémoire sur le nœud.Définissez l'option
--reserved-memory
dans la sectionKUBELET_EXTRA_ARGS
du fichierkubelet
sur 100 mébioctets de plus que la mémoire réservée actuelle pour tenir compte du seuil d'éviction. En l'absence de mémoire réservée, vous pouvez ignorer cette étape.Par exemple, avec la mémoire réservée
3470Mi
de l'exemple de l'étape précédente, vous réservez3570Mi
de mémoire dans le fichierkubelet
:KUBELET_EXTRA_ARGS="--cpu-manager-policy=static --memory-manager-policy=Static --topology-manager-policy=restricted --reserved-memory=0:memory=3570Mi"
Supprimez les fichiers d'état du processeur et de la mémoire du répertoire
/var/lib
:rm /var/lib/cpu_manager_state rm /var/lib/memory_manager_state
Redémarrez kubelet:
systemctl start kubelet
Pour plus d'informations sur ces paramètres de règle, consultez la documentation Kubernetes suivante:
- Règles de gestion du processeur
- Configuration du gestionnaire de mémoire
- Règle limitée du gestionnaire de topologie
Configurer le nœud pour utiliser les "hugepages"
Une fois que vous avez activé le gestionnaire de mémoire avec la règle Static
, vous pouvez ajouter des pages Hugepages pour améliorer les performances des charges de travail de conteneurs sur vos nœuds NUMA.
Les pages Hugepages, comme leur nom l'indique, vous permettent de spécifier des pages de mémoire supérieures à la taille standard de 4 kibioctet (Kio). L'environnement d'exécution des VM sur GDC accepte les "hugepages" de 2 mébioctets (Mio) et 1 gibioctet (Gio). Vous pouvez définir des "hugepages" pour un nœud au moment de l'exécution ou au démarrage de la machine de nœud. Nous vous recommandons de configurer des "hugepages" sur chaque nœud sur lequel vous souhaitez exécuter des VM compatibles avec NUMA.
Pour configurer le nombre de "hugepages" d'une taille spécifique sur votre nœud NUMA au moment de l'exécution, utilisez la commande suivante:
echo HUGEPAGE_QTY > \ /sys/devices/system/node/NUMA_NODE/hugepages/hugepages-HUGEPAGE_SIZEkB/nr_hugepages
Remplacez les éléments suivants :
HUGEPAGE_QTY
: nombre de "hugepages" à allouer de la taille spécifiée.NUMA_NODE
: nœud NUMA, tel quenode0
, auquel vous allouez des "hugepages"HUGEPAGE_SIZE
: taille des "hugepages" en kibioctets,2048
(2 Mio) ou1048576
(1 Gio).
Configurer une VM pour utiliser le nœud NUMA
Une fois que vos nœuds de cluster sont réglés pour NUMA, vous pouvez créer des VM compatibles NUMA. Les VM compatibles NUMA sont planifiées sur des nœuds NUMA.
Pour créer une VM compatible avec NUMA, procédez comme suit:
Suivez les instructions pour créer une VM à partir d'un fichier manifeste.
Utilisez les paramètres
compute
suivants pour configurer votre VM afin qu'elle soit compatible avec NUMA:spec.compute.guaranteed
: définissezguaranteed
surtrue
. Avec ce paramètre, le podvirt-launcher
est configuré pour être placé dans la classe de qualité de service (QoS) garantie par Kubernetes.spec.compute.advancedCompute
:dedicatedCPUPlacement
: définissezdedicatedCPUPlacement
surtrue
. Ce paramètre épingle les processeurs virtuels aux processeurs physiques du nœud.hugePageSize
: définissezhugePageSize
sur2Mi
ou1Gi
pour spécifier la taille des "hugepages" que votre VM doit utiliser, soit 2 mébioctets ou 1 gibioctet.numaGuestMappingPassthrough
: incluez une structure vide ({}
) pour ce paramètre. Ce paramètre établit l'affinité NUMA afin que votre VM ne soit planifiée que sur des nœuds NUMA.
L'exemple de fichier manifeste de VirtualMachine suivant montre à quoi peut ressembler une configuration de VM compatible avec NUMA:
apiVersion: vm.cluster.gke.io/v1 kind: VirtualMachine metadata: name: vm1 spec: compute: cpu: vcpus: 2 guaranteed: true advancedCompute: dedicatedCPUPlacement: true hugePageSize: 2Mi numaGuestMappingPassthrough: {} memory: capacity: 256Mi interfaces: - name: eth0 networkName: pod-network default: true disks: - virtualMachineDiskName: disk-from-gcs boot: true readOnly: true