Cette page explique comment configurer vos déploiements Autopilot pour Google Kubernetes Engine (GKE) afin de demander des nœuds qui s'appuient sur l'architecture Arm.
À propos de l'architecture Arm dans Autopilot
Les clusters Autopilot proposent des classes de calcul pour les charges de travail qui nécessitent des exigences matérielles spécifiques. Certaines de ces classes de calcul sont compatibles avec plusieurs architectures de processeur, telles que amd64
et arm64
.
Cas d'utilisation des nœuds Arm
Les nœuds à l'architecture Arm offrent des performances plus économiques que les nœuds x86 similaires. Vous devez sélectionner Arm pour vos charges de travail Autopilot dans les situations suivantes :
- Votre environnement repose sur l'architecture Arm pour créer et tester.
- Vous développez des applications pour des appareils Android qui s'exécutent sur des processeurs Arm.
- Vous utilisez des images multi-arch et souhaitez optimiser les coûts lors de l'exécution de vos charges de travail.
Demander des nœuds Arm dans Autopilot
Pour demander des nœuds Arm pour vos pods, vous devez demander des nœuds avec l'architecture Arm et une classe de calcul compatible avec les nœuds Arm. Les sections suivantes vous expliquent comment demander la classe de calcul et l'architecture Arm à l'aide d'un sélecteur de nœud ou d'une règle d'affinité de nœuds dans la spécification de votre pod.
Pour obtenir la liste des classes de calcul compatibles avec l'architecture Arm, consultez la section Classes de calcul dans Autopilot.
Avant de commencer
Avant de commencer, effectuez les tâches suivantes :
- Activez l'API Google Kubernetes Engine. Activer l'API Google Kubernetes Engine
- Si vous souhaitez utiliser Google Cloud CLI pour cette tâche, installez puis initialisez gcloud CLI. Si vous avez déjà installé gcloud CLI, assurez-vous de disposer de la dernière version en exécutant la commande
gcloud components update
.
- Assurez-vous de disposer d'un cluster GKE Autopilot exécutant GKE version 1.24.1-gke.1400 ou ultérieure. Pour définir la version, utilisez l'option
--cluster-version
dans votre commande créer ou mettre à niveau. - Vérifiez que vous disposez d'un quota pour le type de machine Compute Engine
T2A
. - Assurez-vous de disposer d'un pod avec une image de conteneur créée pour l'architecture Arm.
Demander une classe de calcul et une architecture Arm
Pour indiquer à Autopilot de placer vos pods sur une classe de calcul compatible avec l'architecture Arm, spécifiez les deux libellés suivants dans un nodeSelector ou la règle d'affinité de nœuds :
cloud.google.com/compute-class: COMPUTE_CLASS
kubernetes.io/arch: arm64
Remplacez COMPUTE_CLASS
par le nom d'une classe de calcul compatible avec l'architecture Arm, telle que Scale-Out
.
Lorsque vous déployez votre charge de travail, Autopilot effectue les opérations suivantes :
- Provisionne automatiquement les nœuds Arm pour exécuter vos pods.
- Rejette automatiquement les nouveaux nœuds afin d'éviter que les pods non Arm soient planifiés sur ces nœuds.
- Ajoute automatiquement une tolérance à vos pods Arm afin de permettre la planification sur les nouveaux nœuds.
Vous pouvez également demander une architecture Arm pour les pods Spot.
Exemple de requête pour l'architecture Arm
Les exemples de spécifications suivants montrent comment utiliser un sélecteur de nœud ou une règle d'affinité de nœud pour demander une architecture Arm dans Autopilot.
nodeSelector
L'exemple de fichier manifeste suivant montre comment demander des nœuds Arm dans un sélecteur de nœud :
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-arm
spec:
replicas: 3
selector:
matchLabels:
app: nginx-arm
template:
metadata:
labels:
app: nginx-arm
spec:
nodeSelector:
cloud.google.com/compute-class: Scale-Out
kubernetes.io/arch: arm64
containers:
- name: nginx-arm
image: nginx
resources:
requests:
cpu: 2000m
memory: 2Gi
nodeAffinity
Vous pouvez utiliser l'affinité de nœuds pour demander des nœuds Arm. Vous pouvez également spécifier le type d'affinité de nœuds à utiliser :
requiredDuringSchedulingIgnoredDuringExecution
: doit utiliser la classe et l'architecture de calcul spécifiées.preferredDuringSchedulingIgnoredDuringExecution
: utilise la classe et l'architecture de calcul spécifiées de la manière la plus optimale possible. Par exemple, si un nœud x86 existant peut être alloué, GKE place votre pod sur le nœud x86 au lieu de provisionner un nouveau nœud Arm. À moins d'utiliser un fichier manifeste d'image multi-arch, votre pod plante. Nous vous recommandons vivement de demander explicitement l'architecture spécifique que vous souhaitez.
L'exemple de fichier manifeste suivant requiert la classe Scale-Out
et les nœuds Arm :
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-arm
spec:
replicas: 3
selector:
matchLabels:
app: nginx-arm
template:
metadata:
labels:
app: nginx-arm
spec:
terminationGracePeriodSeconds: 25
containers:
- name: nginx-arm
image: nginx
resources:
requests:
cpu: 2000m
memory: 2Gi
ephemeral-storage: 1Gi
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: cloud.google.com/compute-class
operator: In
values:
- Scale-Out
- key: kubernetes.io/arch
operator: In
values:
- arm64
Recommandations
- Créez et utilisez des images multi-arch dans le cadre de votre pipeline. Les images multi-arch garantissent que vos pods s'exécutent même s'ils sont placés sur des nœuds x86.
- Demandez explicitement des classes d'architecture et de calcul dans vos fichiers manifestes de charge de travail. Si vous ne le faites pas, Autopilot utilise l'architecture par défaut de la classe de calcul sélectionnée, qui peut ne pas être Arm.
Disponibilité
Vous pouvez déployer des charges de travail Autopilot sur l'architecture Arm dans les régions Google Cloud suivantes :
- us-central1
- europe-west4
- asia-southeast1
Dépannage
Pour obtenir des informations sur les erreurs courante et le dépannage, consultez la section Résoudre les problèmes liés aux charges de travail Arm.
Étape suivante
- Obtenez plus d'informations sur l'architecture des clusters Autopilot.
- Apprenez-en plus sur le cycle de vie des pods.
- Découvrez les classes de calcul Autopilot disponibles.
- Découvrez les requêtes de ressources par défaut, minimales et maximales pour chaque plate-forme.