Cette page présente les stratégies de mise à niveau des pools de nœuds que vous pouvez utiliser avec vos clusters Google Kubernetes Engine (GKE).
Dans les clusters GKE Standard, vous pouvez configurer l'une des stratégies de mise à niveau de nœuds suivantes pour chaque pool de nœuds :
- Mises à niveau de la surutilisation : les nœuds sont mis à niveau dans une fenêtre glissante. Vous pouvez contrôler le nombre de nœuds pouvant être mis à niveau simultanément et le niveau de perturbation des mises à niveau sur les charges de travail.
- Mises à niveau bleu-vert: les nœuds existants restent disponibles en cas de validation de la charge de travail lors de la nouvelle configuration des nœuds.
Dans les clusters Autopilot, GKE utilise les mises à niveau de la surutilisation. Pour en savoir plus, consultez la section Mises à niveau de la surutilisation de la page "Mises à niveau des clusters Autopilot".
En choisissant une stratégie de mise à niveau pour votre pool de nœuds de cluster Standard, vous pouvez choisir le processus offrant le juste équilibre entre vitesse, perturbation de la charge de travail, atténuation des risques et optimisation des coûts. Pour savoir quelle stratégie de mise à niveau des pools de nœuds convient à votre environnement, consultez les sections Choisir les mises à niveau de la surutilisation et Choisir les mises à niveau bleu-vert.
Ces deux stratégies vous permettent de configurer des paramètres de mise à niveau afin d'optimiser le processus en fonction des besoins de votre environnement. Pour en savoir plus, consultez la section Configurer la stratégie de mise à niveau choisie. Pour la stratégie que vous choisissez, assurez-vous de disposer d'un quota, d'une disponibilité des ressources ou d'une capacité de réservation suffisants pour mettre à niveau vos nœuds à l'aide de cette stratégie. Pour en savoir plus, consultez la page Vérifier les ressources pour les mises à niveau des nœuds.
Mises à niveau de la surutilisation
Les mises à niveau de la surutilisation constituent la stratégie de mise à niveau par défaut et conviennent mieux aux applications capables de gérer des modifications incrémentielles. Les mises à niveau de la surutilisation utilisent une méthode progressive pour mettre à niveau les nœuds, dans un ordre indéterminé. Trouvez l'équilibre optimal entre vitesse et perturbation pour votre environnement en choisissant le nombre de nouveaux nœuds de surutilisation pouvant être créés, avec maxSurge
, et le nombre de nœuds existants pouvant être interrompus simultanément, avec maxUnavailable
Les mises à niveau de la surutilisation fonctionnent également avec l'autoscaler de cluster pour éviter toute modification des nœuds en cours de mise à niveau.
Choisir les mises à niveau de la surutilisation pour votre environnement
Si l'optimisation des coûts est importante pour vous et que votre charge de travail peut tolérer un arrêt en moins de 60 minutes, nous vous recommandons de choisir les mises à niveau de la surutilisation pour vos pools de nœuds.
Les mises à niveau de la surutilisation sont optimales dans les scénarios suivants :
- Si vous souhaitez optimiser la vitesse des mises à niveau.
- Si les charges de travail tolèrent mieux les perturbations (un arrêt progressif jusqu'à 60 minutes est acceptable).
- Si vous souhaitez contrôler les coûts en minimisant la création de nouveaux nœuds.
Quand GKE utilise-t-il les mises à niveau de la surutilisation
Si cette option est activée, GKE utilise les mises à niveau de la surutilisation lorsque les types de modifications suivants se produisent :
- Modifications de version (mises à niveau)
- Application d'un scaling vertical aux nœuds en modifiant les attributs de machine des nœuds, y compris le type de machine, le type de disque et la taille du disque
- Modifications des types d'images
- Rotation des adresses IP
- Rotation des identifiants
- Création de règles de réseau
- Activation du streaming d'images
- Mises à jour de la configuration des performances réseau
- Activation de gVNIC
- Modifications apportées à la configuration système
- Nœuds confidentiels
Les autres modifications, y compris l'application de mises à jour aux étiquettes des nœuds et aux rejets des pools de nœuds existants, n'utilisent pas les mises à niveau de la surutilisation car elles ne nécessitent pas de recréer les nœuds.
Comprendre les paramètres de mise à niveau de la surutilisation
Utilisez les paramètres de mise à niveau de la surutilisation pour sélectionner le bon équilibre entre vitesse et perturbation de votre pool de nœuds lors de la maintenance du cluster à l'aide des paramètres de surutilisation. Vous pouvez modifier le nombre de nœuds que GKE tente de mettre à niveau à la fois en modifiant les paramètres de mise à niveau de la surutilisation dans un pool de nœuds.
Le comportement de la mise à niveau de la surutilisation est déterminé par les paramètres maxSurge
et maxUnavailable
, qui déterminent le nombre de nœuds mis à niveau simultanément dans une fenêtre glissante selon les étapes décrites.
maxSurge
: GKE crée un nœud de surutilisation avant d'en supprimer un existant
Définissez maxSurge
pour choisir le nombre maximal de nœuds de surutilisation supplémentaires pouvant être ajoutés au pool de nœuds lors d'une mise à niveau, par zone, ce qui augmente la probabilité que les charges de travail exécutées sur le nœud existant puissent migrer vers un nouveau nœud immédiatement. La valeur par défaut est 1. Pour mettre à niveau un nœud, GKE effectue les étapes suivantes:
- Provisionner un nouveau nœud.
- Attendre que le nouveau nœud soit prêt.
- Marquer le nœud existant comme non ordonnançable.
- Drainer le nœud existant en respectant les paramètres PodDisruptionBudget et GracefulTerminationPeriod jusqu'à un heure.
- Supprimer le nœud existant.
Pour que GKE puisse créer des nœuds de surutilisation, votre projet doit disposer des ressources permettant de créer temporairement des nœuds supplémentaires. Si vous ne disposez pas de capacité supplémentaire, GKE ne commence pas à mettre à niveau un nœud tant que les ressources ne sont pas disponibles. Pour en savoir plus, consultez la page Ressources pour les mises à niveau de la surutilisation.
maxUnavailable
: GKE rend un nœud existant indisponible pour le recréer.
Définissez maxUnavailable
pour choisir le nombre maximal de nœuds pouvant être simultanément indisponibles lors d'une mise à niveau, par zone. La valeur par défaut est zéro.
Si aucun autre nœud ne dispose d'une capacité suffisante, les charges de travail exécutées sur le nœud existant devront peut-être attendre la mise à niveau du nœud existant. Pour mettre à niveau un nœud, GKE effectue les étapes suivantes:
- Marquer le nœud existant comme non ordonnançable.
- Drainer le nœud existant en respectant les paramètres PodDisruptionBudget et GracefulTerminationPeriod jusqu'à un heure.
- Recréer le nœud existant avec la nouvelle configuration.
- Attendre que le nœud existant soit prêt.
- Dissocier le nœud mis à niveau existant.
Lorsque GKE recrée le nœud existant, il libère temporairement la capacité du nœud si celle-ci ne provient pas d'une réservation. Cela signifie que si la capacité est limitée, vous risquez de perdre la capacité existante. Par conséquent, si votre environnement est limité en ressources, n'utilisez ce paramètre que si vous utilisez des nœuds réservés. Pour en savoir plus, consultez la page Effectuer une mise à niveau dans un environnement à ressources limitées.
Exemple d'utilisation des paramètres maxSurge
et maxUnavailable
Par exemple, un cluster GKE comporte un pool de nœuds à zone unique avec cinq nœuds et la configuration de mise à niveau de la surutilisation suivante : maxSurge=2;maxUnavailable=1
.
Lors d'une mise à niveau de la surutilisation avec ce pool de nœuds, dans une fenêtre glissante, GKE crée deux nœuds mis à niveau et interrompt au maximum un nœud existant à la fois. GKE désactive au maximum trois nœuds existants une fois que les nœuds mis à niveau sont prêts. Au cours du processus de mise à niveau, le pool de nœuds comprend entre quatre et sept nœuds.
Remarques concernant les paramètres de mise à niveau de la surutilisation
Tenez compte des informations suivantes avant de configurer les paramètres de mise à niveau de la surutilisation:
- Les nœuds créés par une mise à niveau de la surutilisation sont soumis à vos quotas de ressources Google Cloud, à la disponibilité des ressources et à la capacité de réservation pour les pools de nœuds avec une affinité de réservation spécifique. Si votre environnement est à ressources limitées, consultez la page Effectuer une mise à niveau dans un environnement à ressources limitées.
- Le nombre de nœuds que GKE met à niveau simultanément correspond à la somme de
maxSurge
et demaxUnavailable
. Le nombre maximal de nœuds mis à niveau simultanément est limité à 20. Les mises à niveau de la surutilisation fonctionnent également avec l'autoscaler de cluster pour éviter toute modification des nœuds en cours de mise à niveau. - GKE met à niveau les pools de nœuds multizones une zone à la fois. Les paramètres de mise à niveau de la surutilisation ne s'appliquent qu'au nombre de nœuds maximal de la zone. Le nombre maximal de nœuds pouvant être mis à niveau en parallèle ne dépassera pas la somme de
maxSurge
plusmaxUnavailable
et ne dépassera pas le nombre de nœuds de la zone. - Si votre pool de nœuds utilise des VM Spot, GKE crée des nœuds de surutilisation à l'aide de VM Spot, mais n'attend pas que les VM Spot soient prêtes avant de marquer les nœuds existants comme non ordonnançables et de les drainer. Pour en savoir plus, consultez la page Mettre à niveau des pools de nœuds standards à l'aide de VM spot.
Ajuster les paramètres de mise à niveau de la surutilisation pour équilibrer la vitesse et les perturbations
Le tableau suivant décrit quatre profils de mise à niveau différents pour vous aider à comprendre les différentes configurations:
Description | Configuration | Cas d'utilisation type |
---|---|---|
Équilibré (par défaut), plus lent, mais moins perturbateur | maxSurge=1 maxUnavailable=0 |
La plupart des charges de travail |
Rapide, sans ressource de surutilisation, le plus perturbateur | maxSurge=0 maxUnavailable=20 |
Pools de nœuds volumineux une fois les tâches exécutées |
Rapide, la plupart des ressources de surutilisation et moins perturbateur | maxSurge=20 maxUnavailable=0 |
Grands pools de nœuds |
Le plus lent, avec interruptions et sans ressource de surutilisation | maxSurge=0 maxUnavailable=1 |
Pool de nœuds avec des ressources limitées avec réservation |
Équilibré (par défaut)
Le moyen le plus simple de tirer parti des mises à niveau de la surutilisation consiste à utiliser la configuration par défaut, maxSurge=1;maxUnavailable=0.
. Avec cette configuration, les mises à niveau progressent lentement, avec un seul nœud de surutilisation ajouté à la fois, à savoir un seul nœud mis à niveau à la fois. Les pods peuvent redémarrer immédiatement sur le nouveau nœud de surutilisation. Cette configuration ne nécessite que les ressources pour créer temporairement un nœud.
Rapide et sans ressource de surutilisation
Si vous avez un pool de nœuds volumineux et que votre charge de travail n'est pas sensible aux perturbations (par exemple, un job par lot exécuté jusqu'à la fin), utilisez la configuration suivante pour optimiser la vitesse sans utiliser de ressources supplémentaires : maxSurge=0;maxUnavailable=20
Cette configuration n'entraîne pas la création de nœuds de surutilisation supplémentaires et permet de mettre à niveau 20 nœuds en même temps.
Rapide et moins perturbateur
Si votre charge de travail est sensible aux perturbations, que vous avez déjà configuré des PodDisruptionBudgets (PDB) et que vous n'utilisez pas externalTrafficPolicy: Local
(qui ne fonctionne pas avec les drains de nœuds parallèles), vous pouvez augmenter la vitesse de mise à niveau en utilisant maxSurge=20;maxUnavailable=0
. Cette configuration met à niveau 20 nœuds en parallèle, tandis que le PDB limite le nombre de pods qui peuvent être drainés à un moment donné.
Bien que les configurations des PDB puissent varier, si vous créez un PDB avec maxUnavailable=1
pour une ou plusieurs charges de travail exécutées sur le pool de nœuds, un seul pod de ces charges de travail peut être supprimé à la fois, limitant ainsi le parallélisme de la mise à niveau. Cette configuration nécessite que les ressources créent temporairement 20 nœuds.
Lent, mais pas de ressources de surutilisation
Si vous ne pouvez pas utiliser de ressources supplémentaires, vous pouvez utiliser maxSurge=0;maxUnavailable=1
pour recréer un nœud à la fois.
Contrôler une mise à niveau de la surutilisation en cours
Avec les mises à niveau de la surutilisation, pendant qu'une mise à niveau est en cours, vous pouvez utiliser des commandes pour en contrôler certains aspects. Pour plus de contrôle sur le processus de mise à niveau, nous vous recommandons d'utiliser des mises à niveau bleu-vert.
Annuler (suspendre) une mise à niveau de la surutilisation
Vous pouvez annuler une mise à niveau de la surutilisation en cours à tout moment pendant le processus de mise à niveau. L'annulation interrompt la mise à niveau et empêche GKE de mettre à niveau les nouveaux nœuds. En revanche, elle n'effectue pas automatiquement de rollback concernant la mise à niveau des nœuds déjà mis à niveau. Une fois la mise à niveau annulée, vous pouvez la reprendre ou effectuer un rollback.
Lorsque vous annulez une mise à niveau, GKE effectue les opérations suivantes avec chacun des nœuds :
- Les nœuds dont la mise à jour a commencé poursuivent celle-ci jusqu'à son terme.
- Les nœuds dont la mise à niveau n'a pas commencé ne sont pas mis à niveau.
- Les nœuds dont la mise à niveau a été menée à bien ne sont pas affectés par cette commande et ne subiront pas de rollback.
Le pool de nœuds peut donc se retrouver dans un état dans lequel les nœuds exécutent deux versions différentes. Si les mises à niveau automatiques sont activées pour le pool de nœuds, vous pouvez reprogrammer la mise à niveau automatique, ce qui aura pour effet de mettre à niveau les nœuds du pool qui exécutent encore l'ancienne version.
Découvrez comment annuler la mise à niveau d'un pool de nœuds.
Reprendre une mise à niveau de la surutilisation
Si une mise à niveau du pool de nœuds a été annulée et que le pool n'est que partiellement mis à niveau, vous pouvez reprendre et terminer le processus de mise à niveau du pool de nœuds. Cette opération mettra à niveau tous les nœuds restants qui n'ont pas été mis à niveau dans l'opération d'origine. Découvrez comment reprendre une mise à niveau de pool de nœuds.
Effectuer un rollback de mise à niveau de la surutilisation
Si un pool de nœuds est partiellement mis à niveau, vous pouvez effectuer un rollback pour rétablir l'état précédent du pool de nœuds. En revanche, le rollback n'est plus possible pour les pools de nœuds dont la mise à jour a abouti. Les nœuds dont la mise à jour n'a pas commencé ne sont pas affectés. Découvrez comment effectuer un rollback de mise à niveau d'un pool de nœuds.
Si vous souhaitez revenir à une version antérieure d'un pool de nœuds, consultez la page Revenir à une version antérieure des pools de nœuds.
Mises à niveau bleu-vert
Les mises à niveau bleu-vert constituent une stratégie de mise à niveau alternative à la stratégie de mise à niveau de la surutilisation utilisée par défaut. Avec les mises à niveau bleu-vert, GKE crée d'abord un nouvel ensemble de ressources de nœud ("nœuds verts") avec la nouvelle configuration de nœud avant d'expulser les charges de travail sur les ressources d'origine ("nœuds bleus"). GKE conserve les ressources "bleues" si nécessaire, pour effectuer un rollback des charges de travail jusqu'à ce que leur temps de stabilisation soit atteint. Vous pouvez ajuster le rythme des mises à niveau et le temps de stabilisation en fonction des besoins de votre environnement.
Cette stratégie vous permet de mieux contrôler le processus de mise à niveau. Vous pouvez effectuer un rollback d'une mise à niveau en cours si nécessaire, car l'environnement d'origine est conservé pendant la mise à niveau. Cependant, cette stratégie de mise à niveau est également plus gourmande en ressources. Lorsque l'environnement d'origine est répliqué, le pool de nœuds utilise le double de la quantité de ressources habituelle pendant la durée de la mise à niveau.
Choisir les mises à niveau bleu-vert pour votre environnement
Si vous avez des charges de travail de production à disponibilité élevée que vous devez pouvoir restaurer rapidement au cas où la charge de travail ne tolère pas la mise à niveau, et qu'une augmentation temporaire des coûts est acceptable, nous vous recommandons de choisir les mises à niveau bleu-vert de vos pools de nœuds.
Les mises à niveau bleu-vert sont optimales dans les scénarios suivants:
- Si vous souhaitez un déploiement progressif où l'atténuation des risques est la plus importante, pour laquelle un arrêt progressif est supérieur à 60 minutes.
- Si vos charges de travail tolèrent moins les perturbations.
- Si une augmentation temporaire des coûts due à une utilisation plus élevée des ressources est acceptable.
Quand GKE utilise-t-il les mises à niveau bleu-vert
Pour les nœuds GKE, différents types de modifications de configuration nécessitent la recréation des nœuds. Si cette option est activée, GKE utilise les mises à niveau bleu-vert lorsque les types de modifications suivants se produisent :
- Modifications de version (mises à niveau)
- Application d'un scaling vertical aux nœuds en modifiant les attributs de machine des nœuds, y compris le type de machine, le type de disque et la taille du disque
- Modifications des types d'images
Les mises à niveau de la surutilisation seront utilisées pour toutes les autres fonctionnalités nécessitant la recréation des nœuds. Pour en savoir plus, consultez la section Quand les mises à niveau de la surutilisation sont-elles utilisées.
Phases des mises à niveau bleu-vert
Avec les mises à niveau bleu-vert, vous pouvez personnaliser et contrôler le processus :
- À l'aide des paramètres de configuration de la mise à niveau
- À l'aide des commandes pour annuler (suspendre), reprendre, effectuer un rollback ou terminer les étapes
Cette section décrit les phases du processus de mise à niveau. Vous pouvez utiliser les paramètres de mise à niveau pour ajuster le fonctionnement des phases, ainsi que les commandes pour contrôler le processus de mise à niveau.
Phase 1 : créer un pool vert
Au cours de cette phase, un nouvel ensemble de groupes d'instances gérés (MIG) est créé pour chaque zone du pool cible avec la nouvelle configuration de nœud (nouvelle version ou type d'image).
Le quota sera vérifié avant de commencer à provisionner de nouvelles ressources vertes.
Au cours de cette phase, l'autoscaler des MIG d'origine (le pool bleu) arrête le scaling à la hausse ou à la baisse. Le pool vert ne peut évoluer qu'à la hausse pendant cette phase.
Au cours de cette phase, vous pouvez annuler la mise à niveau si nécessaire. Lorsque vous annulez une mise à niveau bleu-vert, la mise à niveau est suspendue dans sa phase actuelle. Une fois l'annulation effectuée, vous pouvez reprendre la mise à niveau ou effectuer un rollback. Lors de cette phase, le rollback aura pour effet de supprimer le pool vert.
Phase 2 : marquer le pool bleu comme non ordonnançable
Au cours de cette phase, tous les nœuds d'origine du pool bleu (MIG existants) seront marqués comme non ordonnançables. Les charges de travail existantes ne seront pas interrompues, mais aucune nouvelle charge de travail ne sera planifiée sur les nœuds existants.
Au cours de cette phase, vous pouvez annuler la mise à niveau si nécessaire. Lorsque vous annulez une mise à niveau bleu-vert, la mise à niveau est suspendue dans sa phase actuelle. Une fois l'annulation effectuée, vous pouvez reprendre la mise à niveau ou effectuer un rollback. Lors de cette phase, le rollback aura pour effet de rendre le pool bleu ordonnançable et de supprimer le pool vert.
Phase 3 : drainer le pool bleu
Au cours de cette phase, les nœuds d'origine du pool bleu (MIG existants) seront drainés par lots. Lorsque Kubernetes draine des nœuds, des requêtes d'éviction sont envoyées à tous les pods en cours d'exécution sur le nœud. Les pods seront reprogrammés. Les pods avec des violations PodDisruptionBudget ou une valeur terminationGracePeriodSeconds trop longue pendant le drainage seront supprimés pendant la phase Supprimer le pool bleu, au moment de la suppression du nœud.
Vous pouvez utiliser BATCH_SOAK_DURATION
et NODE_POOL_SOAK_DURATION
, qui sont décrits ici et dans la section suivante, pour prolonger la période avant la suppression des pods.
Vous pouvez contrôler la taille des lots à l'aide de l'un des paramètres suivants :
BATCH_NODE_COUNT
: nombre absolu de nœuds à drainer dans un lot.BATCH_PERCENT
: pourcentage de nœuds à drainer dans un lot, exprimé sous forme de nombre décimal compris entre 0 et 1 inclus. GKE arrondit à la baisse au pourcentage de nœuds le plus proche, à une valeur minimale de un nœud, si le pourcentage n'est pas un nombre entier de nœuds.
Si l'un de ces paramètres est défini sur zéro, GKE ignore cette phase et passe à la phase Stabilisation du pool de nœuds.
Vous pouvez également contrôler la durée de stabilisation de chaque drainage de lot avec BATCH_SOAK_DURATION
. Cette durée est définie en secondes, la valeur par défaut étant zéro seconde.
Au cours de cette phase, vous pouvez toujours annuler la mise à niveau si nécessaire. Lorsque vous annulez une mise à niveau bleu-vert, la mise à niveau est suspendue dans sa phase actuelle. Une fois l'annulation effectuée, vous pouvez reprendre la mise à niveau ou effectuer un rollback. Lors de cette phase, le rollback aura pour effet d'arrêter le drainage du pool bleu et de le dissocier. Les charges de travail peuvent ensuite être reprogrammées sur le pool bleu (non garanti) et le pool vert est supprimé.
Phase 4 : stabiliser le pool de nœuds
Cette phase vous permet de vérifier l'état de la charge de travail après le drainage des nœuds du pool bleu.
Le temps de stabilisation est défini avec NODE_POOL_SOAK_DURATION
, en secondes. Par défaut, ce paramètre est défini sur une heure (3 600 secondes). Si la durée totale de stabilisation atteint sept jours (604 800 secondes), la phase de suppression du pool bleu commence immédiatement.
La durée totale de stabilisation est la somme de NODE_POOL_SOAK_DURATION
, plus BATCH_SOAK_DURATION
multipliée par le nombre de lots, qui est déterminé par BATCH_NODE_COUNT
ou BATCH_PERCENT
.
Au cours de cette phase, vous pouvez terminer la mise à niveau et ignorer le temps de stabilisation restant en terminant la mise à niveau. Le processus de suppression des nœuds de pool bleu commence immédiatement.
Vous pouvez toujours annuler la mise à niveau si nécessaire. Lorsque vous annulez une mise à niveau bleu-vert, la mise à niveau est suspendue dans sa phase actuelle. Une fois l'annulation effectuée, vous pouvez reprendre la mise à niveau ou effectuer un rollback.
Pendant cette phase, l'autoscaler de cluster peut désormais effectuer un scaling à la hausse ou à la baisse du pool vert de façon normale.
Phase 5 : supprimer le pool bleu
Une fois le temps de stabilisation écoulé, les nœuds de pool bleu sont supprimés du pool cible. Cette phase ne peut pas être suspendue. En outre, cette phase n'utilise pas d'éviction et tente plutôt de supprimer les pods. Contrairement à l'éviction, la suppression ne respecte pas les PDB et supprime définitivement les pods. La suppression limite le terminationGracePeriodSeconds
d'un pod à 60 minutes maximum. Une fois cette dernière tentative effectuée pour supprimer les pods restants, les nœuds du pool bleu sont supprimés du pool de nœuds.
À la fin de cette phase, votre pool de nœuds ne comprendra que de nouveaux nœuds avec la configuration mise à jour (version ou type d'image).
Fonctionnement de l'autoscaler de cluster avec les mises à niveau bleu-vert
Pendant les phases d'une mise à niveau bleu-vert, le pool "bleu" d'origine ne peut pas être augmenté ni réduit. Une fois le pool "vert" créé, vous ne pouvez pas effectuer de scaling à la hausse avant la phase de stabilisation du pool de nœuds, pendant laquelle le pool peut évoluer à la hausse ou à la baisse. Si vous effectuez un rollback, le pool "bleu" d'origine peut évoluer à la hausse pendant ce processus si une capacité supplémentaire est nécessaire.
Contrôler une mise à niveau bleu-vert en cours
Avec les mises à niveau bleu-vert, pendant qu'une mise à niveau est en cours, vous pouvez utiliser des commandes pour exercer un contrôle sur celle-ci. Vous disposez ainsi d'un niveau de contrôle élevé sur le processus, au cas où vous détermineriez, par exemple, que vos charges de travail doivent être restaurées à l'ancienne configuration du nœud.
Annuler (suspendre) une mise à niveau bleu-vert
Lorsque vous annulez une mise à niveau bleu-vert, vous la mettez en pause dans sa phase actuelle. Cette commande peut être utilisée à toutes les phases, à l'exception de la phase de suppression du pool bleu. Une fois annulé, le pool de nœuds est mis en pause à un état intermédiaire en fonction de la phase où la requête a été émise.
Découvrez comment annuler la mise à niveau d'un pool de nœuds.
Une fois la mise à niveau annulée, vous pouvez choisir l'une des deux options suivantes : reprendre la mise à niveau ou effectuer un rollback.
Reprendre une mise à niveau bleu-vert
Si vous déterminez que la mise à niveau peut être effectuée, vous pouvez la reprendre.
Si vous reprenez la mise à niveau, le processus continuera à la phase intermédiaire où il a été suspendu. Pour savoir comment reprendre une mise à niveau du pool de nœuds, consultez la page Reprendre la mise à niveau d'un pool de nœuds.
Effectuer un rollback de mise à niveau bleu-vert
Si vous déterminez que la mise à niveau ne doit pas être effectuée et que vous souhaitez rétablir l'état d'origine du pool de nœuds, vous pouvez effectuer un rollback. Pour savoir comment effectuer un rollback de la mise à niveau d'un pool de nœuds, consultez la page Effectuer un rollback de mise à niveau du pool de nœuds.
Avec le workflow de rollback, le processus s'inverse pour rétablir l'état d'origine du pool de nœuds. Le pool bleu sera marqué comme ordonnançable, ce qui permettra de replanifier les charges de travail. Pendant ce processus, l'autoscaler de cluster peut faire évoluer le pool bleu à la hausse si nécessaire. Le pool vert sera drainé et supprimé.
Si vous souhaitez revenir à une version antérieure d'un pool de nœuds, consultez la page Revenir à une version antérieure des pools de nœuds.
Effectuer une mise à niveau bleu-vert
Pendant la phase de stabilisation, vous pouvez effectuer une mise à niveau si vous avez déterminé que la charge de travail n'a pas besoin d'une validation supplémentaire sur la nouvelle configuration de nœud et que les anciens nœuds peuvent être supprimés. Cette opération ignore la suite de la phase de stabilisation et passe à la phase de suppression du pool bleu.
Pour en savoir plus sur l'utilisation de la commande complete
, consultez la page Effectuer une mise à niveau de pool de nœuds bleu-vert.