Présentation
Google Distributed Cloud est basé sur Kubernetes et de nombreuses autres technologies associées, qui sont continuellement mises à jour et améliorées pour offrir une meilleure évolutivité, des performances, une sécurité et des capacités d'intégration améliorées. Par conséquent, Google Distributed Cloud s'adapte et s'améliore constamment.
Dans la version 1.30, les modifications et les mises à jour ont atteint un point où nous vous recommandons vivement de migrer les anciens déploiements pour profiter d'améliorations importantes. Cette page décrit les avantages de la migration des fonctionnalités obsolètes vers les dernières fonctionnalités recommandées.
Vous disposez des options suivantes pour chaque fonctionnalité :
Zone de la fonctionnalité | Options recommandées | Options d'origine |
---|---|---|
CNI (Container Network Interface) |
|
|
Équilibreur de charge |
|
|
Plan de contrôle du cluster d'administrateur |
|
|
Plan de contrôle du cluster d'utilisateur |
|
|
1 F5 Big IP intégré fait référence à loadBalancer.kind: "F5BigIP"
et aux paramètres associés dans la section loadBalancer.f5BigIP
du fichier de configuration de votre cluster.
Les tableaux suivants présentent la matrice de compatibilité de ces fonctionnalités dans les clusters d'administrateurs et d'utilisateurs :
Type de cluster | Fonctionnalité obsolète | Ajouter pour un nouveau cluster | Autoriser la mise à niveau du cluster | Migration vers une nouvelle fonctionnalité |
---|---|---|---|---|
Version 1.30 | ||||
Admin | Standard | Non | Oui | Oui |
Seesaw | Non | Oui | Oui | |
F5 Big IP intégré | Non | Oui | Oui | |
Utilisateur | Kubeception | Non | Oui | Oui |
Seesaw | Non | Oui | Oui | |
F5 Big IP intégré | Non | Oui | Oui | |
Dataplane V1 | Non | Oui | Oui | |
Version 1.29 | ||||
Admin | Standard | Non | Oui | Oui (Bêta) |
Seesaw | Non | Oui | Oui | |
F5 Big IP intégré | Oui | Oui | Oui (Bêta) | |
Utilisateur | Kubeception | Oui | Oui | Oui (Bêta) |
Seesaw | Oui | Oui | Oui | |
F5 Big IP intégré | Oui | Oui | Oui (Bêta) | |
Dataplane V1 | Oui | Oui | Non | |
Version 1.28 | ||||
Admin | Standard | Non | Oui | Non |
Seesaw | Non | Oui | Oui | |
F5 Big IP intégré | Oui | Oui | Non | |
Utilisateur | Kubeception | Oui | Oui | Non |
Seesaw | Oui | Oui | Oui | |
F5 Big IP intégré | Oui | Oui | Non | |
Dataplane V1 | Oui | Oui | Non |
Points essentiels :
- À partir de la version 1.30, toutes les solutions de migration sont disponibles pour migrer les clusters vers les alternatives recommandées.
Lors de la création de clusters, voici les versions dans lesquelles les fonctionnalités d'origine ne sont pas autorisées :
Clusters d'administrateur :
- Plan de contrôle standard : version 1.28 ou ultérieure
- Équilibrage de charge Seesaw : version 1.28 ou ultérieure
- F5 Big IP intégré : version 1.30 ou ultérieure
Clusters d'utilisateur :
- Kubeception : version 1.30 ou ultérieure
- Seesaw : version 1.30 ou ultérieure
- F5 Big IP intégré : version 1.30 ou ultérieure
- Dataplane V1 : version 1.30 ou ultérieure
Vous pouvez toujours mettre à niveau les clusters existants avec les fonctionnalités d'origine.
Migrer des clusters d'utilisateurs vers Dataplane V2
Vous pouvez choisir une interface réseau de conteneur (CNI) qui offre des fonctionnalités de mise en réseau de conteneurs, soit Calico, soit Dataplane V2. Dataplane V2, l'implémentation CNI de Google, est basée sur Cilium et est utilisée à la fois dans Google Kubernetes Engine (GKE) et Google Distributed Cloud.
Dataplane V2 offre une conception optimisée et une utilisation efficace des ressources, ce qui améliore les performances et l'évolutivité du réseau, en particulier pour les grands clusters ou les environnements avec des besoins de trafic réseau élevés. Nous vous recommandons vivement de migrer vos clusters vers Dataplane V2 pour bénéficier des dernières fonctionnalités, innovations réseau et capacités.
À partir de la version 1.30, Dataplane V2 est la seule option CNI permettant de créer des clusters.
La transition de Calico vers Dataplane V2 nécessite une planification et une coordination, mais elle est conçue pour ne pas entraîner d'interruption de service pour les charges de travail existantes. En migrant de manière proactive vers Dataplane V2, vous pouvez bénéficier des avantages suivants :
Performances et évolutivité améliorées : la conception optimisée de Dataplane V2 et l'utilisation efficace des ressources peuvent améliorer les performances du réseau et l'évolutivité, en particulier dans les grands clusters ou les environnements avec des besoins en trafic réseau élevés. Cela est dû à l'utilisation d'EBPF au lieu d'IPTables, qui permet au cluster de s'adapter à l'aide de mappages BPF.
Gestion et assistance simplifiées : la standardisation de Dataplane V2 sur Google Distributed Cloud et GKE peut simplifier la gestion et le dépannage des clusters, car vous pouvez vous appuyer sur un ensemble cohérent d'outils et de documentation.
Fonctionnalités de mise en réseau avancées : EgressNAT et d'autres fonctionnalités de mise en réseau avancées ne sont compatibles qu'avec Dataplane V2. Toutes les futures requêtes réseau seront implémentées dans la couche Dataplane V2.
Avant la migration | Après la migration | |
---|---|---|
kube-proxy | Obligatoire et déployé automatiquement | Non obligatoire et non déployé |
Routage | kube-proxy + iptables | eBPF |
Migrer le type d'équilibreur de charge
Les types d'équilibreurs de charge recommandés (loadBalancer.kind
) sont "ManualLB"
et "MetalLB"
. Utilisez "ManualLB"
si vous disposez d'un équilibreur de charge tiers tel que F5 BIG-IP ou Citrix. Utilisez "MetalLB"
pour notre solution d'équilibrage de charge groupé à l'aide de l'équilibreur de charge MetalLB.
À partir de la version 1.30, ce sont les seules options pour créer des clusters. Pour les clusters existants qui utilisent l'équilibreur de charge F5 Big IP intégré ou l'équilibreur de charge Seesaw fourni, nous fournissons des guides de migration pour transférer les paramètres de configuration "F5BigIP"
vers "ManualLB"
et pour transférer l'équilibreur de charge fourni de Seesaw vers MetalLB.
Migrer les paramètres de configuration de votre équilibreur de charge F5 BIG-IP
Prévoyez de migrer vers ManualLB
tous les clusters qui utilisent l'équilibreur de charge F5 Big IP intégré. F5 Big IP intégré utilise F5 BIG-IP avec des agents d'équilibrage de charge, qui se composent des deux contrôleurs suivants :
- Contrôleur F5 (
pod prefix: load-balancer-f5
) : réconcilie les services Kubernetes de type LoadBalancer dans le format ConfigMap de la bibliothèque principale de contrôleur commun (CCCL) F5. - Contrôleur F5 BIG-IP CIS v1.14 (
pod prefix: k8s-bigip-ctlr-deployment
) : traduit les ConfigMaps en configurations d'équilibrage de charge F5.
Le F5 Big IP intégré d'origine présente les limites suivantes :
- Expression limitée : le F5 Big IP intégré limite le potentiel du F5 BIG-IP en limitant l'expression de l'API de service. Cela peut vous empêcher de configurer le contrôleur BIG-IP en fonction de vos besoins spécifiques ou d'exploiter les fonctionnalités F5 avancées qui peuvent être essentielles pour votre application.
- Composant obsolète : l'implémentation actuelle repose sur des technologies plus anciennes, telles que l'API ConfigMap CCCL et la version 1.x de CIS. Ces anciens composants peuvent ne pas être compatibles avec les dernières avancées des offres F5, ce qui peut entraîner des opportunités manquées d'amélioration des performances et de la sécurité.
Les modifications apportées après la migration de F5 BIG-IP intégré vers ManualLB
sont les suivantes :
Avant la migration | Après la migration | |
---|---|---|
Composants des agents F5 |
|
|
Mise à niveau de la version du composant F5 | Vous devez mettre à niveau les clusters pour mettre à niveau les composants F5. Les versions de composants disponibles sont limitées, comme expliqué précédemment. | Vous pouvez mettre à niveau les versions des composants F5 si nécessaire. |
Création du service | Géré par les agents F5 | Géré par les agents F5 (aucune modification) |
Effectuer une migration de Seesaw vers MetalLB
MetalLB offre les avantages suivants par rapport à Seesaw :
- Gestion simplifiée et ressources réduites : contrairement à Seesaw, MetalLB s'exécute directement sur les nœuds du cluster, ce qui permet d'utiliser de manière dynamique les ressources du cluster pour l'équilibrage de charge.
- Attribution automatique d'adresses IP : le contrôleur MetalLB gère les adresses IP des services. Vous n'avez donc pas besoin de choisir manuellement une adresse IP pour chaque service.
- Distribution de la charge entre les nœuds d'équilibrage de charge : les instances actives de MetalLB pour différents services peuvent s'exécuter sur différents nœuds.
- Fonctionnalités améliorées et pérennité : le développement actif de MetalLB et son intégration à l'écosystème Kubernetes plus large en font une solution plus pérenne que Seesaw. L'utilisation de MetalLB vous permet de profiter des dernières avancées en matière d'équilibrage de charge.
Avant la migration | Après la migration | |
---|---|---|
Nœuds d'équilibrage de charge | VM Seesaw supplémentaires (en dehors du cluster) | Nœuds d'équilibrage de charge dans le cluster avec choix du client |
Conservation de l'adresse IP du client | Peut être obtenu via externalTrafficPolicy: Local |
Peut être obtenu via le mode DSR DataplaneV2 |
Création du service | Adresse IP du service spécifiée manuellement | Adresse IP de service attribuée automatiquement à partir du pool d'adresses |
Migrer les clusters d'utilisateur vers Controlplane V2 et les clusters d'administrateur vers la haute disponibilité
Le plan de contrôle recommandé pour les clusters d'utilisateurs est Controlplane V2. Avec Controlplane V2, le plan de contrôle s'exécute sur un ou plusieurs nœuds du cluster d'utilisateurs lui-même. Avec l'ancien plan de contrôle, appelé kubeception, le plan de contrôle d'un cluster d'utilisateurs s'exécute dans un cluster d'administrateur. Pour créer un cluster d'administrateur à haute disponibilité, vous devez activer Controlplane V2 sur vos clusters d'utilisateurs.
À partir de la version 1.30, Controlplane V2 doit être activé pour les nouveaux clusters d'utilisateurs, et les nouveaux clusters d'administrateur seront à haute disponibilité. Les mises à niveau des clusters d'utilisateurs avec l'ancien plan de contrôle sont toujours prises en charge, tout comme les mises à niveau des clusters d'administrateur sans haute disponibilité.
Migrer des clusters d'utilisateurs vers Controlplane V2
Historiquement, les clusters d'utilisateurs utilisaient kubeception. La version 1.13 a introduit Controlplane V2 en tant que fonctionnalité en preview, qui est devenue disponible en version 1.14. Depuis la version 1.15, Controlplane V2 est l'option par défaut pour la création de clusters d'utilisateurs. Il s'agit également de la seule option dans la version 1.30.
Par rapport à kubeception, Controlplane V2 présente les avantages suivants :
- Cohérence architecturale : les clusters d'administrateur et les clusters d'utilisateur utilisent la même architecture.
- Isolation des défaillances : une défaillance du cluster d'administrateur n'affecte pas les clusters d'utilisateurs.
- Séparation opérationnelle : la mise à niveau d'un cluster d'administrateur n'entraîne pas d'arrêt pour les clusters d'utilisateurs.
- Séparation des déploiements : vous pouvez placer les clusters d'administrateur et d'utilisateur dans différents domaines de topologie ou à plusieurs emplacements. Par exemple, dans un modèle de déploiement de edge computing, un cluster d'utilisateurs peut se trouver dans un emplacement différent de celui du cluster d'administrateur.
Pendant la migration, il n'y a aucune interruption de service pour les charges de travail du cluster d'utilisateurs existant. En fonction de votre environnement vSphere sous-jacent, le plan de contrôle subira un temps d'arrêt minimal lors du passage à Controlplane V2. Le processus de migration effectue les opérations suivantes :
- Crée un plan de contrôle dans le cluster d'utilisateurs.
- Copie les données etcd de l'ancien plan de contrôle.
- Transfère les nœuds de pool de nœuds existants (également appelés nœuds de calcul) vers le nouveau plan de contrôle.
Avant la migration | Après la migration | |
---|---|---|
Objets de nœuds Kubernetes du plan de contrôle | Nœud du cluster d'administration | Nœud de cluster d'utilisateurs |
Pods du plan de contrôle Kubernetes | Statefulsets/Déploiements du cluster d'administrateur (espace de noms du cluster d'utilisateurs) | Pods statiques du cluster d'utilisateurs (espace de noms kube-system) |
Autres pods du plan de contrôle | Statefulsets/Déploiements du cluster d'administrateur (espace de noms du cluster d'utilisateurs) | Statefulsets/déploiements de cluster d'utilisateurs (espace de noms kube-system) |
Adresse IP virtuelle du plan de contrôle | Service d'équilibrage de charge du cluster d'administrateur | keepalived + haproxy (pods statiques du cluster d'utilisateurs) |
Données Etcd | Volume persistant du cluster d'administrateur | Disque de données |
Gestion des adresses IP des machines du plan de contrôle | IPAM ou DHCP | IPAM |
Réseau du plan de contrôle | VLAN du cluster d'administrateur | VLAN du cluster d'utilisateurs |
Migrer vers un cluster d'administrateur HD
Historiquement, le cluster d'administrateur ne pouvait exécuter qu'un seul nœud de plan de contrôle, ce qui créait un risque inhérent de point de défaillance unique. En plus du nœud de plan de contrôle, les clusters d'administrateur non HD comportent également deux nœuds supplémentaires. Un cluster d'administrateur HD comporte trois nœuds de plan de contrôle sans nœuds complémentaires. Le nombre de VM requis par un nouveau cluster d'administrateur n'a donc pas changé, mais la disponibilité est considérablement améliorée. À partir de la version 1.16, vous pouvez utiliser un cluster d'administrateur haute disponibilité (HD), qui est devenu la seule option pour la création de clusters dans la version 1.28.
La migration vers un cluster d'administrateur HD offre les avantages suivants :
- Fiabilité et disponibilité améliorées : la configuration HD élimine le point de défaillance unique, ce qui permet au cluster d'administrateur de rester opérationnel même si l'un des nœuds du plan de contrôle rencontre un problème.
- Mise à niveau et mise à jour améliorées : toutes les étapes nécessaires pour mettre à niveau et mettre à jour un cluster d'administrateur sont désormais exécutées dans le cluster, et non dans une VM d'administration distincte. Cela permet de s'assurer que les mises à niveau et les mises à jour se poursuivent même si la session initiale de la VM d'administration peut être interrompue.
- Source fiable pour les états de cluster : les clusters d'administrateur non HD s'appuient sur un "fichier de point de contrôle" hors bande pour stocker l'état du cluster d'administrateur. En revanche, le cluster d'administrateur HD stocke l'état à jour du cluster dans le cluster d'administrateur lui-même, ce qui fournit une source d'informations plus fiable sur l'état du cluster.
Vous pouvez choisir de migrer votre cluster d'administrateur standard vers un cluster d'administrateur à haute disponibilité, ce qui n'entraîne aucun temps d'arrêt pour les charges de travail utilisateur. Ce processus entraîne un temps d'arrêt et une perturbation minimes des clusters d'utilisateurs existants, principalement associés au changement de plan de contrôle. Le processus de migration effectue les opérations suivantes :
- Crée un plan de contrôle HD.
- Restaure les données etcd à partir du cluster non HD existant.
- Transfère les clusters d'utilisateurs vers le nouveau cluster d'administrateur HD.
Avant la migration | Après la migration | |
---|---|---|
Instances dupliquées du nœud du plan de contrôle | 1 | 3 |
Nœuds complémentaires | 2 | 0 |
Taille du disque de données | 100Go * 1 | 25Go * 3 |
Chemin d'accès aux disques de données | Défini par vCenter.dataDisk dans le fichier de configuration du cluster d'administrateur | Généré automatiquement dans le répertoire :
/anthos/[ADMIN_CLUSTER_NAME]/default/[MACHINE_NAME]-data.vmdk |
Adresse IP virtuelle du plan de contrôle | Défini par loadBalancer.kind dans le fichier de configuration du cluster d'administrateur | keepalived + haproxy |
Allocation d'adresses IP pour les nœuds du plan de contrôle du cluster d'administrateur | DHCP ou statique, en fonction de network.ipMode.type | 3 adresses IP statiques |
Migrations de groupes d'équilibreurs de charge et de plans de contrôle
En règle générale, lorsque vous mettez à jour des clusters, nous vous recommandons de mettre à jour une seule fonctionnalité ou un seul paramètre à la fois. Toutefois, dans la version 1.30 et les versions ultérieures, vous pouvez regrouper les modifications de configuration de la migration pour votre équilibreur de charge et votre plan de contrôle, puis mettre à jour le cluster une seule fois pour effectuer les deux modifications.
Si vos clusters d'utilisateurs utilisent une ancienne CNI, vous devez d'abord migrer vers Dataplane V2. Vous pouvez ensuite regrouper la migration de l'équilibreur de charge et du plan de contrôle. Le regroupement de la migration présente les avantages suivants :
- Un processus plus simple: si vous devez migrer un plan de contrôle et un équilibreur de charge, vous ne mettez généralement à jour le cluster qu'une seule fois. Vous n'avez pas besoin de décider quelles fonctionnalités migrer en premier.
- Réduire les temps d'arrêt globaux : certaines migrations impliquent des temps d'arrêt du plan de contrôle. Le regroupement de ces migrations dans une seule opération de mise à jour réduit les temps d'arrêt globaux par rapport à des mises à jour individuelles séquentielles.
La procédure varie en fonction des configurations de cluster. En général, effectuez la migration pour chaque cluster dans l'ordre suivant :
Migrez chaque cluster d'utilisateurs pour utiliser le CNI recommandé, Dataplane V2.
Modifiez la configuration et mettez à jour le cluster d'utilisateurs pour déclencher une migration du cluster d'utilisateurs de Calico vers Dataplane V2.
Migrez chaque cluster d'utilisateur pour utiliser l'équilibreur de charge et Controlplane V2 recommandés.
- Modifiez la configuration pour utiliser l'équilibreur de charge recommandé (
MetalLB
ouManualLB
). - Modifiez la configuration pour activer Controlplane V2.
- Mettez à jour le cluster d'utilisateurs pour migrer l'équilibreur de charge et le plan de contrôle.
- Modifiez la configuration pour utiliser l'équilibreur de charge recommandé (
Migrez le cluster d'administrateur pour utiliser l'équilibreur de charge recommandé et rendre le plan de contrôle hautement disponible.
- Modifiez la configuration pour utiliser l'équilibreur de charge recommandé (
MetalLB
ouManualLB
). - Modifiez la configuration pour migrer le plan de contrôle du cluster d'administrateur d'un cluster standard vers un cluster haute disponibilité.
- Mettez à jour le cluster d'administrateur pour migrer l'équilibreur de charge et le plan de contrôle.
- Modifiez la configuration pour utiliser l'équilibreur de charge recommandé (
Effectuez les étapes de nettoyage facultatives, comme le nettoyage de la VM du plan de contrôle standard.
Si votre cluster d'administrateur et tous vos clusters d'utilisateurs sont à la version 1.30 ou supérieure, vous pouvez utiliser le processus de migration de groupe. Pour connaître la procédure détaillée, consultez les pages suivantes :
- Migrer des clusters d'utilisateurs vers des fonctionnalités recommandées
- Migrer le cluster d'administrateur vers les fonctionnalités recommandées