Cette page répertorie les problèmes connus liés à la mise en réseau GKE. Cette page s'adresse aux administrateurs et architectes qui gèrent le cycle de vie de l'infrastructure technologique sous-jacente, et qui gèrent les alertes et les pages lorsque les objectifs de niveau de service (SLO) ne sont pas atteints ou que les applications échouent.
Pour filtrer les problèmes connus en fonction d'une version de produit, sélectionnez vos filtres dans les menus déroulants suivants.
Sélectionnez votre version de GKE:
Vous pouvez également rechercher votre problème:
Version(s) identifiée(s) | Version(s) corrigée(s) | Problème et solution |
---|---|---|
1.30, 1.31, 1.32 |
Les nœuds nouvellement créés ne sont pas ajoutés aux équilibreurs de charge internes de couche 4.Les équilibreurs de charge Google Cloud créés pour les services LoadBalancer internes peuvent ne pas détecter les nœuds nouvellement créés dans le groupe d'instances de backend. Le problème est le plus visible sur un cluster qui a été réduit à zéro nœud, puis redimensionné à un ou plusieurs nœuds. Solutions :
|
|
1.27,1.28,1.29,1.30,1.31 |
Le contrôleur NEG cesse de gérer les points de terminaison lorsque le port est supprimé du serviceLorsque le contrôleur NEG est configuré pour créer un NEG autonome pour un service et qu'un des ports configurés est ensuite supprimé du service, le contrôleur NEG finit par cesser de gérer les points de terminaison du NEG. En plus des services pour lesquels l'utilisateur crée une annotation NEG autonome, cela affecte également les services référencés par la passerelle GKE, MCI et la passerelle multicluster GKE. Solution : Lorsque vous supprimez un port d'un service avec une annotation NEG autonome, l'annotation doit également être mise à jour pour supprimer le port en question. |
|
1.28 |
Erreur de configuration TLS de la passerelleNous avons identifié un problème de configuration de TLS pour les passerelles dans les clusters exécutant la version 1.28.4-gke.1083000 de GKE. Cela affecte les configurations TLS utilisant un SSLCertificate ou un CertificateMap. Si vous mettez à niveau un cluster avec des passerelles existantes, les mises à jour apportées à la passerelle échoueront. Pour les nouvelles passerelles, les équilibreurs de charge ne seront pas provisionnés. Ce problème sera résolu dans une prochaine version de correctif de GKE 1.28. |
|
1.27,1.28,1.29 |
|
Échecs intermittents d'établissement de la connexionLes clusters exécutant le plan de contrôle version 1.26.6-gke.1900 ou ultérieure peuvent rencontrer des échecs intermittents d'établissement de connexion. Les risques de défaillances sont faibles et ne concernent pas tous les clusters. Les défaillances devraient cesser complètement quelques jours après le début des symptômes. |
1.27,1.28,1.29 |
|
Problèmes de résolution DNS avec Container-Optimized OSLes charges de travail exécutées sur des clusters GKE avec des nœuds basés sur Container-Optimized OS peuvent rencontrer des problèmes de résolution DNS. |
1.28 | 1.28.3-gke.1090000 (et versions ultérieures) |
La règle de réseau supprime une connexion en raison d'une recherche de suivi des connexions incorrectePour les clusters avec GKE Dataplane V2 activé, lorsqu'un pod client se connecte lui-même à l'aide d'un service ou de l'adresse IP virtuelle d'un équilibreur de charge réseau passthrough interne, le paquet de réponse n'est pas identifié comme faisant partie d'une connexion existante en raison d'une recherche conntrack incorrecte dans le plan de données. Cela signifie qu'une règle de réseau qui limite le trafic entrant pour le pod est appliquée de manière incorrecte sur le paquet. L'impact de ce problème dépend du nombre de pods configurés pour le service. Par exemple, si le service dispose d'un pod de backend, la connexion échoue toujours. Si le service dispose de deux pods de backend, la connexion échoue la moitié du temps. Solution :
Vous pouvez limiter les conséquences de ce problème en configurant la même valeur pour |
1.27,1.28 |
|
Suppressions de paquets pour les flux de connexion "hairpin"Pour les clusters avec GKE Dataplane V2 activé, lorsqu'un pod crée une connexion TCP vers lui-même à l'aide d'un service, de sorte que le pod est à la fois la source et la destination de la connexion, le suivi des connexions GKE Dataplane V2 eBPF suit les états de connexion de manière incorrecte, ce qui entraîne des fuites dans les entrées conntrack. En cas de fuite d'un tuple de connexion (protocole, adresse IP source/de destination et port source/de destination), les nouvelles connexions utilisant le même tuple de connexion peuvent entraîner des suppressions de paquets de retour. Solution : Utilisez l'une des solutions suivantes :
|
Version antérieure à 1.31.0-gke.1506000 | 1.31.0-gke.1506000 et versions ultérieures |
Le réseau de type appareil dans le multiréseau GKE échoue avec des noms de réseau longsLa création du cluster échoue avec l'erreur suivante:
Solution : Limitez la longueur des noms d'objets réseau de type appareil à 41 caractères maximum. Le chemin d'accès complet de chaque socket de domaine UNIX est composé, y compris le nom de réseau correspondant. Linux limite la longueur des chemins d'accès aux sockets à 107 octets. En tenant compte du répertoire, du préfixe du nom de fichier et de l'extension |
1.27, 1.28, 1.29, 1.30 |
|
Problèmes de connectivité pour les pods
|
1.28, 1.29, 1.30, 1.31 |
Pods Calico non opérationnels sur des clusters comportant moins de trois nœuds au total et un nombre insuffisant de vCPULes pods calico-typha et calico-node ne peuvent pas être planifiés sur des clusters répondant à toutes les conditions suivantes: moins de trois nœuds au total, chaque nœud disposant d'un ou de moins de vCPU allouables et la règle de réseau activée. Cela est dû à un manque de ressources de processeur. Solutions :
|