Cette page explique comment résoudre les problèmes de mise en réseau avec Google Distributed Cloud. Des informations et des conseils généraux de dépannage sont fournis, ainsi que des outils suggérés. Des informations de dépannage DNS et certains problèmes courants liés à MetalLB sont également inclus.
Si vous avez besoin d'aide supplémentaire, contactez l'assistance Cloud Customer Care.Résoudre les problèmes de connectivité réseau
La mise en réseau GKE Enterprise repose sur votre infrastructure réseau physique. Par exemple, MetalLB repose sur le respect d'un ARP gratuit par vos commutateurs, l'équilibrage de charge groupé avec Border Gateway Protocol (BGP) repose sur vos routeurs, et tous les nœuds doivent être en mesure de communiquer entre eux. En cas de problème de mise en réseau dans vos clusters GKE, vous devez déterminer si le problème se situe dans les composants GKE Enterprise ou dans votre propre infrastructure.
Commencez par déterminer la portée du problème, puis essayez d'identifier les composants concernés. Le champ d'application d'un problème peut relever d'une catégorie parmi trois : l'objet (d'où), la cible (vers quoi) et la couche réseau.
Le champ d'application du sujet peut être l'un des éléments suivants:
- Tous les nœuds (ou pods hostNetwork) au niveau du cluster.
- Tous les pods à l'échelle du cluster.
- Tous les pods sur un seul nœud ou un ensemble de nœuds.
- Tous les pods du même déploiement ou du même DaemonSet.
- Client en dehors du cluster.
Le champ d'application de la cible peut correspondre à un ou plusieurs des éléments suivants:
- Toutes les autres adresses IP de pods du même cluster.
- Toutes les autres adresses IP de pod du même nœud.
- Adresse IP virtuelle du service ClusterIP du même cluster.
- Adresse IP virtuelle du service LoadBalancer du même cluster.
- LoadBalancer de couche 7 d'entrée (Istio)
- Les autres nœuds du même cluster.
- Nom DNS interne (par exemple,
*.svc.cluster.local
). - Nom DNS externe (par exemple,
google.com
). - Entités externes au cluster.
- Entités sur Internet.
La couche réseau peut correspondre à un ou plusieurs des éléments suivants:
- Problèmes de couche liaison de données de couche 2, tels que le système de voisins, ARP ou NDP
- Problèmes de routage des adresses IP de couche 3.
- Problèmes de point de terminaison TCP ou UDP de couche 4.
- Problèmes HTTP ou HTTPS de couche 7.
- Problèmes de résolution DNS
Comprendre l'étendue d'un problème permet d'identifier les composants impliqués et le niveau auquel le problème se produit. Il est important de collecter des informations lorsque le problème se produit, car certains problèmes sont temporaires. Par conséquent, les instantanés après la récupération du système n'incluront pas suffisamment d'informations pour l'analyse de la cause du problème.
Problèmes d'entrée
Si l'objet est un client extérieur au cluster et qu'il n'a pas pu se connecter à un service LoadBalancer, il s'agit d'un problème de connectivité Nord-Sud. Le schéma suivant montre que dans un exemple fonctionnel le trafic entrant traverse la pile de gauche à droite, et le trafic de retour traverse la pile de droite à gauche.
En cas de problème avec ce flux de trafic, utilisez l'organigramme de dépannage suivant pour identifier l'origine du problème:
Dans cet organigramme, les conseils de dépannage suivants vous aident à déterminer l'origine du problème:
- Le paquet quitte-t-il le client ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous MetalLB ? Si oui, le paquet arrive-t-il au nœud LB et l'ARP est-il ensuite envoyé correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous F5 BIG-IP ? Si oui, avez-vous vérifié s'il y avait des problèmes liés à F5 ?
- La traduction d'adresse réseau (NAT) est-elle effectuée correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème lié à kube-proxy/Dataplane V2.
- Le paquet arrive-t-il sur le nœud de calcul ? Si ce n'est pas le cas, vous rencontrez probablement un problème entre pods Dataplane v2.
- Le paquet arrive-t-il sur le pod ? Si ce n'est pas le cas, vous rencontrez probablement un problème de transfert local Dataplane v2.
Les sections suivantes décrivent les étapes de dépannage à suivre à chaque étape pour déterminer si le trafic circule correctement ou non.
Le paquet quitte-t-il le client ?
Vérifiez si le paquet quitte correctement le client et passe par le routeur configuré dans votre infrastructure réseau physique.
Utilisez
tcpdump
pour vérifier le paquet lorsqu'il quitte le client pour le service de destination:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Si vous ne voyez aucun trafic sortant, c'est la source du problème.
Le paquet arrive-t-il sur un nœud LoadBalancer ?
Si vous utilisez MetalLB comme équilibreur de charge:
Consultez le journal
metallb-controller
pour déterminer quel nœud de l'équilibreur de charge sert l'adresse IP virtuelle du service:kubectl -n kube-system logs -l app=metallb --all-containers=true | grep SERVICE_VIP
Connectez-vous au nœud à l'aide de SSH.
Pour un nœud MetalLB, utilisez
tcpdump
pour examiner le trafic:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Pour ManualLB, le trafic peut atterrir sur n'importe quel nœud. En fonction de la configuration de l'équilibreur de charge, vous pouvez choisir un ou plusieurs nœuds. Utilisez
tcpdump
pour examiner le trafic:tcpdump -ni any host NODE_IP and port NODE_PORT
La commande est différente selon les types d'équilibreurs de charge, car MetalLB n'effectue pas de NAT avant de transférer le paquet vers les nœuds.
Si vous ne voyez aucun trafic entrant dans un nœud, c'est la source du problème.
Y a-t-il un problème avec F5 BIG-IP ?
Pour résoudre les problèmes liés à F5 BIG-IP, consultez l'une des sections suivantes F5 Service ne reçoit pas de trafic.
L'ARP est-il envoyé correctement ?
Le nœud d'équilibreur de charge de MetalLB s'appuie sur ARP pour annoncer l'adresse IP virtuelle du service. Si la réponse ARP est correctement envoyée, mais que le trafic n'entre pas, cela indique un problème dans votre infrastructure de mise en réseau physique. Une cause courante de ce problème est que certaines fonctionnalités avancées d'apprentissage du plan de données ignorent la réponse ARP dans les solutions de réseau défini par logiciel (SDN).
Utilisez
tcpdump
pour détecter les réponses ARP:tcpdump -ni any arp
Essayez de trouver le message qui fait la promotion de la fonctionnalité VIP avec laquelle vous rencontrez des problèmes.
Pour MetalLB, il n'envoie pas de requêtes ARP gratuites. La fréquence à laquelle vous voyez une réponse dépend du moment où un autre appareil, tel qu'un commutateur ToR, envoie une requête ARP.
Le NAT est-il effectué ?
Dataplane v2/kube-proxy effectue une traduction d'adresse réseau de destination (NAT de destination ou DNAT) pour traduire l'adresse IP virtuelle de destination en adresse IP de pod de backend. Si vous savez quel nœud est le backend de l'équilibreur de charge, connectez-vous au nœud à l'aide de SSH.
Utilisez
tcpdump
pour vérifier si le VIP du service est correctement traduit:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
Pour Dataplane V2, vous pouvez également vous connecter aux pods
anetd
et utiliser les outils de débogage Cilium intégrés:cilium monitor --type=drop
Pour en savoir plus, consultez l'une des sections suivantes sur les problèmes liés à Dataplane V2 / Cilium.
Le paquet arrive-t-il sur un nœud de travail ?
Sur les nœuds de calcul, le paquet arrive sur l'interface externe, puis est distribué aux pods.
Vérifiez si le paquet arrive à l'interface externe, généralement appelée
eth0
ouens192
, à l'aide detcpdump
:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
cilium_geneve
.
Étant donné que les backends de service normaux contiennent plusieurs pods sur différents nœuds, il peut être difficile de déterminer le nœud en cause. Une solution courante consiste à capturer le problème suffisamment longtemps pour qu'un paquet arrive ou à limiter le nombre de backends à un.
Si le paquet n'arrive jamais au nœud de travail, cela indique un problème d'infrastructure réseau. Consultez l'équipe chargée de l'infrastructure de mise en réseau pour savoir pourquoi le paquet est supprimé entre les nœuds LoadBalancer et les nœuds de calcul. Voici quelques problèmes courants:
- Vérifiez vos journaux de réseau défini par logiciel (SDN). Il peut arriver que le SDN perde des paquets pour diverses raisons, telles que la segmentation, une mauvaise somme de contrôle ou la protection contre le spoofing.
- Règles de pare-feu qui filtrent les paquets Geneve sur le port UDP 6081.
Si le paquet arrive à l'interface externe ou à l'interface de tunnel du nœud, il doit être transféré vers le pod de destination. Si le pod est un pod de mise en réseau hôte, cette étape n'est pas nécessaire, car le pod partage l'espace de noms réseau avec le nœud. Sinon, un transfert de paquets supplémentaire est nécessaire.
Chaque pod dispose de paires d'interfaces Ethernet virtuelles, qui fonctionnent comme des canaux. Un paquet envoyé à une extrémité de l'interface est reçu à l'autre extrémité de l'interface. L'une des interfaces est déplacée vers l'espace de noms réseau du pod et rebaptisée eth0
. L'autre interface est conservée dans l'espace de noms de l'hôte. Les différents CNI ont un schéma différent. Pour Dataplane V2, l'interface est généralement nommée lxcxxxx
. Les noms comportent des numéros d'interface consécutifs, comme lxc17
et lxc18
. Vous pouvez vérifier si le paquet arrive au pod à l'aide de tcpdump
, ou vous pouvez également spécifier l'interface:
tcpdump -ni lcxxxx host BACKEND_POD_IP and port CONTAINER_PORT
Si le paquet arrive sur le nœud, mais ne parvient pas au pod, vérifiez la table de routage comme suit:
ip route
Normalement, chaque pod doit disposer d'une entrée de routage qui redirige l'adresse IP du pod vers l'interface lxc
. Si l'entrée est manquante, cela signifie généralement qu'il existe une erreur dans le datapath CNI. Pour déterminer l'origine du problème, consultez les journaux du DaemonSet CNI.
Problèmes de sortie
Si le trafic peut pénétrer dans un pod, vous risquez de rencontrer un problème de trafic à la sortie du pod. Les schémas suivants montrent que dans un exemple fonctionnel, le trafic entrant traverse la pile de gauche à droite:
Pour vérifier que le paquet sortant est correctement masquée comme adresse IP du nœud, vérifiez le service externe (couche 4).
L'adresse IP source du paquet doit être mappée de l'adresse IP du pod vers l'adresse IP du nœud avec la traduction d'adresse réseau source (NAT source ou SNAT). Dans Dataplane v2, ce processus est effectué par un ebpf chargé sur une interface externe.
Utilisez
tcpdump
pour vérifier si l'adresse IP source est correctement traduite de l'adresse IP du pod en adresse IP du nœud:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and port EXTERNAL_PORT
Si
tcpdump
indique que les paquets sont correctement masqués, mais que le service distant ne répond pas, vérifiez la connexion au service externe dans votre infrastructure.Si les paquets sortants sont correctement masqués en tant qu'adresse IP du nœud, vérifiez la connectivité de l'hôte externe (couche 3) à l'aide de
tcpdump
:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and icmp
En même temps que vous exécutez
tcpdump
, envoyez un ping à partir de l'un des pods:kubectl exec POD_NAME ping EXTERNAL_IP
Si aucune réponse ping ne s'affiche, vérifiez la connexion au service externe dans votre infrastructure.
Problèmes dans le cluster
En cas de problème de connectivité entre pods, essayez de limiter le problème aux nœuds. Souvent, un groupe de nœuds ne peut pas communiquer avec un autre groupe de nœuds.
Dans Dataplane V2, vérifiez la connectivité du nœud actuel à tous les autres nœuds du même cluster. Depuis le pod
anetd
, vérifiez l'état de santé:cilium status --all-health
Problèmes de couche réseau
Identifier la couche réseau à laquelle le problème de connectivité se produit est une étape importante. Un message d'erreur tel que "Un problème de connectivité d'une source vers une destination" n'est pas suffisamment informatif pour aider à résoudre le problème, qui peut être une erreur d'application, un problème de routage ou de DNS. Comprendre à quel niveau le problème se produit permet de corriger le bon composant.
Souvent, les messages d'erreur indiquent directement la couche à laquelle le problème se produit. Les exemples suivants peuvent vous aider à résoudre les problèmes liés à la couche réseau:
- Les erreurs HTTP indiquent qu'il s'agit d'un problème de couche 7.
- Les codes HTTP
40x
,50x
ou les erreurs de poignée TLS signifient que tout fonctionne normalement au niveau de la couche 4.
- Les codes HTTP
- Les erreurs "Connexion réinitialisée par l'homologue" indiquent qu'il s'agit d'un problème de couche 4.
- Souvent, le socket distant ne peut pas accepter l'état actuel d'une connexion et envoie donc un paquet
RESET
. Ce comportement peut être dû à une erreur de suivi des connexions ou au NAT.
- Souvent, le socket distant ne peut pas accepter l'état actuel d'une connexion et envoie donc un paquet
- Les erreurs "Aucune route vers l'hôte" et "Délai avant expiration de la connexion" sont généralement liées à un problème de couche 3 ou de couche 2.
- Ces erreurs indiquent que le paquet ne peut pas être correctement acheminé vers la destination.
Outils de dépannage utiles
Les DaemonSets liés au réseau s'exécutent sur vos nœuds et peuvent être à l'origine de problèmes de connectivité. Toutefois, une mauvaise configuration de vos nœuds, commutateurs ToR (top of rack), routeurs spine ou pare-feu peut également entraîner des problèmes. Vous pouvez utiliser les outils suivants pour déterminer la portée ou la couche du problème, et déterminer s'il s'agit d'un problème lié à vos nœuds GKE Enterprise ou à votre infrastructure physique.
Ping
Ping fonctionne au niveau de la couche 3 (couche IP) et vérifie le routage entre une source et une destination. Si le ping ne parvient pas à atteindre une destination, cela signifie souvent que le problème se situe au niveau de la couche 3.
Cependant, toutes les adresses IP ne sont pas pingables. Par exemple, certaines adresses IP virtuelles d'équilibreur de charge ne peuvent pas être pinguées s'il s'agit d'un équilibreur de charge de couche 4 pur. Le service ClusterIP
est un exemple où le VIP peut ne pas renvoyer de réponse ping. Au niveau de la couche 4, ce service ne renvoie une réponse ping que lorsque vous spécifiez un numéro de port, tel que VIP:port
.
Les équilibreurs de charge BGPLB et MetalLB de Google Distributed Cloud fonctionnent tous au niveau de la couche 3. Vous pouvez utiliser ping pour vérifier la connectivité. Bien que F5 soit différent, il est également compatible avec ICMP. Vous pouvez utiliser ping pour vérifier la connectivité avec l'adresse VIP F5.
Recherche ARP
La recherche ARP est semblable au ping, sauf qu'elle fonctionne au niveau de la couche 2. Les problèmes de couche 2 et de couche 3 génèrent souvent des messages d'erreur similaires dans les applications. La recherche ARP et ping peuvent aider à différencier le problème. Par exemple, si la source et la destination se trouvent dans le même sous-réseau, mais que vous ne pouvez pas effectuer une recherche ARP sur la destination, il s'agit d'un problème de couche 2.
Si l'arping <ip>
aboutit, l'adresse MAC de la destination est renvoyée. Au niveau de la couche 2, cette adresse indique souvent un problème d'infrastructure physique.
Ce problème est souvent dû à un commutateur physique entre les nœuds.
La recherche ARP peut également détecter les conflits d'adresses IP. Un conflit d'adresse IP se produit lorsque deux machines sont configurées pour utiliser la même adresse IP sur le même sous-réseau ou qu'une adresse VIP est utilisée par une autre machine physique. Les conflits d'adresses IP peuvent créer des problèmes intermittents difficiles à résoudre. Si arping <ip>
renvoie plusieurs entrées d'adresse MAC, cela signifie qu'il existe un conflit d'adresse IP.
Après avoir obtenu l'adresse MAC via la recherche ARP, vous pouvez utiliser https://maclookup.app/ pour rechercher le fabricant de l'adresse MAC. Chaque fabricant possède un préfixe MAC. Vous pouvez donc utiliser ces informations pour déterminer quel appareil tente d'utiliser la même adresse IP. Par exemple, VMware est propriétaire du bloc 00:50:56
. Par conséquent, une adresse MAC 00:50:56:xx:yy:zz
est une VM dans votre environnement vSphere.
iproute2
La CLI ip
pour iproute2
comporte de nombreuses sous-commandes utiles, comme les suivantes:
ip r
: imprime la table de routage.ip n
: imprime la table des voisins pour le mappage des adresses IP aux adresses MACip a
: imprime toutes les interfaces de la machine.
Un route ou une entrée manquants dans la table des voisins peuvent entraîner des problèmes de connectivité du nœud. Anetd gère la table de routage et la table des voisins. Une mauvaise configuration de ces tables peut entraîner des problèmes de connectivité.
Cilium/CLI Hubble pour Dataplane v2
Chaque pod anetd
dispose de plusieurs outils de débogage utiles pour les problèmes de connectivité:
cilium monitor --type=drop
- Imprimez le journal de chaque paquet abandonné par anetd/Cilium.
hubble observe
- Imprimez tous les paquets passant par la pile ebpf d'anetcd.
cilium status --all-health
- Imprimez l'état de Cilium, y compris l'état de la connectivité entre les nœuds. Chaque pod anetd vérifie l'état de tous les autres nœuds du cluster et peut aider à déterminer les problèmes de connectivité entre les nœuds.
Iptables
Les iptables sont utilisés dans de nombreux composants et sous-systèmes Kubernetes. kube-proxy
utilise des iptables pour mettre en œuvre la résolution de service.
Pour résoudre les problèmes de réseau au niveau des iptables, utilisez la commande suivante:
iptables -L -v | grep DROP
Examinez les règles de suppression, puis vérifiez le nombre de paquets et d'octets pour voir s'ils augmentent au fil du temps.
Tcpdump
Tcpdump est un outil de capture de paquets puissant qui génère de nombreuses données sur le trafic réseau. Une pratique courante consiste à exécuter tcpdump à la fois à la source et à la destination. Si un paquet est capturé lorsqu'il quitte le nœud source, mais qu'il n'est jamais capturé sur le nœud de destination, cela signifie qu'un élément entre les deux supprime le paquet. Ce comportement indique généralement qu'un élément de votre infrastructure physique abandonne le paquet par erreur.
Dépannage de DNS
Les problèmes de résolution DNS se divisent en deux catégories principales:
- Pods standards, qui utilisent les serveurs DNS du cluster.
- Pods ou nœuds du réseau hôte, qui n'utilisent pas de serveurs DNS du cluster
Les sections suivantes fournissent des informations sur l'architecture DNS du cluster et des conseils utiles avant de commencer à résoudre l'un de ces problèmes.
Architecture du DNS de cluster
Un service DNS de cluster résout les requêtes DNS pour les pods du cluster. CoreDNS fournit ce service pour toutes les versions de Google Distributed Cloud.
Chaque cluster comporte au moins deux pods coredns
et un autoscaler chargé de faire évoluer le nombre de pods DNS en fonction de la taille du cluster.
Un service nommé kube-dns
équilibre également la charge des requêtes entre tous les pods coredns
de backend.
La plupart des pods ont un DNS en amont configuré sur l'adresse IP du service kube-dns
. Les pods envoient des requêtes DNS à l'un des pods coredns
. Les requêtes DNS peuvent être regroupées dans l'une des destinations suivantes:
- Si la requête concerne un domaine
cluster.local
, il s'agit d'un nom DNS du cluster qui fait référence à un service ou à un pod du cluster.- CoreDNS surveille le
api-server
pour tous les services et pods du cluster, et répond aux requêtes de domainescluster.local
valides.
- CoreDNS surveille le
- Si la requête ne concerne pas un domaine
cluster.local
, elle concerne un domaine externe.- CoreDNS transfère la requête au ou aux serveurs de noms en amont. Par défaut, CoreDNS utilise les serveurs de noms en amont configurés sur le nœud sur lequel il s'exécute.
Pour en savoir plus, consultez la présentation du fonctionnement et de la configuration du DNS dans Kubernetes.
Conseils de dépannage DNS
Pour résoudre les problèmes DNS, vous pouvez utiliser les outils dig
et nslookup
. Ces outils vous permettent d'envoyer des requêtes DNS pour tester si la résolution DNS fonctionne correctement. Les exemples suivants vous montrent comment utiliser dig
et nslookup
pour rechercher des problèmes de résolution DNS.
Utilisez
dig
ounslookup
pour envoyer une requête pourgoogle.com
:dig google.com nslookup google.com
Utilisez
dig
pour envoyer une requêtekubernetes.default.svc.cluster.local
au serveur192.168.0.10
:dig @192.168.0.10 kubernetes.default.svc.cluster.local
Vous pouvez également utiliser
nslookup
pour effectuer la même recherche DNS que la commandedig
précédente:nslookup kubernetes.default.svc.cluster.local 192.168.0.10
Examinez la sortie des commandes dig ou nslookup. Si vous recevez une réponse incorrecte ou aucune réponse, cela indique un problème de résolution DNS.
Pods réguliers
La première étape du débogage d'un problème DNS consiste à déterminer si les requêtes parviennent aux pods coredns
ou non. Un problème de connectivité général du cluster apparaît souvent comme des problèmes DNS, car une requête DNS est le premier type de trafic qu'une charge de travail envoie.
Examinez les messages d'erreur de vos applications. Les erreurs telles que io timeout
ou des erreurs similaires indiquent qu'aucune réponse n'est reçue et qu'il existe un problème de connectivité réseau général.
Les messages d'erreur qui incluent un code d'erreur DNS tel que NXDOMAIN
ou SERVFAIL
indiquent qu'il existe une connectivité avec le serveur DNS du cluster, mais que le serveur n'a pas réussi à résoudre le nom de domaine:
- Les erreurs
NXDOMAIN
indiquent que le serveur DNS signale que le domaine n'existe pas. Vérifiez que le nom de domaine demandé par votre application est valide. - Les erreurs
SERVFAIL
ouREFUSED
indiquent que le serveur DNS a renvoyé une réponse, mais qu'il n'a pas pu résoudre le domaine ni vérifier qu'il n'existe pas. Pour en savoir plus, consultez les journaux des podscoredns
.
Vous pouvez trouver l'adresse IP du service kube-dns
à l'aide de la commande suivante:
kubectl -n kube-system get svc kube-dns
À partir d'un pod où le DNS ne fonctionne pas, essayez d'envoyer une requête DNS à cette adresse IP à l'aide de dig
ou nslookup
, comme indiqué dans une section précédente:
- Si ces requêtes ne fonctionnent pas, essayez d'envoyer des requêtes à l'adresse IP de chaque pod
coredns
. - Si certains pods fonctionnent, mais pas d'autres, vérifiez s'il existe des tendances discernables, par exemple si la résolution DNS fonctionne pour les pods sur le même nœud que le pod
coredns
, mais pas sur les nœuds. Ce comportement peut indiquer un problème de connectivité au sein du cluster.
Si CoreDNS ne parvient pas à résoudre les noms de domaine externes, consultez la section suivante pour résoudre les problèmes liés aux pods de réseau hôte. CoreDNS se comporte comme un pod de réseau hôte et utilise les serveurs DNS en amont du nœud pour la résolution de nom.
Nœuds ou pods de réseau hôte
Les pods et les nœuds du réseau hôte utilisent les serveurs de noms configurés sur le nœud pour la résolution DNS, et non le service DNS du cluster. Selon l'OS, ce serveur de noms est configuré dans /etc/resolv.conf
ou /run/systemd/resolve/resolv.conf
. Cette configuration signifie qu'ils ne peuvent pas résoudre les noms de domaine cluster.local
.
Si vous rencontrez des problèmes de résolution de nom hôte-réseau, suivez les étapes de dépannage des sections précédentes pour vérifier si le DNS fonctionne correctement pour vos serveurs de noms en amont.
Vérifiez que tous les nœuds ont le même ensemble de serveurs configurés. Si vous avez configuré différents serveurs de noms, vous pouvez constater des incohérences dans la résolution DNS sur différents nœuds. Vérifiez que chaque serveur de noms fonctionne individuellement en envoyant une requête à chacun d'eux à l'aide dedig
ou nslookup
. Si certains serveurs de noms fonctionnent, mais que d'autres ne le font pas, ce type d'échecs de résolution DNS incohérents s'affiche.
Problèmes réseau courants
Les sections suivantes décrivent certains problèmes de mise en réseau courants que vous pouvez rencontrer. Pour résoudre votre problème, suivez les instructions de dépannage appropriées. Si vous avez besoin d'une aide supplémentaire, contactez Cloud Customer Care.
Dataplane v2 / Cilium
Erreur courante : [PUT /endpoint/{id}][429] putEndpointIdTooManyRequests
Cette erreur signifie que l'événement de création de pod a été refusé par l'agent Cilium en raison d'une limite de débit. Pour chaque nœud, Cilium limite le nombre de requêtes simultanées au point de terminaison PUT à quatre. Ce comportement est normal en cas d'afflux de requêtes vers un nœud. L'agent Cilium doit rattraper les requêtes retardées.
Dans GKE Enterprise 1.14 et versions ultérieures, la limite de débit s'ajuste automatiquement à la capacité du nœud. Le limiteur de débit peut converger vers un nombre plus raisonnable, avec des limites de débit plus élevées pour les nœuds plus puissants.
Erreur courante : Ebpf map size is full
Dataplane v2 stocke l'état dans une carte eBPF. L'état inclut le service, le suivi des connexions, l'identité du pod et les règles de stratégie réseau. Si une carte est saturée, l'agent ne peut pas insérer d'entrées, ce qui crée un écart entre le plan de contrôle et le plan de données. Par exemple, la carte de service est limitée à 64 ko d'entrées.
Pour vérifier les entrées de la carte eBFP et leur taille actuelle, utilisez
bpftool
. L'exemple suivant vérifie les mappages de l'équilibreur de charge:bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | tail -n -1 bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | tail -n -1
Si la carte approche de la limite de 64 000, nettoyez-la. L'exemple suivant nettoie les mappages de l'équilibreur de charge:
bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5, "0x"$6, "0x"$7, "0x"$8, "0x"$9, "0x"$10, "0x"$11, "0x"$12, "0x"$13}' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 key bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5 }' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 key
Pour remplir à nouveau l'état dans la carte eBFP, redémarrez
anetd
.
Nœud non prêt en raison d'erreurs NetworkPluginNotReady
Si le pod CNI n'est pas en cours d'exécution sur le nœud, une erreur semblable à celle-ci peut s'afficher:
"Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized
Le nœud peut également être dans un état non prêt, avec une erreur semblable à l'exemple suivant:
"Network plugin not installed"
Lorsqu'un nœud est initialisé, kubelet
attend que plusieurs événements se produisent avant de marquer le nœud comme Ready
. L'un des événements que kubelet
vérifie est que le plug-in CNI (Container Network Interface) est installé. Le plug-in CNI doit être installé par anetd à l'aide d'un conteneur d'initialisation pour installer à la fois le binaire CNI et la configuration CNI dans les répertoires hôtes requis.
Pour résoudre ce problème, vérifiez pourquoi ces pods ne s'exécutent pas sur le nœud. En général, l'erreur n'est pas due à des problèmes de réseau. Ces pods s'exécutent sur le réseau hôte. Il n'y a donc aucune dépendance réseau.
Vérifiez l'état du pod
anetd
. Consultez la procédure de dépannage ci-dessous pour déterminer la cause du problème:- Si le pod est dans un état
Crashlooping
, vérifiez les journaux pour savoir pourquoi le pod ne peut pas s'exécuter correctement. - Si le pod est dans un état
Pending
, utilisezkubectl describe
et examinez les événements du pod. Par exemple, il peut manquer au pod une ressource telle qu'un volume. - Si le pod est à l'état
Running
, vérifiez les journaux et la configuration. Certaines implémentations CNI fournissent des options permettant de désactiver l'installation CNI, comme dans Cilium. - Une option de configuration appelée
custom-cni-conf
est disponible dans anetd. Si ce paramètre est configuré surtrue
, anetd n'installe pas son binaire CNI.
- Si le pod est dans un état
Nœud NON PRÊT en raison d'entrées ARP obsolètes
Il peut arriver que des entrées ARP obsolètes dans les nœuds du plan de contrôle du cluster d'administrateur provoquent une incohérence au niveau des adresses MAC. Ce problème d'adresse peut entraîner des délais avant expiration de la connexion aux adresses IP virtuelles du plan de contrôle des clusters d'utilisateurs gérés. Les délais avant expiration de la connexion peuvent entraîner le marquage du nœud avec des entrées ARP obsolètes comme NOT
READY
. Les nœuds marqués comme NOT READY
peuvent bloquer les installations et les mises à niveau de clusters.
Dans ce cas, le journal kubelet du nœud contenant des entrées ARP obsolètes contient une erreur de type délai d'expiration de la session TLS handshake, comme celle-ci :
failed to get API group resources: unable to retrieve the complete list of server APIs: v1: Get "https://128.160.252.101:443/api/v1": net/http: TLS handshake timeout
Pour vérifier et résoudre le problème, procédez comme suit:
Utilisez SSH pour vous connecter au nœud du plan de contrôle du cluster d'utilisateur.
Vérifiez l'adresse MAC de l'interface à laquelle l'adresse VIP est associée:
ip a | grep DEVICE_NAME: -A 6
Remplacez
DEVICE_NAME
par le nom de l'appareil réseau du nœud du plan de contrôle.Utilisez SSH pour vous connecter à un nœud du plan de contrôle d'un cluster d'administrateur.
Vérifiez le cache ARP sur le plan de contrôle du cluster d'administrateur pour l'adresse IP virtuelle du plan de contrôle du cluster d'utilisateur:
ip n | grep VIP_ADDRESS
Remplacez
VIP_ADDRESS
par l'adresse IP de l'adresse IP virtuelle du plan de contrôle du cluster d'utilisateur (controlPlaneVIP
).Si les deux commandes
ip
renvoient une adresse MAC différente, vous êtes concerné par ce problème.Pour résoudre le problème, videz le cache ARP sur le nœud de plan de contrôle du cluster d'administrateur :
ip n flush all
Le service F5 ne reçoit pas de trafic
Si aucun trafic n'est transmis au service F5, consultez les étapes de dépannage suivantes:
Vérifiez que chaque partition de F5 BIG-IP est configurée dans un cluster, qu'il s'agisse de clusters d'administrateur ou d'utilisateur. Si une partition est partagée par plusieurs clusters différents, des interruptions de connexion intermittentes se produisent. Ce comportement est dû au fait que deux clusters tentent de prendre le contrôle de la même partition et de supprimer des services d'autres clusters.
Vérifiez que les deux pods suivants sont en cours d'exécution. Les pods non exécutés indiquent une erreur:
Load-balancer-f5 K8s-bigip-ctlr-deployment-577d57985d-vk9wj
Le
Load-balancer-f5
appartient à GKE Enterprise et crée des ConfigMaps pour chaque service de type LoadBalancer. Le ConfigMap est finalement consommé par le contrôleurbigip
.Assurez-vous que le ConfigMap existe pour chaque port de chaque service. Par exemple, avec les ports suivants:
Kube-server-443-tcp 2 31h Kube-server-8132-tcp 2 31h
Le service
kube-server
doit ressembler à l'exemple suivant :Kube-server LoadBalancer 10.96.232.96 21.1.7.16 443:30095/TCP,8132:32424/TCP 31h
La section de données du ConfigMap doit contenir le VIP et le port d'interface, comme illustré dans l'exemple suivant :
data: '{"virtualServer":{"backend":{"serviceName":"kube-apiserver","servicePort":443,"healthMonitors":[{"protocol":"tcp","interval":5,"timeout":16}]},"frontend":{"virtualAddress":{"bindAddr":"21.1.7.16","port":443},"partition":"herc-b5bead08c95b-admin","balance":"ratio-member","mode":"tcp"}}}' schema: f5schemadb://bigip-virtual-server_v0.1.7.json
Vérifiez les journaux et les métriques de votre instance BIG-IP. Si le ConfigMap est correctement configuré, mais que l'instance BIG-IP ne respecte pas la configuration, il peut s'agir d'un problème F5. Pour les problèmes qui se produisent dans l'instance BIG-IP, contactez l'assistance F5 pour les diagnostiquer et les résoudre.
Échec NAT avec trop de connexions parallèles
Pour un nœud donné de votre cluster, l'adresse IP du nœud fournit une traduction d'adresse réseau (NAT) pour les paquets acheminés vers une adresse en dehors du cluster.
De même, lorsque les paquets entrants entrent dans un nœud d'équilibrage de charge configuré pour utiliser l'équilibrage de charge groupé (spec.loadBalancer.mode: bundled
), la traduction d'adresse réseau source (SNAT) achemine les paquets vers l'adresse IP du nœud avant qu'ils ne soient transférés vers un pod backend.
La plage de ports pour le NAT utilisée par Google Distributed Cloud est 32768-65535
. Cette plage limite le nombre de connexions parallèles à 32 767 par protocole sur ce nœud. Chaque connexion nécessite une entrée dans la table conntrack. Si vous avez trop de connexions de courte durée, la table conntrack manque de ports pour la NAT. Un récupérateur de mémoire nettoie les entrées obsolètes, mais le nettoyage n'est pas immédiat.
Lorsque le nombre de connexions sur votre nœud approche 32 767, vous commencez à voir des suppressions de paquets pour les connexions nécessitant la NAT.
Pour savoir si vous êtes concerné par ce problème:
Exécutez la commande suivante sur le pod
anetd
sur le nœud problématique:kubectl -n kube-system anetd-XXX -- hubble observe \ --from-ip $IP --to-ip $IP -f
Les erreurs doivent s'afficher sous la forme suivante :
No mapping for NAT masquerade DROPPED
Pour contourner ce problème, redistribuez votre trafic vers d'autres nœuds.