Cette page explique comment résoudre les problèmes de mise en réseau avec Google Distributed Cloud. Vous y trouverez des informations et des conseils généraux de dépannage, ainsi que des suggestions d'outils. Des informations de dépannage DNS et certains problèmes courants pour Calico, Seesaw et MetalLB sont également inclus.
Si vous avez besoin d'aide supplémentaire, contactez l'assistance Cloud Customer Care.Dépannage de la connectivité réseau
La mise en réseau de GKE Enterprise repose sur votre infrastructure réseau physique. Par exemple, Seesaw ou MetalLB s'appuie sur vos commutateurs qui respectent l'ARP gratuit, l'équilibrage de charge groupé avec Border Gateway Protocol (BGP) repose sur vos routeurs, et tous les nœuds doivent pouvoir communiquer entre eux. Lorsque vous rencontrez un problème de mise en réseau dans vos clusters GKE, vous devez déterminer si le problème provient des composants GKE Enterprise ou de votre propre infrastructure.
Commencez par déterminer l'étendue du problème, puis essayez d'identifier les composants concernés. La portée d'un problème peut correspondre à l'une des trois catégories suivantes: le sujet (à partir d'où), la cible (à laquelle) et la couche réseau.
La portée du sujet peut être l'une des suivantes:
- Tous les nœuds (ou le pod hostNetwork) à l'échelle du cluster.
- Tous les pods à l'échelle du cluster.
- tous les pods d'un seul nœud ou d'un ensemble de nœuds ;
- Tous les pods du même déploiement ou DaemonSet
- depuis l'extérieur du cluster.
Le champ d'application de la cible peut correspondre à un ou plusieurs des éléments suivants:
- Toutes les autres adresses IP de pods du même cluster.
- Toutes les autres adresses IP de pods provenant du même nœud.
- Adresse IP virtuelle du service ClusterIP du même cluster.
- Adresse IP virtuelle du service LoadBalancer à partir du même cluster
- LoadBalancer d'entrée de couche 7 (Istio).
- Autres nœuds du même cluster
- Nom DNS interne (par exemple,
*.svc.cluster.local
) - Nom DNS externe (par exemple,
google.com
) - Entités extérieures au cluster
- Entités sur Internet.
La couche réseau peut être un ou plusieurs des éléments suivants:
- Problèmes de couche de liaison de couche 2 tels que les systèmes voisins, ARP ou NDP.
- Problèmes de routage d'adresses IP de couche 3.
- Problèmes de point de terminaison TCP ou UDP de couche 4.
- Problèmes HTTP ou HTTPS de couche 7
- Problèmes de résolution DNS
Comprendre l'étendue d'un problème permet d'identifier les composants impliqués et la couche dans laquelle il se produit. Il est important de collecter des informations lorsque le problème se produit, car certains problèmes sont temporaires. Par conséquent, les instantanés après la récupération du système n'incluent pas suffisamment d'informations pour analyser l'origine du problème.
Problèmes d&#Ingress
Si le sujet est un client extérieur au cluster et que celui-ci n'a pas pu se connecter à un service LoadBalancer, il s'agit d'un problème de connectivité Nord-Sud. Le schéma suivant montre que, dans un exemple fonctionnel, le trafic entrant traverse la pile de gauche à droite et le trafic de retour traverse la pile de droite à gauche. Seesaw est différent dans la mesure où le trafic de retour ignore l'équilibreur de charge et retourne directement au client:
En cas de problème avec ce flux de trafic, identifiez l'origine du problème à l'aide de l'organigramme de dépannage suivant:
Dans cet organigramme, les conseils de dépannage suivants vous aident à déterminer l'origine du problème:
- Le paquet quitte-t-il le client ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous l'équilibreur de charge Seesaw ? Si c'est le cas, le paquet arrive-t-il au nœud Seesaw et l'ARP est-il alors envoyé correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous MetalLB ? Si c'est le cas, le paquet arrive-t-il au nœud d'équilibrage de charge et est-il ensuite envoyé correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous F5 BIG-IP et, dans l'affirmative, avez-vous vérifié l'absence de problèmes liés à F5 ?
- La traduction d'adresse réseau (NAT) est-elle effectuée correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème lié à kube-proxy / Dataplane V2.
- Le paquet arrive-t-il au nœud de calcul ? Si ce n'est pas le cas, vous rencontrez probablement un problème entre pods Calico / Dataplane v2.
- Le paquet arrive-t-il au pod ? Si ce n'est pas le cas, vous rencontrez probablement un problème de transfert local Calico / Dataplane v2.
Les sections suivantes expliquent comment résoudre chaque étape afin de déterminer si le trafic circule correctement ou non.
Le paquet quitte-t-il le client ?
Vérifiez si le paquet quitte correctement le client et passe par le routeur configuré dans votre infrastructure réseau physique.
Utilisez
tcpdump
pour vérifier le paquet lorsqu'il quitte le client pour le service de destination:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Si vous ne constatez aucun trafic sortant, c'est la source du problème.
Le paquet arrive-t-il à un nœud Seesaw ?
Si vous utilisez Seesaw comme équilibreur de charge, recherchez le nœud maître, puis connectez-vous au nœud à l'aide de SSH.
Utilisez
tcpdump
pour vérifier si les paquets attendus sont arrivés au niveau du nœud Seesaw:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Si vous ne voyez aucun trafic entrant, c'est la source du problème.
Le paquet arrive-t-il à un nœud LoadBalancer ?
Si vous utilisez MetalLB comme équilibreur de charge:
Consultez le journal
metallb-controller
pour déterminer quel nœud de l'équilibreur de charge diffuse l'adresse IP virtuelle du service:kubectl -n kube-system logs -l app=metallb --all-containers=true | grep SERVICE_VIP
Connectez-vous au nœud à l'aide de SSH.
Pour un nœud MetalLB, utilisez
tcpdump
afin d'examiner le trafic:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Avec l'équilibrage de charge manuel, le trafic peut atterrir sur n'importe quel nœud. Selon la configuration de l'équilibreur de charge, vous pouvez choisir un ou plusieurs nœuds. Utilisez
tcpdump
pour examiner le trafic:tcpdump -ni any host NODE_IP and port NODE_PORT
La commande diffère entre les types d'équilibreurs de charge, car MetalLB et Seesaw n'effectuent pas de NAT avant de transférer le paquet aux nœuds.
Si vous ne constatez aucun trafic entrant dans les nœuds, c'est la source du problème.
Existe-t-il un problème avec F5 BIG-IP ?
Pour résoudre les problèmes liés à F5 BIG-IP, consultez l'une des sections suivantes sur la page Le service F5 ne reçoit pas de trafic.
L'ARP est-il correctement envoyé ?
Le nœud d'équilibreur de charge pour MetalLB ou Seesaw s'appuie sur l'ARP pour annoncer l'adresse IP virtuelle du service. Si la réponse ARP est correctement envoyée, mais que le trafic n'entre pas, il s'agit du signal d'un problème dans votre infrastructure réseau physique. L'une des causes courantes de ce problème est que certaines fonctionnalités avancées d'apprentissage de plan de données ignorent la réponse ARP dans les solutions de réseau défini par logiciel (SDN).
Utilisez
tcpdump
pour détecter les réponses ARP:tcpdump -ni any arp
Recherchez le message qui annonce l'adresse IP virtuelle avec laquelle vous rencontrez des problèmes.
Pour Seesaw, des ARP gratuits sont envoyés pour toutes les VIP. Vous devriez voir les messages ARP pour chaque IPV toutes les 10 secondes.
Pour MetalLB, il n'envoie pas d'ARP gratuit. La fréquence à laquelle vous voyez une réponse dépend du moment où un autre appareil, tel qu'un commutateur top of rack (ToR) ou un commutateur virtuel, envoie une requête ARP.
La NAT est-elle effectuée ?
Dataplane v2 / kube-proxy effectue la traduction de l'adresse réseau de destination (NAT ou DNAT de destination) pour traduire l'adresse IP virtuelle de destination en adresse IP de pod de backend. Si vous savez quel nœud est le backend de l'équilibreur de charge, connectez-vous au nœud à l'aide de SSH.
Utilisez
tcpdump
pour vérifier si l'adresse IP virtuelle du service est correctement traduite:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
Pour Dataplane v2, vous pouvez également vous connecter aux pods
anetd
et utiliser les outils de débogage Cilium intégrés:cilium monitor --type=drop
Pour en savoir plus, consultez l'une des sections suivantes sur les problèmes liés à Dataplane v2 / Cilium.
Le paquet arrive-t-il à un nœud de calcul ?
Sur les nœuds de calcul, le paquet arrive sur l'interface externe, puis est transmis aux pods.
Vérifiez si le paquet arrive sur l'interface externe, généralement nommée
eth0
ouens192
, à l'aide detcpdump
:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
Étant donné que les backends de service normaux contiennent plusieurs pods sur différents nœuds, il peut être difficile de déterminer quel nœud est responsable du problème. Une solution de contournement courante consiste à capturer le problème suffisamment longtemps pour que certains paquets finissent par arriver, ou à limiter le nombre de backends à un.
Si le paquet n'arrive jamais au nœud de travail, cela indique un problème d'infrastructure réseau. Consultez l'équipe chargée de l'infrastructure réseau pour savoir pourquoi le paquet est supprimé entre les nœuds LoadBalancer et nœuds de calcul. Voici quelques problèmes courants:
- Vérifiez les journaux de votre réseau défini par logiciel (SDN). Parfois, le SDN peut supprimer des paquets pour diverses raisons, telles que la segmentation, la somme de contrôle incorrecte ou l'anti-spoofing.
- Des règles de pare-feu qui filtrent les paquets dont la destination est l'adresse IP et le port du pod de backend
Si le paquet arrive sur l'interface externe du nœud ou sur l'interface du tunnel, il doit être transféré au pod de destination. Si le pod est un pod réseau hôte, cette étape n'est pas nécessaire, car le pod partage l'espace de noms réseau avec le nœud. Sinon, un transfert de paquets supplémentaire est requis.
Chaque pod dispose de paires d'interfaces Ethernet virtuelles, qui fonctionnent comme des pipes. Un paquet envoyé à une extrémité de l'interface est reçu de l'autre extrémité de l'interface. L'une des interfaces est déplacée vers l'espace de noms réseau du pod et renommée eth0
. L'autre interface est conservée dans l'espace de noms hôte. Différents CIN ont un schéma différent. Pour Dataplane v2, l'interface est normalement nommée lxcxxxx
. Les noms comportent des numéros d'interface consécutifs, tels que lxc17
et lxc18
. Vous pouvez vérifier si le paquet arrive au pod à l'aide de tcpdump
ou spécifier l'interface:
tcpdump -ni lcxxxx host BACKEND_POD_IP and port CONTAINER_PORT
Si le paquet arrive sur le nœud, mais pas au pod, vérifiez la table de routage comme suit:
ip route
Normalement, chaque pod doit disposer d'une entrée de routage pour laquelle l'adresse IP du pod est acheminée vers l'interface lxc
. Si l'entrée est manquante, cela signifie normalement que le chemin de données CNI comporte une erreur. Pour déterminer l'origine du problème, consultez les journaux du DaemonSet CNI.
Problèmes de sortie
Si le trafic peut entrer dans un pod, il se peut que vous rencontriez un problème avec le trafic en sortie. Les schémas suivants montrent que, dans un exemple fonctionnel, le trafic entrant parcourt la pile de gauche à droite:
Pour vérifier que le paquet sortant se fait correctement passer pour l'adresse IP du nœud, vérifiez le service externe (couche 4).
L'adresse IP source du paquet doit être mappée entre l'adresse IP du pod et l'adresse IP du nœud avec la traduction de l'adresse réseau source (NAT source ou SNAT). Dans Dataplane v2, ce processus est réalisé par ebpf qui est chargé sur une interface externe. Calico utilise les règles iptables.
Utilisez
tcpdump
pour vérifier si l'adresse IP source est correctement traduite de l'adresse IP du pod en adresse IP du nœud:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and port EXTERNAL_PORT
Si
tcpdump
indique que les paquets sont correctement masqués, mais que le service distant ne répond pas, vérifiez la connexion au service externe dans votre infrastructure.Si les paquets sortants sont correctement identifiés en tant qu'adresse IP du nœud, vérifiez la connectivité de l'hôte externe (couche 3) à l'aide de
tcpdump
:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and icmp
Lors de l'exécution de
tcpdump
, envoyez un ping depuis l'un des pods:kubectl exec POD_NAME ping EXTERNAL_IP
Si vous ne voyez pas de réponses ping, vérifiez la connexion au service externe de votre infrastructure.
Problèmes au sein du cluster
Pour les problèmes de connectivité entre pods, essayez de limiter le problème aux nœuds. Souvent, un groupe de nœuds ne peut pas communiquer avec un autre groupe de nœuds.
Dans Dataplane v2, vérifiez la connectivité du nœud actuel à tous les autres nœuds du même cluster. Depuis le pod
anetd
, vérifiez l'état de fonctionnement:cilium status --all-health
Google Distributed Cloud utilise le mode de routage direct. Vous devriez voir une entrée de route par nœud du cluster, comme illustré dans l'exemple suivant:
# <pod-cidr> via <node-ip> dev <external-interface> 192.168.1.0/24 via 21.0.208.188 dev ens192 192.168.2.0/24 via 21.0.208.133 dev ens192
Si un itinéraire attendu est manquant pour un nœud, la connexion à ce nœud est perdue.
Problèmes de couche réseau
Il est important d'identifier la couche réseau dans laquelle se produit le problème de connectivité. Un message d'erreur du type "Un problème de connectivité entre une source et une destination" n'est pas suffisamment informatif pour aider à résoudre le problème. Il peut s'agir d'une erreur d'application, d'un problème de routage ou d'un problème DNS. Comprendre à quelle couche le problème se produit permet de corriger le bon composant.
Souvent, les messages d'erreur indiquent directement à quelle couche le problème se produit. Les exemples suivants peuvent vous aider à résoudre les questions sur la couche réseau:
- Les erreurs HTTP indiquent qu'il s'agit d'un problème de couche 7.
- Les codes HTTP
40x
,50x
ou les erreurs de handshake TLS signifient que tout fonctionne normalement au niveau de la couche 4.
- Les codes HTTP
- Les messages d'erreur Connexion réinitialisée par l'homologue indiquent qu'il s'agit d'un problème de couche 4.
- Souvent, le socket distant ne peut pas être d'accord avec l'état actuel d'une connexion. Il envoie donc un paquet
RESET
. Ce comportement peut être une erreur de suivi de connexion, ou NAT.
- Souvent, le socket distant ne peut pas être d'accord avec l'état actuel d'une connexion. Il envoie donc un paquet
- Les erreurs "No route to host" (Aucun itinéraire vers l'hôte) et "ConnectionTimeout" sont généralement liées à un problème de couche 3 ou de couche 2.
- Ces erreurs indiquent que le paquet ne peut pas être correctement acheminé vers la destination.
Outils de dépannage utiles
Les DaemonSets liés au réseau s'exécutent sur vos nœuds et peuvent être la cause de problèmes de connectivité. Toutefois, une mauvaise configuration des nœuds, des commutateurs Top of rack (ToR), des routeurs de colonne vertébrale ou des pare-feu peut également entraîner des problèmes. Vous pouvez utiliser les outils suivants pour déterminer le champ d'application ou la couche du problème et déterminer s'il est lié à vos nœuds GKE Enterprise ou à votre infrastructure physique.
Ping
La commande ping fonctionne au niveau de la couche 3 (couche IP) et vérifie la route entre une source et une destination. Si le ping ne parvient pas à atteindre une destination, cela signifie souvent que le problème se situe au niveau de la couche 3.
Cependant, les adresses IP ne peuvent pas toutes être pinguées. Par exemple, certains équilibreurs de charge VIP ne peuvent pas être pingués s'il s'agit d'un équilibreur de charge de couche 4 pur. Le service ClusterIP
est un exemple où l'adresse IP virtuelle peut ne pas renvoyer de réponse ping. Au niveau de la couche 4, ce service ne renvoie une réponse ping que lorsque vous spécifiez un numéro de port, tel que VIP:port
.
Les équilibreurs de charge BGPLB, MetalLB et Seesaw de Google Distributed Cloud fonctionnent tous au niveau de la couche 3. Vous pouvez utiliser une commande ping pour vérifier la connectivité. Bien que F5 soit différent, il prend également en charge ICMP. Vous pouvez utiliser une commande ping pour vérifier la connectivité à l'adresse IP virtuelle F5.
Arping
L'arbitrage est semblable à la commande ping, sauf qu'il fonctionne au niveau de la couche 2. Les problèmes de couche 2 et de couche 3 sont souvent associés à des messages d'erreur similaires de la part des applications. L'arpentage et le ping peuvent aider à différencier le problème. Par exemple, si la source et la destination se trouvent dans le même sous-réseau, mais que vous ne pouvez pas définir la destination, il s'agit d'un problème de couche 2.
Si la requête arping <ip>
aboutit, elle renvoie l'adresse MAC de la destination. Au niveau de la couche 2, cette adresse indique souvent un problème d'infrastructure physique.
Il s'agit d'une erreur de configuration d'un commutateur virtuel.
Arping permet également de détecter les conflits d'adresses IP. Un conflit d'adresses IP survient lorsque deux machines sont configurées pour utiliser la même adresse IP sur le même sous-réseau, ou lorsqu'une adresse IP virtuelle est utilisée par une autre machine physique. Les conflits d'adresses IP peuvent créer
des problèmes intermittents difficiles à résoudre. Si arping <ip>
renvoie plusieurs entrées d'adresse MAC, cela signifie qu'il existe un conflit d'adresses IP.
Une fois que vous avez obtenu l'adresse MAC à partir d'arping, vous pouvez utiliser https://maclookup.app/ pour rechercher le fabricant de l'adresse MAC. Chaque fabricant possède un préfixe MAC. Vous pouvez donc utiliser ces informations pour déterminer quel appareil tente d'utiliser la même adresse IP. Par exemple, VMware possède le bloc 00:50:56
. Une adresse MAC 00:50:56:xx:yy:zz
est donc une VM de votre environnement vSphere.
iproute2
La CLI ip
pour iproute2
comporte de nombreuses sous-commandes utiles, par exemple:
ip r
: imprimer la table de routageip n
: affiche la table de voisines pour le mappage adresse IP/adresse MAC.ip a
: affiche toutes les interfaces de la machine.
Une route manquante ou une entrée manquante dans la table voisine peuvent entraîner des problèmes de connectivité à partir du nœud. Anetd et Calico gèrent tous deux la table de routage et la table voisine. Une mauvaise configuration dans ces tables peut entraîner des problèmes de connectivité.
CLI Cilium / Hubble pour Dataplane v2
Chaque pod anetd
dispose de plusieurs outils de débogage utiles pour les problèmes de connectivité:
cilium monitor --type=drop
- Imprimez le journal de chaque paquet supprimé par anetd / Cilium.
hubble observe
- Imprimez tous les paquets passant par la pile ebpf d'anetd.
cilium status --all-health
- Affichez l'état de Cilium, y compris l'état de la connectivité de nœud à nœud. Chaque pod associé vérifie l'état de tous les autres nœuds du cluster et peut aider à déterminer les problèmes de connectivité entre nœuds.
Iptables
Les adresses IP sont utilisées dans de nombreux composants et sous-systèmes Kubernetes. kube-proxy
utilise iptables pour implémenter la résolution du service.
Calico utilise iptables pour implémenter la règle de réseau
Pour résoudre les problèmes de réseau au niveau d'iptables, utilisez la commande suivante:
iptables -L -v | grep DROP
Examinez les règles de suppression, et vérifiez le nombre de paquets et d'octets pour voir s'ils augmentent au fil du temps.
tcpdump
tcpdump est un puissant outil de capture de paquets qui génère de nombreuses données de trafic réseau. Une pratique courante consiste à exécuter tcpdump à partir de la source et de la destination. Si un paquet est capturé lorsqu'il quitte le nœud source, mais n'est jamais capturé sur le nœud de destination, cela signifie qu'un élément intermédiaire le supprime. Ce comportement indique généralement qu'un élément de votre infrastructure physique supprime le paquet par erreur.
Dépannage DNS
Les problèmes de résolution DNS appartiennent à deux grandes catégories:
- Les pods standards, qui utilisent les serveurs DNS internes au cluster.
- Pods ou nœuds du réseau hôte, qui n'utilisent pas de serveurs DNS internes au cluster
Les sections suivantes fournissent des informations sur l'architecture DNS des clusters et des conseils utiles avant de commencer à résoudre les problèmes liés à l'une de ces catégories.
Architecture du DNS de cluster
Un service DNS de cluster résout les requêtes DNS pour les pods du cluster. CoreDNS fournit ce service pour les versions 1.9.0 et ultérieures de Google Distributed Cloud.
Chaque cluster comporte au moins deux pods coredns
, ainsi qu'un autoscaler responsable du scaling du nombre de pods DNS par rapport à la taille du cluster.
Il existe également un service nommé kube-dns
qui équilibre la charge des requêtes entre tous les pods backend coredns
.
Le DNS en amont de la plupart des pods est configuré sur l'adresse IP du service kube-dns
, et les pods envoient des requêtes DNS à l'un des pods coredns
. Les requêtes DNS peuvent être regroupées dans l'une des destinations suivantes:
- Si la requête concerne un domaine
cluster.local
, il s'agit d'un nom DNS de cluster qui fait référence à un service ou à un pod dans le cluster.- CoreDNS surveille
api-server
pour tous les services et pods du cluster, et répond aux requêtes pour les domainescluster.local
valides.
- CoreDNS surveille
- Si la requête ne concerne pas un domaine
cluster.local
, alors elle concerne un domaine externe.- CoreDNS transfère la requête aux serveurs de noms en amont. Par défaut, CoreDNS utilise les serveurs de noms en amont configurés sur le nœud sur lequel il s'exécute.
Pour en savoir plus, consultez la présentation du fonctionnement et de la configuration du DNS dans Kubernetes.
Conseils de dépannage DNS
Pour résoudre les problèmes de DNS, vous pouvez utiliser les outils dig
et nslookup
. Ces outils vous permettent d'envoyer des requêtes DNS pour vérifier si la résolution DNS fonctionne correctement. Les exemples suivants vous montrent comment utiliser dig
et nslookup
pour rechercher les problèmes de résolution DNS.
Utilisez
dig
ounslookup
afin d'envoyer une requête pourgoogle.com
:dig google.com nslookup google.com
Utilisez
dig
pour envoyer une requête dekubernetes.default.svc.cluster.local
au serveur192.168.0.10
:dig @192.168.0.10 kubernetes.default.svc.cluster.local
Vous pouvez également utiliser
nslookup
pour effectuer la même résolution DNS que la commandedig
précédente:nslookup kubernetes.default.svc.cluster.local 192.168.0.10
Examinez la sortie des commandes dig ou nslookup. Si vous recevez une réponse incorrecte ou si vous n'obtenez aucune réponse, cela indique un problème de résolution DNS.
Pods standards
La première étape pour déboguer un problème DNS consiste à déterminer si les requêtes parviennent ou non aux pods coredns
. Souvent, un problème général de connectivité de cluster apparaît en tant que problème DNS, car une requête DNS est le premier type de trafic envoyé par une charge de travail.
Consultez les messages d'erreur de vos applications. Des erreurs telles que io timeout
ou des erreurs similaires indiquent qu'il n'y a pas de réponse et qu'il y a un problème général de connectivité réseau.
Les messages d'erreur qui incluent un code d'erreur DNS tel que NXDOMAIN
ou SERVFAIL
indiquent qu'il existe une connectivité au serveur DNS du cluster, mais que le serveur n'a pas réussi à résoudre le nom de domaine:
- Les erreurs
NXDOMAIN
indiquent que le serveur DNS signale que le domaine n'existe pas. Vérifiez que le nom de domaine demandé par votre application est valide. - Les erreurs
SERVFAIL
ouREFUSED
indiquent que le serveur DNS a renvoyé une réponse, mais qu'il n'a pas pu résoudre le domaine ou vérifier qu'il n'existe pas. Pour en savoir plus, consultez les journaux des podscoredns
.
Vous pouvez trouver l'adresse IP du service kube-dns
à l'aide de la commande suivante:
kubectl -n kube-system get svc kube-dns
À partir d'un pod où le DNS ne fonctionne pas, essayez d'envoyer une requête DNS à cette adresse IP à l'aide de dig
ou nslookup
, comme indiqué dans une section précédente:
- Si ces requêtes ne fonctionnent pas, essayez d'envoyer des requêtes à l'adresse IP de chaque pod
coredns
. - Si certains pods fonctionnent, mais pas d'autres, vérifiez s'il existe des modèles visibles. Par exemple, la résolution DNS fonctionne pour les pods situés sur le même nœud que le pod
coredns
, mais pas entre les nœuds. Ce comportement peut indiquer un problème de connectivité au sein du cluster.
Si CoreDNS ne parvient pas à résoudre les noms de domaine externes, consultez la section suivante pour résoudre les problèmes liés aux pods du réseau hôte. CoreDNS se comporte comme un pod de réseau hôte et utilise les serveurs DNS en amont du nœud pour la résolution des noms.
Pods ou nœuds du réseau hôte
Les pods du réseau hôte et les nœuds utilisent les serveurs de noms configurés sur le nœud pour la résolution DNS, et non le service DNS du cluster. Selon l'OS, ce serveur de noms est configuré dans /etc/resolv.conf
ou /run/systemd/resolve/resolv.conf
. Cette configuration signifie qu'ils ne peuvent pas résoudre les noms de domaine cluster.local
.
Si vous rencontrez des problèmes avec la résolution des noms sur le réseau hôte, suivez les étapes de dépannage des sections précédentes pour vérifier que le DNS fonctionne correctement pour vos serveurs de noms en amont.
Problèmes courants liés au réseau
Les sections suivantes détaillent certains problèmes réseau courants que vous pourriez rencontrer. Pour vous aider à résoudre votre problème, suivez les instructions de dépannage appropriées. Si vous avez besoin d'aide supplémentaire, contactez l'assistance Cloud Customer Care.
Calico
Erreur courante:calico/node is not ready: BIRD is not ready: BGP not
established
Cette erreur d'état "unready" dans Kubernetes signifie généralement qu'un pair particulier est inaccessible dans le cluster. Vérifiez que la connectivité BGP entre les deux pairs est autorisée dans votre environnement.
Cette erreur peut également se produire si des ressources de nœud inactives sont configurées pour le maillage nœud à nœud. Pour résoudre ce problème, mettez hors service les nœuds obsolètes.
Dataplane v2 / Cilium
Erreur courante:[PUT /endpoint/{id}][429] putEndpointIdTooManyRequests
Cette erreur signifie que l'événement de création de pod a été rejeté par l'agent Cilium en raison d'une limite de débit. Pour chaque nœud, Cilium impose une limite de quatre requêtes simultanées vers le point de terminaison PUT. Ce comportement est normal en cas de rafales de requêtes vers un nœud. L'agent Ciilium doit rattraper le retard des requêtes retardées.
Dans GKE Enterprise 1.14 et versions ultérieures, la limite de débit s'ajuste automatiquement à la capacité du nœud. Le limiteur de débit peut converger vers un nombre plus raisonnable, avec des limites de débit plus élevées pour des nœuds plus puissants.
Erreur courante:Ebpf map size is full
Dataplane v2 stocke l'état dans une carte eBFP. L'état inclut le service, le suivi des connexions, l'identité des pods et les règles de stratégie réseau. Si une carte est pleine, l'agent ne peut pas insérer d'entrées, ce qui crée un écart entre le plan de contrôle et le plan de données. Par exemple, le mappage de service comporte une limite d'entrées de 64 000 entrées.
Pour vérifier les entrées de mappage eBFP et leur taille actuelle, utilisez
bpftool
. L'exemple suivant vérifie les mappages de l'équilibreur de charge:bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | tail -n -1 bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | tail -n -1
Si la carte est proche de la limite de 64 000, nettoyez-la. L'exemple suivant nettoie les mappages de l'équilibreur de charge:
bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5, "0x"$6, "0x"$7, "0x"$8, "0x"$9, "0x"$10, "0x"$11, "0x"$12, "0x"$13}' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 key bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5 }' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 key
Pour remplir l'état dans la carte eBFP, redémarrez
anetd
.
Nœud non prêt en raison d'erreurs NetworkPluginNotReady
Si le pod CNI ne s'exécute pas sur le nœud, une erreur semblable à la suivante peut s'afficher:
"Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized
Le nœud peut également se trouver dans un état non prêt, avec une erreur semblable à l'exemple suivant:
"Network plugin not installed"
Lorsqu'un nœud est initialisé, kubelet
attend que plusieurs événements se produisent avant de le marquer comme Ready
. L'un des événements vérifiés par kubelet
est que le plug-in CNI (Container Network Interface) est installé. Le plug-in CNI doit être installé par anetd ou Calico à l'aide d'un conteneur init pour installer à la fois le binaire CNI et la configuration CNI dans les répertoires hôtes requis.
Pour résoudre ce problème, vérifiez pourquoi ces pods ne s'exécutent pas sur le nœud. En général, l'erreur n'est pas due à des problèmes de réseau. Ces pods s'exécutent sur le réseau hôte. Il n'y a donc pas de dépendance réseau.
Vérifiez l'état du pod
anetd
oucalico-node
. Pour déterminer la cause du problème, procédez comme suit:- Si le pod est à l'état
Crashlooping
, consultez les journaux pour savoir pourquoi il ne peut pas s'exécuter correctement. - Si le pod est à l'état
Pending
, utilisezkubectl describe
et examinez les événements du pod. Par exemple, il est possible qu'il manque une ressource telle qu'un volume au pod. - Si le pod est à l'état
Running
, consultez les journaux et la configuration. Certaines implémentations CNI offrent des options pour désactiver l'installation CNI, comme dans Cilium. - Anetd propose une option de configuration appelée
custom-cni-conf
. Si ce paramètre est configuré en tant quetrue
, anetd n'installera pas son binaire CNI.
- Si le pod est à l'état
Le service F5 ne reçoit pas de trafic
Si aucun trafic n'est transmis au service F5, suivez les étapes de dépannage suivantes:
Vérifiez que chaque partition de F5 BIG-IP est configurée dans un seul cluster, à savoir des clusters d'administrateur ou d'utilisateur. Si une partition est partagée par plusieurs clusters différents, vous subissez des interruptions de connexion intermittentes. Ce comportement est dû au fait que deux clusters tentent de prendre le contrôle de la même partition et de supprimer les services d'autres clusters.
Vérifiez que les deux pods suivants sont en cours d'exécution. Tout pod non en cours d'exécution indique une erreur:
Load-balancer-f5 K8s-bigip-ctlr-deployment-577d57985d-vk9wj
Le gestionnaire
Load-balancer-f5
appartenant à GKE Enterprise crée des ConfigMaps pour chaque service de type LoadBalancer. Le ConfigMap est finalement consommé par le contrôleurbigip
.Vérifiez que le ConfigMap existe pour chaque port de chaque service. Par exemple, avec les ports suivants:
Kube-server-443-tcp 2 31h Kube-server-8132-tcp 2 31h
Le service
kube-server
doit ressembler à l'exemple suivant:Kube-server LoadBalancer 10.96.232.96 21.1.7.16 443:30095/TCP,8132:32424/TCP 31h
La section de données du ConfigMap doit comporter l'adresse IP virtuelle et le port d'interface, comme illustré dans l'exemple suivant:
data: '{"virtualServer":{"backend":{"serviceName":"kube-apiserver","servicePort":443,"healthMonitors":[{"protocol":"tcp","interval":5,"timeout":16}]},"frontend":{"virtualAddress":{"bindAddr":"21.1.7.16","port":443},"partition":"herc-b5bead08c95b-admin","balance":"ratio-member","mode":"tcp"}}}' schema: f5schemadb://bigip-virtual-server_v0.1.7.json
Vérifiez les journaux et les métriques de votre instance BIG-IP. Si le ConfigMap est correctement configuré, mais que l'instance BIG-IP ne respecte pas la configuration, il peut s'agir d'un problème de F5. Pour les problèmes survenant dans l'instance BIG-IP, contactez l'assistance F5 pour les diagnostiquer et les résoudre.