Cette page explique comment résoudre les problèmes de mise en réseau avec Google Distributed Cloud. Vous y trouverez des informations et des conseils généraux de dépannage, ainsi que des suggestions d'outils. Des informations de dépannage DNS et certains problèmes courants concernant MetalLB sont également inclus.
Si vous avez besoin d'aide supplémentaire, contactez l'assistance Cloud Customer Care.Dépannage de la connectivité réseau
La mise en réseau de GKE Enterprise repose sur votre infrastructure réseau physique. Par exemple, MetalLB s'appuie sur vos commutateurs qui respectent l'ARP gratuit, l'équilibrage de charge groupé avec le protocole BGP (Border Gateway Protocol) repose sur vos routeurs, et tous les nœuds doivent pouvoir communiquer entre eux. Lorsque vous rencontrez un problème de mise en réseau dans vos clusters GKE, vous devez déterminer si le problème provient des composants GKE Enterprise ou de votre propre infrastructure.
Commencez par déterminer l'étendue du problème, puis essayez d'identifier les composants concernés. La portée d'un problème peut correspondre à l'une des trois catégories suivantes: le sujet (à partir d'où), la cible (à laquelle) et la couche réseau.
La portée du sujet peut être l'une des suivantes:
- Tous les nœuds (ou le pod hostNetwork) à l'échelle du cluster.
- Tous les pods à l'échelle du cluster.
- tous les pods d'un seul nœud ou d'un ensemble de nœuds ;
- Tous les pods du même déploiement ou DaemonSet
- depuis l'extérieur du cluster.
Le champ d'application de la cible peut correspondre à un ou plusieurs des éléments suivants:
- Toutes les autres adresses IP de pods du même cluster.
- Toutes les autres adresses IP de pods provenant du même nœud.
- Adresse IP virtuelle du service ClusterIP du même cluster.
- Adresse IP virtuelle du service LoadBalancer à partir du même cluster
- LoadBalancer d'entrée de couche 7 (Istio).
- Autres nœuds du même cluster
- Nom DNS interne (par exemple,
*.svc.cluster.local
) - Nom DNS externe (par exemple,
google.com
) - Entités extérieures au cluster
- Entités sur Internet.
La couche réseau peut être un ou plusieurs des éléments suivants:
- Problèmes de couche de liaison de couche 2 tels que les systèmes voisins, ARP ou NDP.
- Problèmes de routage d'adresses IP de couche 3.
- Problèmes de point de terminaison TCP ou UDP de couche 4.
- Problèmes HTTP ou HTTPS de couche 7
- Problèmes de résolution DNS
Comprendre l'étendue d'un problème permet d'identifier les composants impliqués et la couche dans laquelle il se produit. Il est important de collecter des informations lorsque le problème se produit, car certains problèmes sont temporaires. Par conséquent, les instantanés après la récupération du système n'incluent pas suffisamment d'informations pour analyser l'origine du problème.
Problèmes d&#Ingress
Si le sujet est un client extérieur au cluster et que celui-ci n'a pas pu se connecter à un service LoadBalancer, il s'agit d'un problème de connectivité Nord-Sud. Le schéma suivant montre que, dans un exemple fonctionnel, le trafic entrant traverse la pile de gauche à droite et le trafic de retour traverse la pile de droite à gauche.
En cas de problème avec ce flux de trafic, identifiez l'origine du problème à l'aide de l'organigramme de dépannage suivant:
Dans cet organigramme, les conseils de dépannage suivants vous aident à déterminer l'origine du problème:
- Le paquet quitte-t-il le client ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous MetalLB ? Si c'est le cas, le paquet arrive-t-il au nœud d'équilibrage de charge et est-il ensuite envoyé correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème d'infrastructure réseau.
- Utilisez-vous F5 BIG-IP et, dans l'affirmative, avez-vous vérifié l'absence de problèmes liés à F5 ?
- La traduction d'adresse réseau (NAT) est-elle effectuée correctement ? Si ce n'est pas le cas, vous rencontrez probablement un problème lié à kube-proxy / Dataplane V2.
- Le paquet arrive-t-il au nœud de calcul ? Si ce n'est pas le cas, vous rencontrez probablement un problème entre pods Dataplane v2.
- Le paquet arrive-t-il au pod ? Si ce n'est pas le cas, vous rencontrez probablement un problème de transfert local Dataplane v2.
Les sections suivantes expliquent comment résoudre chaque étape afin de déterminer si le trafic circule correctement ou non.
Le paquet quitte-t-il le client ?
Vérifiez si le paquet quitte correctement le client et passe par le routeur configuré dans votre infrastructure réseau physique.
Utilisez
tcpdump
pour vérifier le paquet lorsqu'il quitte le client pour le service de destination:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Si vous ne constatez aucun trafic sortant, c'est la source du problème.
Le paquet arrive-t-il à un nœud LoadBalancer ?
Si vous utilisez MetalLB comme équilibreur de charge:
Consultez le journal
metallb-controller
pour déterminer quel nœud de l'équilibreur de charge diffuse l'adresse IP virtuelle du service:kubectl -n kube-system logs -l app=metallb --all-containers=true | grep SERVICE_VIP
Connectez-vous au nœud à l'aide de SSH.
Pour un nœud MetalLB, utilisez
tcpdump
afin d'examiner le trafic:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Avec l'équilibrage de charge manuel, le trafic peut atterrir sur n'importe quel nœud. Selon la configuration de l'équilibreur de charge, vous pouvez choisir un ou plusieurs nœuds. Utilisez
tcpdump
pour examiner le trafic:tcpdump -ni any host NODE_IP and port NODE_PORT
La commande diffère entre les types d'équilibreurs de charge, car MetalLB n'effectue pas de NAT avant de transférer le paquet aux nœuds.
Si vous ne constatez aucun trafic entrant dans les nœuds, c'est la source du problème.
Existe-t-il un problème avec F5 BIG-IP ?
Pour résoudre les problèmes liés à F5 BIG-IP, consultez l'une des sections suivantes sur la page Le service F5 ne reçoit pas de trafic.
L'ARP est-il correctement envoyé ?
Le nœud d'équilibreur de charge pour MetalLB s'appuie sur l'ARP pour annoncer l'adresse IP virtuelle du service. Si la réponse ARP est correctement envoyée, mais que le trafic n'entre pas, il s'agit du signal d'un problème dans votre infrastructure réseau physique. L'une des causes courantes de ce problème est que certaines fonctionnalités avancées d'apprentissage de plan de données ignorent la réponse ARP dans les solutions de réseau défini par logiciel (SDN).
Utilisez
tcpdump
pour détecter les réponses ARP:tcpdump -ni any arp
Recherchez le message qui annonce l'adresse IP virtuelle avec laquelle vous rencontrez des problèmes.
Pour MetalLB, il n'envoie pas d'ARP gratuit. La fréquence à laquelle vous voyez une réponse dépend du moment où un autre dispositif, tel qu'un commutateur top of rack (ToR), envoie une requête ARP.
La NAT est-elle effectuée ?
Dataplane v2 / kube-proxy effectue la traduction de l'adresse réseau de destination (NAT ou DNAT de destination) pour traduire l'adresse IP virtuelle de destination en adresse IP de pod de backend. Si vous savez quel nœud est le backend de l'équilibreur de charge, connectez-vous au nœud à l'aide de SSH.
Utilisez
tcpdump
pour vérifier si l'adresse IP virtuelle du service est correctement traduite:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
Pour Dataplane v2, vous pouvez également vous connecter aux pods
anetd
et utiliser les outils de débogage Cilium intégrés:cilium monitor --type=drop
Pour en savoir plus, consultez l'une des sections suivantes sur les problèmes liés à Dataplane v2 / Cilium.
Le paquet arrive-t-il à un nœud de calcul ?
Sur les nœuds de calcul, le paquet arrive sur l'interface externe, puis est transmis aux pods.
Vérifiez si le paquet arrive sur l'interface externe, généralement nommée
eth0
ouens192
, à l'aide detcpdump
:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
cilium_geneve
.
Étant donné que les backends de service normaux contiennent plusieurs pods sur différents nœuds, il peut être difficile de déterminer quel nœud est responsable du problème. Une solution de contournement courante consiste à capturer le problème suffisamment longtemps pour que certains paquets finissent par arriver, ou à limiter le nombre de backends à un.
Si le paquet n'arrive jamais au nœud de travail, cela indique un problème d'infrastructure réseau. Consultez l'équipe chargée de l'infrastructure réseau pour savoir pourquoi le paquet est supprimé entre les nœuds LoadBalancer et nœuds de calcul. Voici quelques problèmes courants:
- Vérifiez les journaux de votre réseau défini par logiciel (SDN). Parfois, le SDN peut supprimer des paquets pour diverses raisons, telles que la segmentation, la somme de contrôle incorrecte ou l'anti-spoofing.
- Les règles de pare-feu qui filtrent la génération des paquets sur le port UDP 6081
Si le paquet arrive sur l'interface externe du nœud ou sur l'interface du tunnel, il doit être transféré au pod de destination. Si le pod est un pod réseau hôte, cette étape n'est pas nécessaire, car le pod partage l'espace de noms réseau avec le nœud. Sinon, un transfert de paquets supplémentaire est requis.
Chaque pod dispose de paires d'interfaces Ethernet virtuelles, qui fonctionnent comme des pipes. Un paquet envoyé à une extrémité de l'interface est reçu de l'autre extrémité de l'interface. L'une des interfaces est déplacée vers l'espace de noms réseau du pod et renommée eth0
. L'autre interface est conservée dans l'espace de noms hôte. Différents CIN ont un schéma différent. Pour Dataplane v2, l'interface est normalement nommée lxcxxxx
. Les noms comportent des numéros d'interface consécutifs, tels que lxc17
et lxc18
. Vous pouvez vérifier si le paquet arrive au pod à l'aide de tcpdump
ou spécifier l'interface:
tcpdump -ni lcxxxx host BACKEND_POD_IP and port CONTAINER_PORT
Si le paquet arrive sur le nœud, mais pas au pod, vérifiez la table de routage comme suit:
ip route
Normalement, chaque pod doit disposer d'une entrée de routage pour laquelle l'adresse IP du pod est acheminée vers l'interface lxc
. Si l'entrée est manquante, cela signifie normalement que le chemin de données CNI comporte une erreur. Pour déterminer l'origine du problème, consultez les journaux du DaemonSet CNI.
Problèmes de sortie
Si le trafic peut entrer dans un pod, il se peut que vous rencontriez un problème avec le trafic en sortie. Les schémas suivants montrent que, dans un exemple fonctionnel, le trafic entrant parcourt la pile de gauche à droite:
Pour vérifier que le paquet sortant se fait correctement passer pour l'adresse IP du nœud, vérifiez le service externe (couche 4).
L'adresse IP source du paquet doit être mappée entre l'adresse IP du pod et l'adresse IP du nœud avec la traduction de l'adresse réseau source (NAT source ou SNAT). Dans Dataplane v2, ce processus est réalisé par ebpf qui est chargé sur une interface externe.
Utilisez
tcpdump
pour vérifier si l'adresse IP source est correctement traduite de l'adresse IP du pod en adresse IP du nœud:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and port EXTERNAL_PORT
Si
tcpdump
indique que les paquets sont correctement masqués, mais que le service distant ne répond pas, vérifiez la connexion au service externe dans votre infrastructure.Si les paquets sortants sont correctement identifiés en tant qu'adresse IP du nœud, vérifiez la connectivité de l'hôte externe (couche 3) à l'aide de
tcpdump
:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and icmp
Lors de l'exécution de
tcpdump
, envoyez un ping depuis l'un des pods:kubectl exec POD_NAME ping EXTERNAL_IP
Si vous ne voyez pas de réponses ping, vérifiez la connexion au service externe de votre infrastructure.
Problèmes au sein du cluster
Pour les problèmes de connectivité entre pods, essayez de limiter le problème aux nœuds. Souvent, un groupe de nœuds ne peut pas communiquer avec un autre groupe de nœuds.
Dans Dataplane v2, vérifiez la connectivité du nœud actuel à tous les autres nœuds du même cluster. Depuis le pod
anetd
, vérifiez l'état de fonctionnement:cilium status --all-health
Problèmes de couche réseau
Il est important d'identifier la couche réseau dans laquelle se produit le problème de connectivité. Un message d'erreur du type "Un problème de connectivité entre une source et une destination" n'est pas suffisamment informatif pour aider à résoudre le problème. Il peut s'agir d'une erreur d'application, d'un problème de routage ou d'un problème DNS. Comprendre à quelle couche le problème se produit permet de corriger le bon composant.
Souvent, les messages d'erreur indiquent directement à quelle couche le problème se produit. Les exemples suivants peuvent vous aider à résoudre les questions sur la couche réseau:
- Les erreurs HTTP indiquent qu'il s'agit d'un problème de couche 7.
- Les codes HTTP
40x
,50x
ou les erreurs de handshake TLS signifient que tout fonctionne normalement au niveau de la couche 4.
- Les codes HTTP
- Les messages d'erreur Connexion réinitialisée par l'homologue indiquent qu'il s'agit d'un problème de couche 4.
- Souvent, le socket distant ne peut pas être d'accord avec l'état actuel d'une connexion. Il envoie donc un paquet
RESET
. Ce comportement peut être une erreur de suivi de connexion, ou NAT.
- Souvent, le socket distant ne peut pas être d'accord avec l'état actuel d'une connexion. Il envoie donc un paquet
- Les erreurs "No route to host" (Aucun itinéraire vers l'hôte) et "ConnectionTimeout" sont généralement liées à un problème de couche 3 ou de couche 2.
- Ces erreurs indiquent que le paquet ne peut pas être correctement acheminé vers la destination.
Outils de dépannage utiles
Les DaemonSets liés au réseau s'exécutent sur vos nœuds et peuvent être la cause de problèmes de connectivité. Toutefois, une mauvaise configuration des nœuds, des commutateurs Top of rack (ToR), des routeurs de colonne vertébrale ou des pare-feu peut également entraîner des problèmes. Vous pouvez utiliser les outils suivants pour déterminer le champ d'application ou la couche du problème et déterminer s'il est lié à vos nœuds GKE Enterprise ou à votre infrastructure physique.
Ping
La commande ping fonctionne au niveau de la couche 3 (couche IP) et vérifie la route entre une source et une destination. Si le ping ne parvient pas à atteindre une destination, cela signifie souvent que le problème se situe au niveau de la couche 3.
Cependant, les adresses IP ne peuvent pas toutes être pinguées. Par exemple, certains équilibreurs de charge VIP ne peuvent pas être pingués s'il s'agit d'un équilibreur de charge de couche 4 pur. Le service ClusterIP
est un exemple où l'adresse IP virtuelle peut ne pas renvoyer de réponse ping. Au niveau de la couche 4, ce service ne renvoie une réponse ping que lorsque vous spécifiez un numéro de port, tel que VIP:port
.
Les équilibreurs de charge BGPLB et MetalLB de Google Distributed Cloud fonctionnent tous au niveau de la couche 3. Vous pouvez utiliser une commande ping pour vérifier la connectivité. Bien que F5 soit différent, il prend également en charge ICMP. Vous pouvez utiliser une commande ping pour vérifier la connectivité à l'adresse IP virtuelle F5.
Arping
L'arbitrage est semblable à la commande ping, sauf qu'il fonctionne au niveau de la couche 2. Les problèmes de couche 2 et de couche 3 sont souvent associés à des messages d'erreur similaires de la part des applications. L'arpentage et le ping peuvent aider à différencier le problème. Par exemple, si la source et la destination se trouvent dans le même sous-réseau, mais que vous ne pouvez pas définir la destination, il s'agit d'un problème de couche 2.
Si la requête arping <ip>
aboutit, elle renvoie l'adresse MAC de la destination. Au niveau de la couche 2, cette adresse indique souvent un problème d'infrastructure physique.
Ce problème est souvent dû à un basculement physique entre les nœuds.
Arping permet également de détecter les conflits d'adresses IP. Un conflit d'adresses IP survient lorsque deux machines sont configurées pour utiliser la même adresse IP sur le même sous-réseau, ou lorsqu'une adresse IP virtuelle est utilisée par une autre machine physique. Les conflits d'adresses IP peuvent créer
des problèmes intermittents difficiles à résoudre. Si arping <ip>
renvoie plusieurs entrées d'adresse MAC, cela signifie qu'il existe un conflit d'adresses IP.
Une fois que vous avez obtenu l'adresse MAC à partir d'arping, vous pouvez utiliser https://maclookup.app/ pour rechercher le fabricant de l'adresse MAC. Chaque fabricant possède un préfixe MAC. Vous pouvez donc utiliser ces informations pour déterminer quel appareil tente d'utiliser la même adresse IP. Par exemple, VMware possède le bloc 00:50:56
. Une adresse MAC 00:50:56:xx:yy:zz
est donc une VM de votre environnement vSphere.
iproute2
La CLI ip
pour iproute2
comporte de nombreuses sous-commandes utiles, par exemple:
ip r
: imprimer la table de routageip n
: affiche la table de voisines pour le mappage adresse IP/adresse MAC.ip a
: affiche toutes les interfaces de la machine.
Une route manquante ou une entrée manquante dans la table voisine peuvent entraîner des problèmes de connectivité à partir du nœud. Anetd gère la table de routage et la table voisine. Une mauvaise configuration dans ces tables peut entraîner des problèmes de connectivité.
CLI Cilium / Hubble pour Dataplane v2
Chaque pod anetd
dispose de plusieurs outils de débogage utiles pour les problèmes de connectivité:
cilium monitor --type=drop
- Imprimez le journal de chaque paquet supprimé par anetd / Cilium.
hubble observe
- Imprimez tous les paquets passant par la pile ebpf d'anetd.
cilium status --all-health
- Affichez l'état de Cilium, y compris l'état de la connectivité de nœud à nœud. Chaque pod associé vérifie l'état de tous les autres nœuds du cluster et peut aider à déterminer les problèmes de connectivité entre nœuds.
Iptables
Les adresses IP sont utilisées dans de nombreux composants et sous-systèmes Kubernetes. kube-proxy
utilise iptables pour implémenter la résolution du service.
Pour résoudre les problèmes de réseau au niveau d'iptables, utilisez la commande suivante:
iptables -L -v | grep DROP
Examinez les règles de suppression, et vérifiez le nombre de paquets et d'octets pour voir s'ils augmentent au fil du temps.
tcpdump
tcpdump est un puissant outil de capture de paquets qui génère de nombreuses données de trafic réseau. Une pratique courante consiste à exécuter tcpdump à partir de la source et de la destination. Si un paquet est capturé lorsqu'il quitte le nœud source, mais n'est jamais capturé sur le nœud de destination, cela signifie qu'un élément intermédiaire le supprime. Ce comportement indique généralement qu'un élément de votre infrastructure physique supprime le paquet par erreur.
Dépannage DNS
Les problèmes de résolution DNS appartiennent à deux grandes catégories:
- Les pods standards, qui utilisent les serveurs DNS internes au cluster.
- Pods ou nœuds du réseau hôte, qui n'utilisent pas de serveurs DNS internes au cluster
Les sections suivantes fournissent des informations sur l'architecture DNS des clusters et des conseils utiles avant de commencer à résoudre les problèmes liés à l'une de ces catégories.
Architecture du DNS de cluster
Un service DNS de cluster résout les requêtes DNS pour les pods du cluster. CoreDNS fournit ce service pour toutes les versions de Google Distributed Cloud.
Chaque cluster comporte au moins deux pods coredns
, ainsi qu'un autoscaler responsable du scaling du nombre de pods DNS par rapport à la taille du cluster.
Il existe également un service nommé kube-dns
qui équilibre la charge des requêtes entre tous les pods backend coredns
.
Le DNS en amont de la plupart des pods est configuré sur l'adresse IP du service kube-dns
, et les pods envoient des requêtes DNS à l'un des pods coredns
. Les requêtes DNS peuvent être regroupées dans l'une des destinations suivantes:
- Si la requête concerne un domaine
cluster.local
, il s'agit d'un nom DNS de cluster qui fait référence à un service ou à un pod dans le cluster.- CoreDNS surveille
api-server
pour tous les services et pods du cluster, et répond aux requêtes pour les domainescluster.local
valides.
- CoreDNS surveille
- Si la requête ne concerne pas un domaine
cluster.local
, alors elle concerne un domaine externe.- CoreDNS transfère la requête aux serveurs de noms en amont. Par défaut, CoreDNS utilise les serveurs de noms en amont configurés sur le nœud sur lequel il s'exécute.
Pour en savoir plus, consultez la présentation du fonctionnement et de la configuration du DNS dans Kubernetes.
Conseils de dépannage DNS
Pour résoudre les problèmes de DNS, vous pouvez utiliser les outils dig
et nslookup
. Ces outils vous permettent d'envoyer des requêtes DNS pour vérifier si la résolution DNS fonctionne correctement. Les exemples suivants vous montrent comment utiliser dig
et nslookup
pour rechercher les problèmes de résolution DNS.
Utilisez
dig
ounslookup
afin d'envoyer une requête pourgoogle.com
:dig google.com nslookup google.com
Utilisez
dig
pour envoyer une requête dekubernetes.default.svc.cluster.local
au serveur192.168.0.10
:dig @192.168.0.10 kubernetes.default.svc.cluster.local
Vous pouvez également utiliser
nslookup
pour effectuer la même résolution DNS que la commandedig
précédente:nslookup kubernetes.default.svc.cluster.local 192.168.0.10
Examinez la sortie des commandes dig ou nslookup. Si vous recevez une réponse incorrecte ou si vous n'obtenez aucune réponse, cela indique un problème de résolution DNS.
Pods standards
La première étape pour déboguer un problème DNS consiste à déterminer si les requêtes parviennent ou non aux pods coredns
. Souvent, un problème général de connectivité de cluster apparaît en tant que problème DNS, car une requête DNS est le premier type de trafic envoyé par une charge de travail.
Consultez les messages d'erreur de vos applications. Des erreurs telles que io timeout
ou des erreurs similaires indiquent qu'il n'y a pas de réponse et qu'il y a un problème général de connectivité réseau.
Les messages d'erreur qui incluent un code d'erreur DNS tel que NXDOMAIN
ou SERVFAIL
indiquent qu'il existe une connectivité au serveur DNS du cluster, mais que le serveur n'a pas réussi à résoudre le nom de domaine:
- Les erreurs
NXDOMAIN
indiquent que le serveur DNS signale que le domaine n'existe pas. Vérifiez que le nom de domaine demandé par votre application est valide. - Les erreurs
SERVFAIL
ouREFUSED
indiquent que le serveur DNS a renvoyé une réponse, mais qu'il n'a pas pu résoudre le domaine ou vérifier qu'il n'existe pas. Pour en savoir plus, consultez les journaux des podscoredns
.
Vous pouvez trouver l'adresse IP du service kube-dns
à l'aide de la commande suivante:
kubectl -n kube-system get svc kube-dns
À partir d'un pod où le DNS ne fonctionne pas, essayez d'envoyer une requête DNS à cette adresse IP à l'aide de dig
ou nslookup
, comme indiqué dans une section précédente:
- Si ces requêtes ne fonctionnent pas, essayez d'envoyer des requêtes à l'adresse IP de chaque pod
coredns
. - Si certains pods fonctionnent, mais pas d'autres, vérifiez s'il existe des modèles visibles. Par exemple, la résolution DNS fonctionne pour les pods situés sur le même nœud que le pod
coredns
, mais pas entre les nœuds. Ce comportement peut indiquer un problème de connectivité au sein du cluster.
Si CoreDNS ne parvient pas à résoudre les noms de domaine externes, consultez la section suivante pour résoudre les problèmes liés aux pods du réseau hôte. CoreDNS se comporte comme un pod de réseau hôte et utilise les serveurs DNS en amont du nœud pour la résolution des noms.
Pods ou nœuds du réseau hôte
Les pods du réseau hôte et les nœuds utilisent les serveurs de noms configurés sur le nœud pour la résolution DNS, et non le service DNS du cluster. Selon l'OS, ce serveur de noms est configuré dans /etc/resolv.conf
ou /run/systemd/resolve/resolv.conf
. Cette configuration signifie qu'ils ne peuvent pas résoudre les noms de domaine cluster.local
.
Si vous rencontrez des problèmes avec la résolution des noms sur le réseau hôte, suivez les étapes de dépannage des sections précédentes pour vérifier que le DNS fonctionne correctement pour vos serveurs de noms en amont.
Vérifiez que le même ensemble de serveurs est configuré sur tous les nœuds. Si vous avez configuré différents serveurs de noms, vous constaterez peut-être des incohérences dans la résolution DNS sur différents nœuds. Vérifiez que chaque serveur de noms fonctionne individuellement en envoyant une requête à chacun d'eux à l'aide dedig
ou nslookup
. Si certains serveurs de noms fonctionnent, mais pas d'autres, vous constatez ce type d'échecs de résolution DNS incohérents.
Problèmes courants liés au réseau
Les sections suivantes détaillent certains problèmes réseau courants que vous pourriez rencontrer. Pour vous aider à résoudre votre problème, suivez les instructions de dépannage appropriées. Si vous avez besoin d'aide supplémentaire, contactez l'assistance Cloud Customer Care.
Dataplane v2 / Cilium
Erreur courante:[PUT /endpoint/{id}][429] putEndpointIdTooManyRequests
Cette erreur signifie que l'événement de création de pod a été rejeté par l'agent Cilium en raison d'une limite de débit. Pour chaque nœud, Cilium impose une limite de quatre requêtes simultanées vers le point de terminaison PUT. Ce comportement est normal en cas de rafales de requêtes vers un nœud. L'agent Ciilium doit rattraper le retard des requêtes retardées.
Dans GKE Enterprise 1.14 et versions ultérieures, la limite de débit s'ajuste automatiquement à la capacité du nœud. Le limiteur de débit peut converger vers un nombre plus raisonnable, avec des limites de débit plus élevées pour des nœuds plus puissants.
Erreur courante:Ebpf map size is full
Dataplane v2 stocke l'état dans une carte eBFP. L'état inclut le service, le suivi des connexions, l'identité des pods et les règles de stratégie réseau. Si une carte est pleine, l'agent ne peut pas insérer d'entrées, ce qui crée un écart entre le plan de contrôle et le plan de données. Par exemple, le mappage de service comporte une limite d'entrées de 64 000 entrées.
Pour vérifier les entrées de mappage eBFP et leur taille actuelle, utilisez
bpftool
. L'exemple suivant vérifie les mappages de l'équilibreur de charge:bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | tail -n -1 bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | tail -n -1
Si la carte est proche de la limite de 64 000, nettoyez-la. L'exemple suivant nettoie les mappages de l'équilibreur de charge:
bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5, "0x"$6, "0x"$7, "0x"$8, "0x"$9, "0x"$10, "0x"$11, "0x"$12, "0x"$13}' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 key bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5 }' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 key
Pour remplir l'état dans la carte eBFP, redémarrez
anetd
.
Nœud non prêt en raison d'erreurs NetworkPluginNotReady
Si le pod CNI ne s'exécute pas sur le nœud, une erreur semblable à la suivante peut s'afficher:
"Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized
Le nœud peut également se trouver dans un état non prêt, avec une erreur semblable à l'exemple suivant:
"Network plugin not installed"
Lorsqu'un nœud est initialisé, kubelet
attend que plusieurs événements se produisent avant de le marquer comme Ready
. L'un des événements vérifiés par kubelet
est que le plug-in CNI (Container Network Interface) est installé. Le plug-in CNI doit être installé par anetd à l'aide d'un conteneur init pour installer à la fois le binaire CNI et la configuration CNI dans les répertoires hôtes requis.
Pour résoudre ce problème, vérifiez pourquoi ces pods ne s'exécutent pas sur le nœud. En général, l'erreur n'est pas due à des problèmes de réseau. Ces pods s'exécutent sur le réseau hôte. Il n'y a donc pas de dépendance réseau.
Vérifiez l'état du pod
anetd
. Pour déterminer la cause du problème, procédez comme suit:- Si le pod est à l'état
Crashlooping
, consultez les journaux pour savoir pourquoi il ne peut pas s'exécuter correctement. - Si le pod est à l'état
Pending
, utilisezkubectl describe
et examinez les événements du pod. Par exemple, il est possible qu'il manque une ressource telle qu'un volume au pod. - Si le pod est à l'état
Running
, consultez les journaux et la configuration. Certaines implémentations CNI offrent des options pour désactiver l'installation CNI, comme dans Cilium. - Anetd propose une option de configuration appelée
custom-cni-conf
. Si ce paramètre est configuré en tant quetrue
, anetd n'installera pas son binaire CNI.
- Si le pod est à l'état
Le service F5 ne reçoit pas de trafic
Si aucun trafic n'est transmis au service F5, suivez les étapes de dépannage suivantes:
Vérifiez que chaque partition de F5 BIG-IP est configurée dans un seul cluster, à savoir des clusters d'administrateur ou d'utilisateur. Si une partition est partagée par plusieurs clusters différents, vous subissez des interruptions de connexion intermittentes. Ce comportement est dû au fait que deux clusters tentent de prendre le contrôle de la même partition et de supprimer les services d'autres clusters.
Vérifiez que les deux pods suivants sont en cours d'exécution. Tout pod non en cours d'exécution indique une erreur:
Load-balancer-f5 K8s-bigip-ctlr-deployment-577d57985d-vk9wj
Le gestionnaire
Load-balancer-f5
appartenant à GKE Enterprise crée des ConfigMaps pour chaque service de type LoadBalancer. Le ConfigMap est finalement consommé par le contrôleurbigip
.Vérifiez que le ConfigMap existe pour chaque port de chaque service. Par exemple, avec les ports suivants:
Kube-server-443-tcp 2 31h Kube-server-8132-tcp 2 31h
Le service
kube-server
doit ressembler à l'exemple suivant:Kube-server LoadBalancer 10.96.232.96 21.1.7.16 443:30095/TCP,8132:32424/TCP 31h
La section de données du ConfigMap doit comporter l'adresse IP virtuelle et le port d'interface, comme illustré dans l'exemple suivant:
data: '{"virtualServer":{"backend":{"serviceName":"kube-apiserver","servicePort":443,"healthMonitors":[{"protocol":"tcp","interval":5,"timeout":16}]},"frontend":{"virtualAddress":{"bindAddr":"21.1.7.16","port":443},"partition":"herc-b5bead08c95b-admin","balance":"ratio-member","mode":"tcp"}}}' schema: f5schemadb://bigip-virtual-server_v0.1.7.json
Vérifiez les journaux et les métriques de votre instance BIG-IP. Si le ConfigMap est correctement configuré, mais que l'instance BIG-IP ne respecte pas la configuration, il peut s'agir d'un problème de F5. Pour les problèmes survenant dans l'instance BIG-IP, contactez l'assistance F5 pour les diagnostiquer et les résoudre.
Échec NAT avec trop de connexions parallèles
Pour un nœud donné de votre cluster, l'adresse IP du nœud fournit une traduction d'adresse réseau (NAT) pour les paquets acheminés vers une adresse en dehors du cluster.
De même, lorsque les paquets entrants entrent dans un nœud d'équilibrage de charge configuré pour utiliser l'équilibrage de charge groupé (spec.loadBalancer.mode: bundled
), la traduction d'adresse réseau source (SNAT) achemine les paquets vers l'adresse IP du nœud avant qu'ils ne soient transférés vers un pod backend.
La plage de ports pour la NAT utilisée par Google Distributed Cloud est 32768-65535
. Cette plage limite le nombre de connexions parallèles à 32 767 par protocole sur ce nœud. Chaque connexion nécessite une entrée dans la table conntrack. Si vous avez trop de connexions de courte durée, la table conntrack n'a plus de ports pour la NAT. Un récupérateur de mémoire nettoie les entrées obsolètes, mais le nettoyage n'est pas immédiat.
Lorsque le nombre de connexions sur votre nœud approche de 32 767, vous commencez à constater des pertes de paquets pour les connexions nécessitant la NAT.
Pour déterminer si vous êtes concerné par ce problème:
Exécutez la commande suivante sur le pod
anetd
du nœud qui pose problème:kubectl -n kube-system anetd-XXX -- hubble observe \ --from-ip $IP --to-ip $IP -f
Les erreurs doivent s'afficher sous la forme suivante :
No mapping for NAT masquerade DROPPED
Pour contourner ce problème, redistribuez le trafic vers d'autres nœuds.