Questa pagina mostra come risolvere i problemi di rete con Google Distributed Cloud. Vengono fornite informazioni e indicazioni generali per la risoluzione dei problemi, nonché strumenti suggeriti. Informazioni sulla risoluzione dei problemi DNS e alcuni problemi comuni di MetalLB sono incluse.
Se hai bisogno di ulteriore assistenza, contatta l'assistenza clienti Google Cloud.Risoluzione dei problemi di connettività di rete
Il networking di GKE Enterprise si basa sulla tua infrastruttura di rete fisica. Ad esempio, MetalLB si basa sugli switch che rispettano ARP gratuito, il bilanciamento del carico in bundle con Border Gateway Protocol (BGP) si basa sui router e tutti i nodi devono essere in grado di comunicare tra loro. Quando si verifica un problema di rete nei cluster GKE, devi identificare se il problema riguarda i componenti di GKE Enterprise o la tua infrastruttura.
Innanzitutto, determina l'ambito del problema, quindi prova a identificare i componenti interessati. L'ambito di un problema può essere una delle tre categorie: l'oggetto (da dove), il target (a cui) e il livello di rete.
L'ambito del soggetto può essere uno dei seguenti:
- Tutti i nodi (o hostNetwork pod livello di cluster.
- Tutti i pod a livello di cluster.
- Tutti i pod su un singolo nodo o un insieme di nodi.
- Tutti i pod dello stesso deployment o dello stesso DaemonSet.
- Client esterno al cluster.
L'ambito del target può essere uno o più dei seguenti:
- Tutti gli altri indirizzi IP dei pod dello stesso cluster.
- Tutti gli altri indirizzi IP dei pod dello stesso nodo.
- VIP del servizio ClusterIP dello stesso cluster.
- VIP del servizio LoadBalancer dallo stesso cluster.
- LoadBalancer Livello 7 (Istio).
- Altri nodi dello stesso cluster.
- Nome DNS interno (ad esempio
*.svc.cluster.local
). - Nome DNS esterno (ad esempio
google.com
). - Entità esterne al cluster.
- Entità su internet.
Il livello di rete può essere uno o più dei seguenti:
- Problemi di strato di collegamento di livello 2 come sistema vicino, ARP o NDP.
- Problemi di routing degli indirizzi IP di livello 3.
- Problemi con l'endpoint TCP o UDP di livello 4.
- Problemi HTTP o HTTPS di livello 7.
- Problemi di risoluzione DNS.
Comprendere l'ambito di un problema aiuta a identificare le componenti coinvolte e a quale livello si verifica. La raccolta delle informazioni al verificarsi del problema è importante perché alcuni problemi sono temporanei, pertanto gli istantanei dopo il recupero del sistema non includeranno informazioni sufficienti per l'analisi della causa principale.
Problemi relativi al traffico in entrata
Se l'oggetto è un client esterno al cluster e non è riuscito a connettersi a un servizio LoadBalancer, si tratta di un problema di connettività Nord-Sud. Il seguente diagramma mostra che in un esempio funzionante il traffico in entrata attraversa la pila da sinistra a destra e il traffico di ritorno attraversa nuovamente la pila da destra a sinistra.
Quando si verifica un problema con questo flusso di traffico, utilizza il seguente codice un diagramma di flusso per la risoluzione dei problemi che ti aiuterà a identificare dove si trova il problema:
In questo diagramma di flusso, le seguenti indicazioni per la risoluzione dei problemi aiutano a determinare dove si trova il problema:
- Il pacchetto esce dal client? In caso contrario, è probabile che si tratti di un problema di infrastruttura di rete.
- Utilizzi MetalLB? In questo caso, il pacchetto arriva al nodo LB e l'ARP viene inviato correttamente? In caso contrario, probabilmente disponi di un'infrastruttura di rete problema.
- Utilizzi F5 BIG-IP? Se sì, hai controllato se ci sono problemi relativi a F5?
- La Network Address Translation (NAT) viene eseguita correttamente? In caso contrario, è probabile che si tratti di un problema di kube-proxy/Dataplane V2.
- Il pacchetto arriva al nodo worker? In caso contrario, è probabile che tu abbia un problema di trasferimento da pod a pod di Dataplane v2.
- Il pacchetto arriva al pod? Se la risposta è no, è probabile che Dataplane v2 locale un problema di inoltro.
Le sezioni seguenti forniscono i passaggi per la risoluzione dei problemi di ogni fase al fine di determinare se se il traffico è corretto o meno.
Il pacchetto lascia il client?
Controlla se il pacchetto esce correttamente dal client e passa attraverso il router configurato nell'infrastruttura di rete fisica.
Usa
tcpdump
per controllare il pacchetto quando lascia il client per il trasferimento servizio di destinazione:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Se non vedi traffico in uscita, questa è la causa del problema.
Il pacchetto arriva a un nodo LoadBalancer?
Se utilizzi MetalLB come bilanciatore del carico:
Osserva il log
metallb-controller
per determinare quale nodo del bilanciatore del carico gestisce il VIP del servizio:kubectl -n kube-system logs -l app=metallb --all-containers=true | grep SERVICE_VIP
Connettiti al nodo tramite SSH.
Per un nodo MetalLB, utilizza
tcpdump
per esaminare il traffico:tcpdump -ni any host SERVICE_VIP and port SERVICE_PORT
Per ManualLB, il traffico potrebbe arrivare su qualsiasi nodo. A seconda della configurazione del bilanciatore del carico, puoi scegliere uno o più nodi. Usa
tcpdump
per esaminare il traffico:tcpdump -ni any host NODE_IP and port NODE_PORT
Il comando è diverso tra i tipi di bilanciatore del carico, MetalLB non tramite NAT prima di inoltrare il pacchetto ai nodi.
Se non vedi traffico in nessun nodo, significa che è qui che si trova il problema.
Esiste un problema di BIG-IP di F5?
Per risolvere i problemi relativi a F5 BIG-IP, consulta una delle seguenti sezioni su Il servizio F5 non riceve traffico.
L'ARP è stato inviato correttamente?
Il nodo del bilanciatore del carico per MetalLB si basa su ARP per pubblicizzare il VIP di servizio. Se la risposta ARP viene inviata correttamente ma il traffico non arriva, è un segnale di un problema della dell'infrastruttura di rete. Una causa comune di questo problema è che alcune funzionalità avanzate Le funzionalità di apprendimento del piano dati ignorano la risposta ARP nella rete software-defined (SDN).
Utilizza
tcpdump
per rilevare le risposte ARP:tcpdump -ni any arp
Cerca di trovare il messaggio che pubblicizzi il VIP con cui riscontri problemi.
Per MetalLB, non vengono inviati ARP gratuiti. La frequenza con cui viene visualizzata una risposta dipende da quando un altro dispositivo, ad esempio uno switch ToR (top of rack), invia una richiesta ARP.
Viene eseguito il NAT?
Dataplane v2 / kube-proxy esegue la Network Address Translation di destinazione (destination NAT o DNAT) per tradurre il VIP di destinazione in un IP di pod di backend. . Se sai quale nodo è il backend del bilanciatore del carico, connettiti al utilizzando SSH.
Utilizza
tcpdump
per verificare che il VIP del servizio sia tradotto correttamente:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
Per Dataplane v2, puoi anche connetterti ai pod
anetd
e utilizzare gli strumenti di debug Cilium incorporati:cilium monitor --type=drop
Per ulteriori informazioni, consulta una delle seguenti sezioni sui problemi di Dataplane v2/Cilium.
Il pacchetto arriva a un nodo worker?
Sui nodi worker, il pacchetto arriva sull'interfaccia esterna e viene poi fornito ai pod.
Verifica se il pacchetto arriva all'interfaccia esterna, solitamente denominata
eth0
oens192
, utilizzandotcpdump
:tcpdump -ni any host BACKEND_POD_IP and port CONTAINER_PORT
cilium_geneve
.
Poiché i backend di servizio normali contengono più pod su nodi diversi, potrebbe essere difficile risolvere i problemi relativi al nodo in cui si è verificato l'errore. Una soluzione comune è registrare il problema per un periodo di tempo sufficientemente lungo in modo che alla fine arrivi qualche pacchetto oppure limitare il numero di backend a uno.
Se il pacchetto non arriva mai al nodo di lavoro, significa che la rete dell'infrastruttura. Rivolgiti al team di infrastruttura di rete per scoprire perché il pacchetto viene ignorato tra i nodi LoadBalancer e i nodi worker. Ecco alcuni problemi comuni:
- Controlla i log della rete software-defined (SDN). A volte, l'SDN potrebbe eliminare i pacchetti per vari motivi, ad esempio per segmentazione, checksum errato o anti-spoofing.
- Regole del firewall che filtrano i pacchetti geneve sulla porta UDP 6081.
Se il pacchetto arriva all'interfaccia esterna del nodo o all'interfaccia del tunnel, deve essere inoltrato al pod di destinazione. Se il pod è un networking host questo passaggio non è necessario perché il pod condivide lo spazio dei nomi di rete nel nodo. In caso contrario, è necessario l'inoltro di pacchetti aggiuntivi.
Ogni pod ha coppie di interfacce Ethernet virtuali, che funzionano come pipe. Un pacchetto inviato a un'estremità dell'interfaccia viene ricevuto dall'altra estremità dell'interfaccia. Una delle interfacce viene spostata nello spazio dei nomi di rete del pod
rinominato in eth0
. L'altra interfaccia viene conservata nello spazio dei nomi dell'host. Diverso
I CNI hanno uno schema diverso. Per Dataplane v2, l'interfaccia è in genere denominata come
lxcxxxx
. I nomi contengono numeri di interfaccia consecutivi, come lxc17
e
lxc18
. Puoi controllare se il pacchetto arriva al pod utilizzando tcpdump
oppure puoi anche specificare l'interfaccia:
tcpdump -ni lcxxxx host BACKEND_POD_IP and port CONTAINER_PORT
Se il pacchetto arriva al nodo ma non riesce ad arrivare al pod, controlla la di routing come segue:
ip route
Normalmente, ogni pod dovrebbe avere una voce di routing che indirizzi l'indirizzo IP del pod all'interfaccia lxc
. Se la voce non è presente, in genere significa che il percorso dati CNI presenta un errore. Per determinare la causa principale, controlla i log del DaemonSet CNI.
Problemi di traffico in uscita
Se il traffico può entrare in un pod, potresti avere un problema con il traffico che esce dal pod. I seguenti diagrammi mostrano che in un esempio funzionante il traffico in entrata attraversa la pila da sinistra a destra:
per verificare che il pacchetto in uscita venga mascherato correttamente da IP del nodo. l'indirizzo IP, controlla il servizio esterno (livello 4).
L'indirizzo IP sorgente del pacchetto deve essere mappato dall'indirizzo IP del pod all'indirizzo IP del nodo con la Network Address Translation dell'origine (NAT di origine o SNAT). In Dataplane 2, questa procedura viene eseguita tramite ebpf caricato su un'interfaccia esterna.
Usa
tcpdump
per verificare se l'indirizzo IP di origine viene tradotto correttamente da Dall'indirizzo IP del pod all'indirizzo IP del nodo:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and port EXTERNAL_PORT
Se
tcpdump
indica che i pacchetti sono mascherati correttamente, ma il servizio remoto non risponde, controlla la connessione al servizio esterno nella tua infrastruttura.Se i pacchetti in uscita sono mascherati correttamente come indirizzo IP del nodo, controlla la connettività dell'host esterno (livello 3) utilizzando
tcpdump
:tcpdump -ni EXTERNAL_INTERFACE host EXTERNAL_IP and icmp
Contemporaneamente all'esecuzione di
tcpdump
, esegui il ping da uno dei pod:kubectl exec POD_NAME ping EXTERNAL_IP
Se non vedi le risposte ai ping, controlla la connessione al servizio esterno nella tua infrastruttura.
Problemi all'interno del cluster
Per i problemi di connettività tra pod, prova a circoscrivere il problema ai nodi. Spesso un gruppo di nodi non può comunicare con un altro gruppo di nodi.
In Dataplane v2, controlla la connettività del nodo dal nodo corrente a tutti gli altri nodi dello stesso cluster. All'interno del pod
anetd
, controlla lo stato di salute:cilium status --all-health
Problemi relativi al livello di rete
L'identificazione del livello di rete in cui si verifica il problema di connettività è una passaggio importante. Un messaggio di errore come "Un problema di connettività da un'origine a una destinazione" non è sufficientemente informativo per risolvere il problema, che potrebbe essere un errore dell'applicazione, un problema di routing o un problema DNS. Capire a quale livello si verifica il problema aiuta a correggere il componente corretto.
Spesso i messaggi di errore indicano direttamente in quale livello si verifica il problema. I seguenti esempi possono aiutarti a risolvere i problemi relativi al livello di rete:
- Gli errori HTTP indicano che si tratta di un problema di livello 7.
- I codici HTTP
40x
,50x
o gli errori di handshake TLS indicano che tutto funziona normalmente nel livello 4.
- I codici HTTP
- Gli errori "Connessione reimpostata dal peer" indicano che si tratta di un problema di livello 4.
- Spesso, la socket remota non è in linea con lo stato corrente di una connessione e invia un pacchetto
RESET
. Questo comportamento potrebbe essere un errore nel monitoraggio delle connessioni o nel NAT.
- Spesso, la socket remota non è in linea con lo stato corrente di una connessione e invia un pacchetto
- Gli errori "Nessun percorso per l'host" e "Timeout connessione" sono in genere un problema di livello 3 o
livello 2.
- Questi errori indicano che il pacchetto non può essere instradato correttamente alla destinazione.
Strumenti utili per la risoluzione dei problemi
I DaemonSet correlati alla rete vengono eseguiti sui tuoi nodi e potrebbero essere la causa problemi di connettività. Tuttavia, anche la configurazione errata di nodi, switch ToR (top of rack), router spine o firewall può causare problemi. Puoi utilizzare lo i seguenti strumenti per determinare l'ambito o il livello del problema e determinare se si tratta di un problema dei nodi GKE Enterprise o della tua dell'infrastruttura.
Dindin
Il ping funziona a livello 3 (livello IP) e controlla il percorso tra un'origine e una destinazione. Se il ping non riesce a raggiungere una destinazione, spesso significa che il problema è per il livello 3.
Tuttavia, non è possibile inviare un ping a tutti gli indirizzi IP. Ad esempio, alcuni bilanciatori del carico
Non è possibile inviare un ping ai VIP se si tratta di un bilanciatore del carico di livello 4 puro. Il servizio ClusterIP
è
Esempio in cui il VIP potrebbe non restituire una risposta ping. A livello 4, questo servizio restituisce una risposta ping solo quando specifichi un numero di porta, ad esempio VIP:port
.
I bilanciatori del carico BGPLB e MetalLB in Google Distributed Cloud funzionano tutti a livello 3. Puoi utilizzare il comando ping per controllare la connettività. Sebbene F5 sia diverso, supporta anche ICMP. Puoi utilizza ping per verificare la connettività al VIP F5.
Arping
L'arping è simile al ping, tranne per il fatto che funziona a livello 2. I problemi di livello 2 e 3 spesso hanno messaggi di errore simili nelle applicazioni. Arping e ping possono contribuire a distinguere il problema. Ad esempio, se l'origine e la destinazione sono nella stessa subnet, ma non è possibile eseguire l'arping della destinazione, si tratta di un problema di livello 2.
Un arping <ip>
riuscito restituisce l'indirizzo MAC della destinazione. A livello 2, questo indirizzo indica spesso un problema di infrastruttura fisica.
Spesso questo problema è dovuto a un interruttore fisico tra i nodi.
Arping può anche rilevare conflitti di indirizzi IP. Un conflitto di indirizzi IP si verifica quando due macchine sono configurate per utilizzare lo stesso indirizzo IP nella stessa subnet o un VIP viene utilizzato da un'altra macchina fisica. I conflitti di indirizzi IP possono creare
a intermittenza e difficili da risolvere. Se arping <ip>
restituisce altri
di una voce di indirizzo MAC, significa che c'è un indirizzo IP
in conflitto.
Dopo aver ottenuto l'indirizzo MAC da arping, puoi utilizzare
https://maclookup.app/
per cercare il produttore dell'indirizzo MAC. Ogni produttore possiede un MAC
, così potrai usare queste informazioni per stabilire quale dispositivo sta
per utilizzare lo stesso indirizzo IP. Ad esempio, VMware è proprietario del blocco 00:50:56
, quindi un
L'indirizzo MAC 00:50:56:xx:yy:zz
è una VM nel tuo ambiente vSphere.
iproute2
La CLI ip
per iproute2
ha molti sottocomandi utili, ad esempio:
ip r
: stampa la tabella delle routeip n
: stampa la tabella dei vicini per la mappatura dell'indirizzo IP all'indirizzo MACip a
: stampa tutte le interfacce della macchina
Una route o una voce mancante nella tabella vicina potrebbe causare la connettività dal nodo. Anetd gestisce la tabella delle route e quella delle vicine. Un'errata configurazione di queste tabelle può causare problemi di connettività.
Interfaccia a riga di comando Cilium/Hubble per Dataplane v2
Ogni pod anetd
dispone di diversi strumenti di debug utili per i problemi di connettività:
cilium monitor --type=drop
- Stampa il log di ogni pacchetto eliminato da anetd/Cilium.
hubble observe
- Stampa tutti i pacchetti che passano per la pila ebpf di anetd.
cilium status --all-health
- Stampa lo stato di Cilium, incluso lo stato di connettività da nodo a nodo. Ciascuna anetd Pod controlla l'integrità di tutti gli altri nodi nel cluster e può aiutarti determinare eventuali problemi di connettività nodo a nodo.
IPtables
Gli iptable vengono utilizzati in molti componenti e sottosistemi di Kubernetes. kube-proxy
utilizza iptables per implementare la risoluzione dei servizi.
Per risolvere i problemi di rete a livello di iptables, utilizza il seguente comando:
iptables -L -v | grep DROP
Esamina le regole di eliminazione e controlla i conteggi di pacchetti e byte per vedere se aumentano nel tempo.
Tcpdump
tcpdump è un potente strumento di acquisizione di pacchetti che genera dati sul traffico. È prassi comune eseguire tcpdump sia dall'origine che destinazione. Se un pacchetto viene acquisito quando esce dal nodo di origine, ma non viene mai acquisito sul nodo di destinazione, significa che qualcosa nel mezzo perde il pacchetto. Questo comportamento indica in genere che qualcosa nell'infrastruttura fisica sta perdendo erroneamente il pacchetto.
Risoluzione dei problemi DNS
I problemi di risoluzione DNS rientrano in due categorie principali:
- Pod normali, che utilizzano i server DNS nel cluster.
- Pod o nodi della rete host, che non utilizzano server DNS nel cluster
Le sezioni seguenti forniscono alcune informazioni sull'architettura DNS del cluster e suggerimenti utili prima di iniziare a risolvere i problemi di una di queste categorie.
Architettura DNS cluster
Un servizio DNS del cluster risolve le richieste DNS per i pod nel cluster. CoreDNS offre questo servizio per tutte le versioni di Google Distributed Cloud.
Ogni cluster ha due o più pod coredns
e un gestore della scalabilità automatica responsabile della scalabilità del numero di pod DNS in base alle dimensioni del cluster.
Esiste anche un servizio denominato kube-dns
che esegue il bilanciamento del carico delle richieste tra tutti i pod coredns
di backend.
La maggior parte dei pod ha il DNS upstream configurato sull'IP del servizio kube-dns
e i pod inviano richieste DNS a uno dei pod coredns
. Richieste DNS
possono essere raggruppati in una delle seguenti destinazioni:
- Se la richiesta riguarda un dominio
cluster.local
, si tratta di un nome DNS all'interno del cluster che fa riferimento a un servizio o a un pod nel cluster.- CoreDNS controlla
api-server
per tutti i servizi e i pod nel cluster, e risponde alle richieste di dominicluster.local
validi.
- CoreDNS controlla
- Se la richiesta non riguarda un dominio
cluster.local
, allora si riferisce a un dominio esterno dominio.- CoreDNS inoltra la richiesta ai nameserver upstream. Per impostazione predefinita, CoreDNS utilizza i nameserver a monte che sono configurati sul nodo, in esecuzione.
Per ulteriori informazioni, consulta Panoramica del funzionamento e della configurazione del DNS in Kubernetes.
Suggerimenti per la risoluzione dei problemi DNS
Per risolvere i problemi relativi al DNS, puoi usare gli strumenti dig
e nslookup
. Questi
consentono di inviare richieste DNS per verificare se la risoluzione DNS funziona correttamente. I seguenti esempi mostrano come utilizzare dig
e nslookup
per verificare la presenza di problemi di risoluzione DNS.
Usa
dig
onslookup
per inviare una richiesta pergoogle.com
:dig google.com nslookup google.com
Usa
dig
per inviare una richiesta dikubernetes.default.svc.cluster.local
a server192.168.0.10
:dig @192.168.0.10 kubernetes.default.svc.cluster.local
Puoi anche utilizzare
nslookup
per eseguire la stessa ricerca DNS della precedente Comandodig
:nslookup kubernetes.default.svc.cluster.local 192.168.0.10
Esamina l'output dei comandi dig o nslookup. Se ricevi una risposta sbagliata o nessuna risposta, significa che si è verificato un problema di risoluzione DNS.
Pod standard
Il primo passaggio per eseguire il debug di un problema DNS è determinare se le richieste
o meno sui pod coredns
. Spesso, un problema generico di connettività
del cluster si presenta
Problemi DNS perché una richiesta DNS è il primo tipo di traffico che un carico di lavoro
inviate.
Esamina i messaggi di errore delle tue applicazioni. Errori come io timeout
o simili indicano che non è stata ricevuta alcuna risposta e che si è verificato un problema generale di connettività di rete.
I messaggi di errore che includono un codice di errore DNS come NXDOMAIN
o SERVFAIL
indicano che è presente connettività al server DNS nel cluster, ma il server
non è riuscito a risolvere il nome di dominio:
- Gli errori
NXDOMAIN
indicano che il server DNS segnala che il dominio non esistono. Verifica che il nome di dominio richiesto dalla tua richiesta sia valido. - Gli errori
SERVFAIL
oREFUSED
indicano che il server DNS ha inviato una risposta, ma non è stato in grado di risolvere il dominio o di verificare che non esista. Per ulteriori informazioni, controlla i log dei podcoredns
.
Puoi trovare l'indirizzo IP del servizio kube-dns
utilizzando:
:
kubectl -n kube-system get svc kube-dns
Da un pod in cui il DNS non funziona, prova a inviare una richiesta DNS a questo indirizzo IP utilizzando dig
o nslookup
come descritto in una sezione precedente:
- Se queste richieste non funzionano, prova a inviare le richieste all'indirizzo IP di ogni
coredns
pod. - Se alcuni pod funzionano, ma non altri, controlla se sono presenti pattern distinguibili,
come la risoluzione DNS funziona per i pod sullo stesso nodo del pod
coredns
, ma non tra nodi. Questo comportamento potrebbe indicare che alcuni problema di connettività.
Se CoreDNS non è in grado di risolvere i nomi di dominio esterni, consulta la sezione seguente per risolvere i problemi relativi ai pod della rete host. CoreDNS si comporta come un pod di rete host utilizza i server DNS upstream del nodo per la risoluzione dei nomi.
Pod o nodi della rete host
I pod della rete host e i nodi utilizzano i nameserver configurati sul nodo per la risoluzione DNS, non il servizio DNS nel cluster. In base al sistema operativo,
nameserver è configurato in /etc/resolv.conf
o
/run/systemd/resolve/resolv.conf
. Questa configurazione significa
che non possono risolvere
cluster.local
nomi di dominio.
Se riscontri problemi con la risoluzione dei nomi della rete host, segui i passaggi per la risoluzione dei problemi riportati nelle sezioni precedenti per verificare se il DNS funziona correttamente per i server dei nomi upstream.
Verifica che in tutti i nodi sia configurato lo stesso insieme di server. Se hai configurato diversi server dei nomi, potresti notare incoerenze nella risoluzione DNS su nodi diversi. Verifica che ogni nameserver funzioni singolarmente inviando una richiesta a ciascuno utilizzandodig
o nslookup
. Se alcuni nameserver funzionano, ma altri no, si verificano questo tipo di errori di risoluzione DNS incoerenti.
Problemi di rete comuni
Le seguenti sezioni descrivono nel dettaglio alcuni problemi di rete comuni che potresti durante l'incontro. Per risolvere il problema, segui le linee guida per la risoluzione dei problemi appropriate. Se hai bisogno di ulteriore assistenza, contatta l'assistenza clienti Google Cloud.
Dataplane v2 / Cilium
Errore comune: [PUT /endpoint/{id}][429] putEndpointIdTooManyRequests
Questo errore indica che l'evento di creazione del pod è stato rifiutato dall'agente Cilium per un limite di frequenza. Per ogni nodo, Cilium ha un limite di quattro richieste simultanee all'endpoint PUT. Quando si verifica un picco di richieste a un nodo, questo comportamento è previsto. La L'agente Cilium dovrebbe recuperare le richieste ritardate.
In GKE Enterprise 1.14 e versioni successive, la limitazione di frequenza si adatta automaticamente al nodo e la capacità di archiviazione. Il limitatore di velocità può convergere su un numero più ragionevole, con limiti di velocità più elevati per i nodi più potenti.
Errore comune: Ebpf map size is full
Dataplane v2 archivia lo stato in una mappa eBFP. Lo stato include il servizio, il monitoraggio delle connessioni, l'identità del pod e le regole del criterio di rete. Se una mappa è completa, l'agente non può inserire voci, il che crea una discrepanza tra il piano di controllo e il piano dati. Ad esempio, la mappa dei servizi ha un limite di voci di 64.000.
Per controllare le voci della mappa eBFP e le loro dimensioni attuali, utilizza
bpftool
. L'esempio seguente controlla le mappe del bilanciatore del carico:bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | tail -n -1 bpftool map dump pinned \ /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | tail -n -1
Se la mappa è vicina al limite di 64.000 elementi, ripulisci le mappe. Le seguenti un esempio di pulizia delle mappe del bilanciatore del carico:
bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5, "0x"$6, "0x"$7, "0x"$8, "0x"$9, "0x"$10, "0x"$11, "0x"$12, "0x"$13}' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_services_v2 key bpftool map dump pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 | \ awk '{ print "0x"$2, "0x"$3, "0x"$4, "0x"$5 }' | \ head -n -1 | \ xargs -L 1 bpftool map delete pinned /sys/fs/bpf/tc/globals/cilium_lb4_backends_v2 key
Per aggiungere nuovamente lo stato nella mappa eBFP, riavvia
anetd
.
Nodo non pronto a causa di errori NetworkPluginNotReady
Se il pod CNI non è in esecuzione sul nodo, potresti visualizzare un errore simile al seguente:
"Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized
Il nodo potrebbe anche essere in uno stato non pronto, con un errore simile al nell'esempio seguente:
"Network plugin not installed"
Quando un nodo viene inizializzato, kubelet
attende che si verifichino diversi eventi prima di contrassegnarlo come Ready
. Uno degli eventi controllati da kubelet
è che
sia installato il plug-in Container Network Interface (CNI). Il plug-in CNI deve essere installato da anetd utilizzando un contenitore init per installare sia il file binario CNI sia la configurazione CNI nelle directory host richieste.
Per risolvere il problema, controlla perché questi pod non sono in esecuzione sul nodo. In genere, l'errore non è dovuto a problemi di rete. Questi pod vengono eseguiti sulla rete dell'host, quindi non esiste alcuna dipendenza dalla rete.
Controlla lo stato del pod
anetd
. Esamina i seguenti passaggi per la risoluzione dei problemi per determinare causa del problema:- Se il pod è in stato
Crashlooping
, controlla i log per capire perché non può funzionare correttamente. - Se il pod è in uno stato
Pending
, utilizzakubectl describe
e controlla gli eventi del pod. Ad esempio, nel pod potrebbe mancare una risorsa come un volume. - Se il pod è in stato
Running
, controlla i log e la configurazione. Alcune implementazioni di CNI forniscono opzioni per disattivare l'installazione di CNI, come in Cilium. - Nell'account è presente un'opzione di configurazione chiamata
custom-cni-conf
. Se questa impostazione è configurata cometrue
, anetd non installerà il proprio file binario CNI.
- Se il pod è in stato
Nodo NON PRONTO a causa di voci ARP obsolete
A volte, le voci ARP obsolete nei nodi del piano di controllo del cluster di amministrazione possono causare un
la mancata corrispondenza degli indirizzi MAC. Questa mancata corrispondenza dell'indirizzo può, a sua volta, causare timeout di connessione ai VIP del control plane dei cluster di utenti gestiti. I timeout di connessione possono portare al contrassegno come NOT
READY
del nodo con voci ARP obsolete. I nodi contrassegnati come NOT READY
possono bloccare le installazioni di cluster e
upgrade.
In questa situazione, il log kubelet sul nodo con voci ARP obsolete contiene un errore di timeout dell'handshake TLS come il seguente:
failed to get API group resources: unable to retrieve the complete list of server APIs: v1: Get "https://128.160.252.101:443/api/v1": net/http: TLS handshake timeout
Per verificare e risolvere il problema:
Utilizza SSH per connetterti al nodo del piano di controllo del cluster utente.
Verifica l'indirizzo MAC dell'interfaccia a cui è associato l'indirizzo VIP:
ip a | grep DEVICE_NAME: -A 6
Sostituisci
DEVICE_NAME
con il nome del dispositivo di rete per il nodo del control plane.Utilizza SSH per connetterti a un nodo del control plane del cluster di amministrazione.
Controlla la cache ARP sul control plane del cluster di amministrazione per l'indirizzo VIP del control plane del cluster utente:
ip n | grep VIP_ADDRESS
Sostituisci
VIP_ADDRESS
con l'indirizzo IP del VIP del control plane del cluster utente (controlPlaneVIP
).Se i due comandi
ip
restituiscono un indirizzo MAC diverso, sei interessato dal questo problema.Per risolvere il problema, svuota la cache ARP nel piano di controllo del cluster di amministrazione nodo:
ip n flush all
Il servizio F5 non riceve traffico
Se non viene inviato traffico al servizio F5, esamina la procedura di risoluzione dei problemi riportata di seguito passaggi:
Controlla che ogni partizione in F5 BIG-IP sia configurate in un cluster, di amministrazione o di cluster utente. Se una partizione è condivisa da più parti diversi cluster, si verificano interruzioni della connessione intermittenti. Questo comportamento si verifica perché due cluster tentano di acquisire il controllo della stessa partizione ed eliminare i servizi da altri cluster.
Verifica che i due pod seguenti siano in esecuzione. I pod non in esecuzione indicano un errore:
Load-balancer-f5 K8s-bigip-ctlr-deployment-577d57985d-vk9wj
Load-balancer-f5
di proprietà di GKE Enterprise e crea oggetti ConfigMap per a ogni tipo di servizio LoadBalancer. alla fine il ConfigMap viene utilizzato Controllerbigip
.Assicurati che ConfigMap esista per ogni porta di ogni servizio. Per ad esempio con le seguenti porte:
Kube-server-443-tcp 2 31h Kube-server-8132-tcp 2 31h
Il servizio
kube-server
dovrebbe avere un aspetto simile all'esempio seguente:Kube-server LoadBalancer 10.96.232.96 21.1.7.16 443:30095/TCP,8132:32424/TCP 31h
La sezione dei dati in ConfigMap deve contenere l'IP e la porta frontend, come mostrato nell'esempio seguente:
data: '{"virtualServer":{"backend":{"serviceName":"kube-apiserver","servicePort":443,"healthMonitors":[{"protocol":"tcp","interval":5,"timeout":16}]},"frontend":{"virtualAddress":{"bindAddr":"21.1.7.16","port":443},"partition":"herc-b5bead08c95b-admin","balance":"ratio-member","mode":"tcp"}}}' schema: f5schemadb://bigip-virtual-server_v0.1.7.json
Controlla i log e le metriche dell'istanza BIG-IP. Se il ConfigMap è corretto configurato, ma l'istanza BIG-IP non riesce a rispettare la configurazione, potrebbe un problema con F5. Per i problemi che si verificano all'interno dell'istanza BIG-IP, Contatta l'assistenza di F5 per diagnosticare e risolvere i problemi.
Errore NAT con troppe connessioni parallele
Per un determinato nodo del cluster, l'indirizzo IP del nodo fornisce la Network Address Translation (NAT) per i pacchetti instradati a un indirizzo esterno al cluster.
Analogamente, quando i pacchetti in entrata entrano in un nodo di bilanciamento del carico configurato per utilizzare
bilanciamento del carico in bundle (spec.loadBalancer.mode: bundled
), rete di origine
la traduzione di indirizzi (SNAT) instrada i pacchetti all'indirizzo IP del nodo prima che
vengono inoltrati al tuo pod di backend.
L'intervallo di porte per NAT utilizzato da Google Distributed Cloud è 32768-65535
. Questo
di connessioni parallele limita il numero di connessioni parallele a 32.767 per protocollo
nodo. Ogni connessione richiede una voce nella tabella di connessione. Se hai anche tu
molte connessioni di breve durata, la tabella conntrack esaurisce le porte per NAT. R
Il garbage collector ripulisce le voci obsolete, ma la pulizia non è immediata.
Quando il numero di connessioni sul nodo si avvicina a 32.767, inizi a vedere di pacchetti per le connessioni che richiedono NAT.
Per determinare se il problema ti riguarda:
Esegui il seguente comando sul pod
anetd
sul nodo problematico:kubectl -n kube-system anetd-XXX -- hubble observe \ --from-ip $IP --to-ip $IP -f
Dovresti vedere errori del seguente tipo:
No mapping for NAT masquerade DROPPED
Come soluzione alternativa a questo problema, ridistribuisci il traffico ad altri nodi.