Diagnostica dei problemi relativi ai cluster

Lo strumento gkectl include due comandi per la risoluzione dei problemi relativi ai cluster: gkectl diagnose cluster e gkectl diagnose snapshot. I comandi funzionano sia con i cluster di amministrazione che con i cluster utente. Questo documento mostra come utilizzare il comando gkectl diagnose per diagnosticare i problemi nei cluster.

Per ulteriori informazioni su come utilizzare il comando gkectl diagnose snapshot per creare snapshot che possano aiutare l'assistenza clienti Google Cloud a diagnosticare i problemi, consulta Creare snapshot per diagnosticare i cluster.

Se hai bisogno di ulteriore aiuto, contatta l'assistenza clienti Google Cloud.

gkectl diagnose cluster

Questo comando esegue controlli di integrità sul cluster e segnala errori. Il comando esegue i controlli di integrità sui seguenti componenti:

  • vCenter
    • Credenziale
    • DR
    • Gruppi anti-affinità
    • Rete
    • Versione
    • Data center
    • Datastore
    • ResourcePool
    • Cartella
    • Rete
  • Bilanciatore del carico (F5, Seesaw o Manuale)
  • Cluster utente e pool di nodi
  • Oggetti cluster
  • Idoneità del server Konnectivity del cluster utente
  • Oggetti macchina e nodi cluster corrispondenti
  • Pod negli spazi dei nomi kube-system e gke-system
  • Piano di controllo
  • Volumi permanenti vSphere nel cluster
  • Indicatori di contesa di vCPU (CPU virtuale) e memoria dei cluster di amministrazione e di utente
  • Cluster utente e di amministrazione ESXi Allarmi preconfigurati Utilizzo CPU host e Utilizzo memoria.
  • Ora del giorno (TOD)
  • Criterio di rete dei nodi per un cluster con Dataplane V2 abilitato
  • Integrità complessiva dell'agente nodo Dataplane V2

Esegui la diagnostica di un cluster di amministrazione

Per eseguire la diagnostica di un cluster di amministrazione, specifica il percorso del cluster di amministrazione:

gkectl diagnose cluster --kubeconfig=ADMIN_CLUSTER_KUBECONFIG

Sostituisci ADMIN_CLUSTER_KUBECONFIG con il percorso del file kubeconfig del cluster di amministrazione.

Il comando gkectl diagnose cluster restituisce il seguente output di esempio:

Preparing for the diagnose tool...
Diagnosing the cluster......DONE

- Validation Category: Admin Cluster Connectivity
Checking VMs TOD (availability)...SUCCESS
Checking Konnectivity Server (readiness)...SUCCESS

- Validation Category: Admin Cluster F5 BIG-IP
Checking f5 (credentials, partition)...SUCCESS

- Validation Category: Admin Cluster VCenter
Checking Credentials...SUCCESS
Checking DRS enabled...SUCCESS
Checking Hosts for AntiAffinityGroups...SUCCESS
Checking Version...SUCCESS
Checking Datacenter...SUCCESS
Checking Datastore...SUCCESS
Checking Resource pool...SUCCESS
Checking Folder...SUCCESS
Checking Network...SUCCESS

- Validation Category: Admin Cluster
Checking cluster object...SUCCESS
Checking machine deployment...SUCCESS
Checking machineset...SUCCESS
Checking machine objects...SUCCESS
Checking kube-system pods...SUCCESS
Checking anthos-identity-service pods...SUCCESS
Checking storage...SUCCESS
Checking resource...SUCCESS
Checking virtual machine resource contention...SUCCESS
Checking host resource contention...SUCCESS
All validation results were SUCCESS.
Cluster is healthy!

Se si verifica un problema con un indirizzo IP virtuale (VIP) nel cluster di destinazione, utilizza il flag --config per fornire il file di configurazione del cluster di amministrazione e fornire ulteriori informazioni di debug.

gkectl diagnose cluster --kubeconfig ADMIN_CLUSTER_KUBECONFIG --config CLUSTER_CONFIG

Sostituisci CLUSTER_CONFIG con il percorso del file di configurazione del cluster di amministrazione o del cluster utente.

L'output di esempio seguente mostra che ora il comando gkectl diagnose cluster può connettersi correttamente al cluster e verificare la presenza di problemi:

Failed to access the api server via LB VIP "...": ...
Try to use the admin master IP instead of problematic VIP...
Reading config with version "[CONFIG_VERSION]"
Finding the admin master VM...
Fetching the VMs in the resource pool "[RESOURCE_POOL_NAME]"...
Found the "[ADMIN_MASTER_VM_NAME]" is the admin master VM.
Diagnosing admin|user cluster "[TARGET_CLUSTER_NAME]"...
...

Diagnosi di un cluster utente

Per eseguire la diagnostica di un cluster utente, devi specificare il nome del cluster utente. Se devi ottenere il nome di un cluster utente, esegui questo comando:

kubectl get cluster --kubeconfig=USER_CLUSTER_KUBECONFIG

Sostituisci USER_CLUSTER_KUBECONFIG con il percorso del file kubeconfig del cluster utente.

Specifica il nome del cluster utente e il file di configurazione come segue:

gkectl diagnose cluster --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \
    --cluster-name=USER_CLUSTER_NAME

Sostituisci USER_CLUSTER_NAME con il nome del cluster utente.

Il comando gkectl diagnose cluster restituisce il seguente output di esempio:

Preparing for the diagnose tool...
Diagnosing the cluster......DONE

Diagnose result is saved successfully in <DIAGNOSE_REPORT_JSON_FILE>

- Validation Category: User Cluster Connectivity
Checking Node Network Policy...SUCCESS
Checking VMs TOD (availability)...SUCCESS
Checking Dataplane-V2...Success

- Validation Category: User Cluster F5 BIG-IP
Checking f5 (credentials, partition)...SUCCESS

- Validation Category: User Cluster VCenter
Checking Credentials...SUCCESS
Checking DRS enabled...SUCCESS
Checking Hosts for AntiAffinityGroups...SUCCESS
Checking VSphere CSI Driver...SUCCESS
Checking Version...SUCCESS
Checking Datacenter...SUCCESS
Checking Datastore...SUCCESS
Checking Resource pool...SUCCESS
Checking Folder...SUCCESS
Checking Network...SUCCESS

- Validation Category: User Cluster
Checking user cluster and node pools...SUCCESS
Checking cluster object...SUCCESS
Checking machine deployment...SUCCESS
Checking machineset...SUCCESS
Checking machine objects...SUCCESS
Checking control plane pods...SUCCESS
Checking kube-system pods...SUCCESS
Checking gke-system pods...SUCCESS
Checking gke-connect pods...SUCCESS
Checeking anthos-identity-service pods...SUCCESS
Checking storage...SUCCESS
Checking resource...SUCCESS
Checking virtual machine resource contention...SUCCESS
Checking host resource contention...SUCCESS
All validation results were SUCCESS.
Cluster is healthy!

Diagnosi dello stato della macchina virtuale

Se si verifica un problema con la creazione di macchine virtuali, esegui gkectl diagnose cluster per ottenere una diagnosi dello stato della macchina virtuale.

L'output è simile al seguente:


- Validation Category: Cluster Healthiness
Checking cluster object...SUCCESS
Checking machine deployment...SUCCESS
Checking machineset...SUCCESS
Checking machine objects...SUCCESS
Checking machine VMs...FAILURE
    Reason: 1 machine VMs error(s).
    Unhealthy Resources:
    Machine [NODE_NAME]: The VM's UUID "420fbe5c-4c8b-705a-8a05-ec636406f60" does not match the machine object's providerID "420fbe5c-4c8b-705a-8a05-ec636406f60e".
    Debug Information:
    null
...
Exit with error:
Cluster is unhealthy!
Run gkectl diagnose cluster automatically in gkectl diagnose snapshot
Public page https://cloud.google.com/anthos/clusters/docs/on-prem/latest/diagnose#overview_diagnose_snapshot

Risolvere i problemi

La seguente tabella illustra alcune possibili risoluzioni dei problemi relativi all'esecuzione del comando gkectl diagnose cluster:

ProblemaCause possibiliRisoluzione
Il server API Kubernetes non è raggiungibile, né per il cluster di amministrazione né per i cluster utente. Controlla i grafici sulla latenza della memoria OOB (out-of-box) dello stato delle macchine virtuali, che idealmente dovrebbero avere una latenza della memoria intorno allo zero. La contesa della memoria può anche aumentare la contesa della CPU e i grafici di idoneità della CPU potrebbero avere un picco in quanto saranno coinvolti degli scambi. Aumentare la memoria fisica. Per altre opzioni, consulta i suggerimenti per la risoluzione dei problemi di VMware.
Timeout della creazione del pool di nodi. Latenza elevata di lettura/scrittura VMDK. Controlla l'OOB di integrità della VM per verificare la latenza di lettura e scrittura del disco virtuale. Secondo VMware, una latenza totale superiore a 20 ms indica un problema. Consulta Soluzioni VMware per i problemi di prestazioni dei dischi.

BundleUnexpectedDiff errore

La risorsa API del cluster Kubernetes gestita da un bundle GKE su VMware potrebbe essere modificata accidentalmente, il che può causare errori dei componenti di sistema oppure dell'upgrade del cluster o dell'aggiornamento.

In GKE su VMware versione 1.13 e successive, onprem-user-cluster-controller controlla periodicamente lo stato degli oggetti e segnala tramite log ed eventi eventuali differenze impreviste rispetto allo stato desiderato. Questi oggetti includono il piano di controllo e i componenti aggiuntivi del cluster utente, come Services e DaemonSet.

L'output di esempio seguente mostra un evento differenza imprevisto:

 Type     Reason                 Age    From                              Message
 ----     ------                 ----   ----                              -------
 Warning  BundleUnexpectedDiff   13m    onpremusercluster/ci-bundle-diff  Detected unexpected difference of user control plane objects: [ConfigMap/istio], please check onprem-user-cluster-controller logs for more details.

Il seguente output di esempio mostra i log generati da onprem-user-cluster-controller:

2022-08-06T02:54:42.701352295Z W0806 02:54:42.701252       1 update.go:206] Detected unexpected difference of user addon object(ConfigMap/istio), Diff:   map[string]string{
2022-08-06T02:54:42.701376406Z -    "mesh": (
2022-08-06T02:54:42.701381190Z -        """
2022-08-06T02:54:42.701385438Z -        defaultConfig:
2022-08-06T02:54:42.701389350Z -          discoveryAddress: istiod.gke-system.svc:15012
...
2022-08-06T02:54:42.701449954Z -        """
2022-08-06T02:54:42.701453099Z -    ),
2022-08-06T02:54:42.701456286Z -    "meshNetworks": "networks: {}",
2022-08-06T02:54:42.701459304Z +    "test-key":     "test-data",
2022-08-06T02:54:42.701462434Z   }

Gli eventi e i log non bloccheranno il funzionamento del cluster. Gli oggetti che presentano differenze inaspettate rispetto allo stato desiderato vengono sovrascritti nel successivo upgrade del cluster.

Passaggi successivi

Se hai bisogno di ulteriore aiuto, contatta l'assistenza clienti Google Cloud.