Eliminazione di un cluster di amministrazione

Questa pagina descrive come eliminare un cluster di amministrazione GKE On-Prem.

Prima di iniziare

Prima di eliminare un cluster di amministrazione:

  • Eliminare i relativi cluster utente. Consulta Eliminazione di un cluster utente.
  • Elimina tutti i carichi di lavoro che utilizzano PodDisruptionBudget (PDB) dal cluster di amministrazione.
  • Elimina tutti gli oggetti esterni, come PersistentVolume, dal cluster di amministrazione.
  • Imposta una variabile di ambiente KUBECONFIG che rimandi a kubeconfig del cluster di amministrazione che vuoi eliminare:

    export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
    

    dove [ADMIN_CLUSTER_KUBECONFIG] è il percorso del file del kubeconfig del cluster di amministrazione.

Eliminazione di logging e monitoraggio

I pod di logging e monitoraggio di GKE On-Prem, implementati da StatefulSet, utilizzano i PDB che impediscono il corretto svuotamento dei nodi. Per eliminare correttamente un cluster di amministrazione, devi eliminare questi pod.

Per eliminare i pod di logging e monitoraggio, esegui i comandi seguenti:

kubectl delete monitoring --all -n kube-system
kubectl delete stackdriver --all -n kube-system

L'eliminazione del monitoraggio pulisce gli oggetti PersistentVolume (PV) associati agli StatefulSet, ma l'oggetto PersistentVolume per Stackdriver deve essere eliminato separatamente.

L'eliminazione del volume permanente di Stackdriver è facoltativa. Se scegli di non eliminare il volume permanente, registra la località e il nome del volume permanente associato in una posizione esterna al di fuori del cluster utente.

L'eliminazione del volume permanente verrà propagata eliminando la richiesta di volume permanente (PVC).

Per trovare la PVC di Stackdriver, esegui il comando seguente:

kubectl get pvc -n kube-system

Per eliminare la PVC, esegui questo comando:

kubectl delete pvc -n kube-system [PVC_NAME]

Verifica del logging e monitoraggio rimossa

Per verificare che il logging e il monitoraggio siano stati rimossi, esegui questi comandi:

kubectl get pvc -n kube-system
kubectl get statefulsets -n kube-system

Pulizia di una partizione F5 di un cluster di amministrazione

L'eliminazione dello spazio dei nomi gke-system dal cluster di amministrazione assicura la corretta pulizia della partizione F5, consentendoti di riutilizzare la partizione per un altro cluster di amministrazione.

Per eliminare lo spazio dei nomi gke-system, esegui il comando seguente:

kubectl delete ns gke-system

Quindi elimina tutti i servizi rimanenti di tipo LoadBalancer. Per elencare tutti i servizi, esegui il comando seguente:

kubectl get services --all-namespaces

Per ogni servizio di tipo LoadBalancer, eliminalo eseguendo il comando seguente:

kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]

Quindi, dalla console BIG-IP di F5:

  1. Nell'angolo in alto a destra della console, passa alla partizione per eseguire la pulizia.
  2. Seleziona Traffico locale > Server virtuali > Elenco dei server virtuali.
  3. Nel menu Server virtuali, rimuovi tutti gli IP virtuali.
  4. Seleziona Pool e poi elimina tutti i pool.
  5. Seleziona Nodi, quindi elimina tutti i nodi.

Verifica che la partizione F5 sia pulita

interfaccia a riga di comando

Controlla che il VIP non sia attivo eseguendo questo comando:

ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?

che restituirà 1 se il VIP non è attivo.

Interfaccia utente F5

Per verificare che la partizione sia stata rimossa dall'interfaccia utente F5, procedi nel seguente modo:

  1. Nell'angolo in alto a destra, fai clic sul menu a discesa Partition (Partizione). Seleziona la partizione del cluster di amministrazione.
  2. Dal menu a sinistra Main, seleziona Traffico locale > Mappa di rete. Sotto la mappa della rete del traffico locale non dovrebbe essere presente nulla.
  3. Da Traffico locale > Server virtuali, seleziona Nodi, quindi Elenco dei nodi. Inoltre, non dovrebbero esserci nulla.

Se ci sono ancora elementi, eliminali manualmente dall'interfaccia utente.

Spegnimento delle macchine dei nodi di amministrazione

Per eliminare le macchine dei nodi del piano di controllo dell'amministratore, devi spegnere tutte le VM rimanenti dell'amministratore nel pool di risorse vSphere.

UI vSphere

Procedi nel seguente modo:

  1. Dal menu vSphere, seleziona la VM dal pool di risorse VSphere
  2. Nella parte superiore del menu della VM, fai clic su Azioni.
  3. Seleziona Spegni > Spegni. Potrebbero essere necessari alcuni minuti prima che la VM si spenga.

Eliminazione delle macchine dei nodi amministrativi

Dopo che la VM è stata spenta, puoi eliminarla.

UI vSphere

Procedi nel seguente modo:

  1. Dal menu vSphere, seleziona la VM dal pool di risorse VSphere
  2. Nella parte superiore del menu della VM, fai clic su Azioni.
  3. Fai clic su Elimina dal disco.

Al termine

Dopo aver completato l'eliminazione del cluster di amministrazione, eliminane kubeconfig.

Risolvere i problemi

Per ulteriori informazioni, consulta la sezione Risoluzione dei problemi.

Diagnostica dei problemi del cluster con gkectl

Utilizza i comandi gkectl diagnoseper identificare i problemi del cluster e condividerli con Google. Consulta Diagnosi dei problemi del cluster.

Comportamento di logging predefinito

Per gkectl e gkeadm è sufficiente utilizzare le impostazioni di logging predefinite:

  • Per impostazione predefinita, le voci di log vengono salvate come segue:

    • Per gkectl, il file di log predefinito è /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log e il file è collegato direttamente al file logs/gkectl-$(date).log nella directory locale in cui viene eseguito gkectl.
    • Per gkeadm, il file di log predefinito è logs/gkeadm-$(date).log nella directory locale in cui esegui gkeadm.
  • Tutte le voci di log vengono salvate nel file di log, anche se non sono stampate nel terminale (quando --alsologtostderr è false).
  • Il livello di dettaglio -v5 (predefinito) copre tutte le voci di log necessarie al team di assistenza.
  • Il file di log contiene anche il comando eseguito e il messaggio di errore.

Se hai bisogno di aiuto, ti consigliamo di inviare il file di log al team di assistenza.

Specificare una posizione non predefinita per il file di log

Per specificare una posizione non predefinita per il file di log gkectl, utilizza il flag --log_file. Il file di log specificato non verrà collegato direttamente alla directory locale.

Per specificare una posizione non predefinita per il file di log gkeadm, utilizza il flag --log_file.

Localizzazione dei log dell'API Cluster nel cluster di amministrazione

Se l'avvio di una VM non riesce dopo l'avvio del piano di controllo dell'amministratore, puoi provare a eseguire il debug controllando i controller dell'API cluster nel log:

  1. Trova il nome del pod dei controller API del cluster nello spazio dei nomi kube-system, dove [ADMIN_CLUSTER_KUBECONFIG] è il percorso del file kubeconfig del cluster di amministrazione:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Apri i log del pod, dove [POD_NAME] è il nome del pod. Se preferisci, utilizza grep o uno strumento simile per cercare errori:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager