Questa pagina descrive come eliminare un cluster di amministrazione GKE On-Prem.
Prima di iniziare
Prima di eliminare un cluster di amministrazione:
- Eliminare i relativi cluster utente. Consulta Eliminazione di un cluster utente.
- Elimina tutti i carichi di lavoro che utilizzano PodDisruptionBudget (PDB) dal cluster di amministrazione.
- Elimina tutti gli oggetti esterni, come PersistentVolume, dal cluster di amministrazione.
Imposta una variabile di ambiente
KUBECONFIG
che rimandi a kubeconfig del cluster di amministrazione che vuoi eliminare:export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
dove [ADMIN_CLUSTER_KUBECONFIG] è il percorso del file del kubeconfig del cluster di amministrazione.
Eliminazione di logging e monitoraggio
I pod di logging e monitoraggio di GKE On-Prem, implementati da StatefulSet, utilizzano i PDB che impediscono il corretto svuotamento dei nodi. Per eliminare correttamente un cluster di amministrazione, devi eliminare questi pod.
Per eliminare i pod di logging e monitoraggio, esegui i comandi seguenti:
kubectl delete monitoring --all -n kube-system kubectl delete stackdriver --all -n kube-system
L'eliminazione del monitoraggio pulisce gli oggetti PersistentVolume (PV) associati agli StatefulSet, ma l'oggetto PersistentVolume per Stackdriver deve essere eliminato separatamente.
L'eliminazione del volume permanente di Stackdriver è facoltativa. Se scegli di non eliminare il volume permanente, registra la località e il nome del volume permanente associato in una posizione esterna al di fuori del cluster utente.
L'eliminazione del volume permanente verrà propagata eliminando la richiesta di volume permanente (PVC).
Per trovare la PVC di Stackdriver, esegui il comando seguente:
kubectl get pvc -n kube-system
Per eliminare la PVC, esegui questo comando:
kubectl delete pvc -n kube-system [PVC_NAME]
Verifica del logging e monitoraggio rimossa
Per verificare che il logging e il monitoraggio siano stati rimossi, esegui questi comandi:
kubectl get pvc -n kube-system kubectl get statefulsets -n kube-system
Pulizia di una partizione F5 di un cluster di amministrazione
L'eliminazione dello spazio dei nomi gke-system
dal cluster di amministrazione assicura la corretta pulizia della partizione F5, consentendoti di riutilizzare la partizione per un altro cluster di amministrazione.
Per eliminare lo spazio dei nomi gke-system
, esegui il comando seguente:
kubectl delete ns gke-system
Quindi elimina tutti i servizi rimanenti di tipo LoadBalancer. Per elencare tutti i servizi, esegui il comando seguente:
kubectl get services --all-namespaces
Per ogni servizio di tipo LoadBalancer, eliminalo eseguendo il comando seguente:
kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]
Quindi, dalla console BIG-IP di F5:
- Nell'angolo in alto a destra della console, passa alla partizione per eseguire la pulizia.
- Seleziona Traffico locale > Server virtuali > Elenco dei server virtuali.
- Nel menu Server virtuali, rimuovi tutti gli IP virtuali.
- Seleziona Pool e poi elimina tutti i pool.
- Seleziona Nodi, quindi elimina tutti i nodi.
Verifica che la partizione F5 sia pulita
interfaccia a riga di comando
Controlla che il VIP non sia attivo eseguendo questo comando:
ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?
che restituirà 1
se il VIP non è attivo.
Interfaccia utente F5
Per verificare che la partizione sia stata rimossa dall'interfaccia utente F5, procedi nel seguente modo:
- Nell'angolo in alto a destra, fai clic sul menu a discesa Partition (Partizione). Seleziona la partizione del cluster di amministrazione.
- Dal menu a sinistra Main, seleziona Traffico locale > Mappa di rete. Sotto la mappa della rete del traffico locale non dovrebbe essere presente nulla.
- Da Traffico locale > Server virtuali, seleziona Nodi, quindi Elenco dei nodi. Inoltre, non dovrebbero esserci nulla.
Se ci sono ancora elementi, eliminali manualmente dall'interfaccia utente.
Spegnimento delle macchine dei nodi di amministrazione
Per eliminare le macchine dei nodi del piano di controllo dell'amministratore, devi spegnere tutte le VM rimanenti dell'amministratore nel pool di risorse vSphere.
UI vSphere
Procedi nel seguente modo:
- Dal menu vSphere, seleziona la VM dal pool di risorse VSphere
- Nella parte superiore del menu della VM, fai clic su Azioni.
- Seleziona Spegni > Spegni. Potrebbero essere necessari alcuni minuti prima che la VM si spenga.
Eliminazione delle macchine dei nodi amministrativi
Dopo che la VM è stata spenta, puoi eliminarla.
UI vSphere
Procedi nel seguente modo:
- Dal menu vSphere, seleziona la VM dal pool di risorse VSphere
- Nella parte superiore del menu della VM, fai clic su Azioni.
- Fai clic su Elimina dal disco.
Al termine
Dopo aver completato l'eliminazione del cluster di amministrazione, eliminane kubeconfig.
Risolvere i problemi
Per ulteriori informazioni, consulta la sezione Risoluzione dei problemi.
Diagnostica dei problemi del cluster con gkectl
Utilizza i comandi gkectl diagnose
per identificare i problemi del cluster e condividerli con Google. Consulta
Diagnosi dei problemi del cluster.
Comportamento di logging predefinito
Per gkectl
e gkeadm
è sufficiente utilizzare le impostazioni di logging predefinite:
-
Per impostazione predefinita, le voci di log vengono salvate come segue:
-
Per
gkectl
, il file di log predefinito è/home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log
e il file è collegato direttamente al filelogs/gkectl-$(date).log
nella directory locale in cui viene eseguitogkectl
. -
Per
gkeadm
, il file di log predefinito èlogs/gkeadm-$(date).log
nella directory locale in cui eseguigkeadm
.
-
Per
- Tutte le voci di log vengono salvate nel file di log, anche se non sono stampate
nel terminale (quando
--alsologtostderr
èfalse
). - Il livello di dettaglio
-v5
(predefinito) copre tutte le voci di log necessarie al team di assistenza. - Il file di log contiene anche il comando eseguito e il messaggio di errore.
Se hai bisogno di aiuto, ti consigliamo di inviare il file di log al team di assistenza.
Specificare una posizione non predefinita per il file di log
Per specificare una posizione non predefinita per il file di log gkectl
, utilizza il flag --log_file
. Il file di log specificato non verrà collegato direttamente alla directory locale.
Per specificare una posizione non predefinita per il file di log gkeadm
, utilizza il flag --log_file
.
Localizzazione dei log dell'API Cluster nel cluster di amministrazione
Se l'avvio di una VM non riesce dopo l'avvio del piano di controllo dell'amministratore, puoi provare a eseguire il debug controllando i controller dell'API cluster nel log:
Trova il nome del pod dei controller API del cluster nello spazio dei nomi
kube-system
, dove [ADMIN_CLUSTER_KUBECONFIG] è il percorso del file kubeconfig del cluster di amministrazione:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
Apri i log del pod, dove [POD_NAME] è il nome del pod. Se preferisci, utilizza
grep
o uno strumento simile per cercare errori:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager