Eliminazione di un cluster utente

Questa pagina descrive come eliminare un cluster utente GKE On-Prem.

Panoramica

GKE On-Prem supporta l'eliminazione dei cluster utente tramite gkectl. Se il cluster non è integro (ad esempio, se il suo piano di controllo non è raggiungibile o non è stato eseguito l'avvio del cluster), fai riferimento a Eliminazione di un cluster utente in stato non integro.

Eliminazione di un cluster utente

Per eliminare un cluster utente, esegui il comando seguente:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

dove [ADMIN_CLUSTER_KUBECONFIG] è il file di kubeconfig del cluster di amministrazione e [CLUSTER_NAME] è il nome del cluster utente che vuoi eliminare.

Se utilizzi il bilanciatore del carico di Seesaw in bundle, elimina il bilanciatore del carico.

Problema noto

Nella versione 1.1.2, esiste un problema noto che causa questo errore se utilizzi un datastore vSAN:

Error deleting machine object xxx; Failed to delete machine xxx: failed
  to ensure disks detached: failed to convert disk path "" to UUID path:
  failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/":
  ServerFaultCode: A general system error occurred: Invalid fault

Scopri le soluzioni nelle note di rilascio.

Eliminazione di un cluster utente in stato non integro

Puoi superare --force per eliminare un cluster utente se il cluster non è integro. Un cluster utente potrebbe essere in stato non integro se il suo piano di controllo non è raggiungibile, se il cluster non riesce a eseguire il bootstrap o se gkectl delete cluster non riesce a eliminarlo.

Per forzare l'eliminazione di un cluster:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME] \
--force

dove [ADMIN_CLUSTER_KUBECONFIG] è il file di kubeconfig del cluster di amministrazione e [CLUSTER_NAME] è il nome del cluster utente che vuoi eliminare.

Pulizia di risorse esterne

Dopo un'eliminazione forzata, alcune risorse potrebbero restare in F5 o vSphere. Le seguenti sezioni spiegano come pulire queste risorse rimanenti.

Pulizia delle VM di un cluster utente in vSphere

Per verificare che le VM del cluster utente siano eliminate, segui questi passaggi:

  1. Dal menu di navigazione sinistro di vSphere Web Client', fai clic sul menu Host e cluster.
  2. Trova il pool di risorse.
  3. Verifica se le VM hanno come prefisso il nome del tuo cluster utente.

Se sono presenti VM del cluster utente rimanenti, esegui i passaggi seguenti per ogni VM:

  1. Dal client web vSphere, fai clic con il pulsante destro del mouse sulla VM del cluster utente e seleziona Spegni > Spegni.
  2. Dopo aver spento la VM, fai clic con il pulsante destro del mouse sulla VM e seleziona Elimina dal disco.

Pulizia della partizione F5 di un cluster utente

Se sono presenti ancora voci nella partizione del cluster utente, procedi nel seguente modo:

  1. Dalla console BIG-IP di F5, nell'angolo in alto a destra della console, passa alla partizione del cluster utente da pulire.
  2. Seleziona Traffico locale > Server virtuali > Elenco dei server virtuali.
  3. Nel menu Server virtuali, rimuovi tutti gli IP virtuali.
  4. Seleziona Pool e poi elimina tutti i pool.
  5. Seleziona Nodi, quindi elimina tutti i nodi.

Al termine

Dopo che gkectl ha eliminato il cluster utente, puoi eliminare kubeconfig del cluster utente.

Risolvere i problemi

Per ulteriori informazioni, consulta la sezione Risoluzione dei problemi.

Diagnostica dei problemi del cluster con gkectl

Utilizza i comandi gkectl diagnoseper identificare i problemi del cluster e condividerli con Google. Consulta Diagnosi dei problemi del cluster.

Comportamento di logging predefinito

Per gkectl e gkeadm è sufficiente utilizzare le impostazioni di logging predefinite:

  • Per impostazione predefinita, le voci di log vengono salvate come segue:

    • Per gkectl, il file di log predefinito è /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log e il file è collegato direttamente al file logs/gkectl-$(date).log nella directory locale in cui viene eseguito gkectl.
    • Per gkeadm, il file di log predefinito è logs/gkeadm-$(date).log nella directory locale in cui esegui gkeadm.
  • Tutte le voci di log vengono salvate nel file di log, anche se non sono stampate nel terminale (quando --alsologtostderr è false).
  • Il livello di dettaglio -v5 (predefinito) copre tutte le voci di log necessarie al team di assistenza.
  • Il file di log contiene anche il comando eseguito e il messaggio di errore.

Se hai bisogno di aiuto, ti consigliamo di inviare il file di log al team di assistenza.

Specificare una posizione non predefinita per il file di log

Per specificare una posizione non predefinita per il file di log gkectl, utilizza il flag --log_file. Il file di log specificato non verrà collegato direttamente alla directory locale.

Per specificare una posizione non predefinita per il file di log gkeadm, utilizza il flag --log_file.

Localizzazione dei log dell'API Cluster nel cluster di amministrazione

Se l'avvio di una VM non riesce dopo l'avvio del piano di controllo dell'amministratore, puoi provare a eseguire il debug controllando i controller dell'API cluster nel log:

  1. Trova il nome del pod dei controller API del cluster nello spazio dei nomi kube-system, dove [ADMIN_CLUSTER_KUBECONFIG] è il percorso del file kubeconfig del cluster di amministrazione:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Apri i log del pod, dove [POD_NAME] è il nome del pod. Se preferisci, utilizza grep o uno strumento simile per cercare errori:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager