Auf dieser Seite wird beschrieben, wie Sie einen GKE On-Prem-Nutzercluster löschen.
Übersicht
GKE On-Prem unterstützt das Löschen von Nutzerclustern über gkectl
.
Wenn der Cluster fehlerhaft ist (z. B. wenn seine Steuerungsebene nicht erreichbar ist oder der Cluster nicht gestartet werden konnte), lesen Sie Fehlerhaften Nutzercluster löschen.
Nutzercluster löschen
Führen Sie den folgenden Befehl aus, um einen Nutzercluster zu löschen:
gkectl delete cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --cluster [CLUSTER_NAME]
Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.
Bekanntes Problem
In der Version 1.1.2 gibt es ein bekanntes Problem, das zu diesem Fehler führt, wenn Sie einen vSAN-Datastore verwenden:
Error deleting machine object xxx; Failed to delete machine xxx: failed to ensure disks detached: failed to convert disk path "" to UUID path: failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/": ServerFaultCode: A general system error occurred: Invalid fault
Siehe Problemumgehung in den Versionshinweisen.
Fehlerhaften Nutzercluster löschen
Sie können --force
übergeben, um einen Nutzercluster zu löschen, wenn der Cluster fehlerhaft ist.
Ein Nutzercluster ist möglicherweise fehlerhaft, wenn seine Steuerungsebene nicht erreichbar ist, der Cluster nicht gestartet werden kann oder wenn gkectl delete cluster
den Cluster nicht löscht.
So erzwingen Sie das Löschen eines Clusters:
gkectl delete cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --cluster [CLUSTER_NAME] \ --force
Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.
Externe Ressourcen bereinigen
Nach einem erzwungenen Löschvorgang sind möglicherweise einige Ressourcen in F5 oder vSphere geblieben. In den folgenden Abschnitten wird erläutert, wie Sie diese verbleibenden Ressourcen bereinigen.
VMs eines Nutzerclusters in vSphere bereinigen
Führen Sie die folgenden Schritte aus, um zu prüfen, ob die VMs des Nutzerclusters gelöscht wurden:
- Klicken Sie im linken Navigator-Menü des vSphere-Webclients auf das Menü Hosts und Cluster.
- Suchen Sie Ihren Ressourcenpool.
- Prüfen Sie, ob dem Namen des Nutzerclusters VMs vorangestellt sind.
Wenn Nutzlercluster-VMs übrig sind, führen Sie für jede VM die folgenden Schritte aus:
- Klicken Sie im vSphere-Webclient mit der rechten Maustaste auf die Nutzercluster-VM und wählen Sie Power > Power Off aus.
- Schalten Sie die VM aus, klicken Sie mit der rechten Maustaste auf die VM und wählen Sie Delete from Disk aus.
F5-Partition eines Nutzerclusters bereinigen
Wenn noch Einträge in der Partition des Nutzerclusters vorhanden sind, führen Sie die folgenden Schritte aus:
- Wechseln Sie in der F5 BIG-IP-Konsole in der oberen rechten Ecke der Konsole zur Nutzerclusterpartition, die Sie bereinigen möchten.
- Wählen Sie Local Traffic > Virtual Servers > Virtual Server List aus.
- Im Menü Virtual Servers entfernen Sie alle virtuellen IP-Adressen.
- Wählen Sie Pools aus und löschen Sie dann alle Pools.
- Wählen Sie Knoten aus und löschen Sie dann alle Knoten.
Wenn Sie fertig sind
Nachdem gkectl
den Nutzercluster gelöscht hat, können Sie die kubeconfig des Nutzerclusters löschen.
Problembehebung
Weitere Informationen finden Sie unter Fehlerbehebung.
Clusterprobleme mit gkectl
diagnostizieren
Verwenden Sie gkectl diagnose
-Befehle, um Clusterprobleme zu identifizieren und Clusterinformationen an Google zu senden. Siehe Clusterprobleme diagnostizieren.
gkectl
-Befehle umfassend ausführen
-v5
gkectl
-Fehler in stderr
protokollieren
--alsologtostderr
gkectl
-Logs auf der Administratorworkstation suchen
Auch wenn Sie nicht die Debugging-Flags übergeben, können Sie gkectl
-Logs im folgenden Verzeichnis der Administrator-Workstation aufrufen:
/home/ubuntu/.config/gke-on-prem/logs
Cluster-API-Logs im Administratorcluster suchen
Wenn eine VM nach dem Start der Administrator-Steuerungsebene nicht gestartet wird, versuchen Sie, dies durch Untersuchen der Logs der Cluster-API-Controller im Administratorcluster zu beheben:
Suchen Sie im Namespace
kube-system
den Namen des Cluster-API-Controller-Pods, wobei [ADMIN_CLUSTER_KUBECONFIG] der Pfad zur kubeconfig-Datei des Administratorclusters ist:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
Öffnen Sie die Logs des Pods, wobei [POD_NAME] der Name des Pods ist. Verwenden Sie optional für die Fehlersuche
grep
oder ein ähnliches Tool:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager