Nutzercluster löschen

Auf dieser Seite wird beschrieben, wie Sie einen GKE On-Prem-Nutzercluster löschen.

Übersicht

GKE On-Prem unterstützt das Löschen von Nutzerclustern über gkectl. Wenn der Cluster fehlerhaft ist (z. B. wenn seine Steuerungsebene nicht erreichbar ist oder der Cluster nicht gestartet werden konnte), lesen Sie Fehlerhaften Nutzercluster löschen.

Nutzercluster löschen

Führen Sie den folgenden Befehl aus, um einen Nutzercluster zu löschen:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.

Bekanntes Problem

In der Version 1.1.2 gibt es ein bekanntes Problem, das zu diesem Fehler führt, wenn Sie einen vSAN-Datastore verwenden:

Error deleting machine object xxx; Failed to delete machine xxx: failed
  to ensure disks detached: failed to convert disk path "" to UUID path:
  failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/":
  ServerFaultCode: A general system error occurred: Invalid fault

Siehe Problemumgehung in den Versionshinweisen.

Fehlerhaften Nutzercluster löschen

Sie können --force übergeben, um einen Nutzercluster zu löschen, wenn der Cluster fehlerhaft ist. Ein Nutzercluster ist möglicherweise fehlerhaft, wenn seine Steuerungsebene nicht erreichbar ist, der Cluster nicht gestartet werden kann oder wenn gkectl delete cluster den Cluster nicht löscht.

So erzwingen Sie das Löschen eines Clusters:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME] \
--force

Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.

Externe Ressourcen bereinigen

Nach einem erzwungenen Löschvorgang sind möglicherweise einige Ressourcen in F5 oder vSphere geblieben. In den folgenden Abschnitten wird erläutert, wie Sie diese verbleibenden Ressourcen bereinigen.

VMs eines Nutzerclusters in vSphere bereinigen

Führen Sie die folgenden Schritte aus, um zu prüfen, ob die VMs des Nutzerclusters gelöscht wurden:

  1. Klicken Sie im linken Navigator-Menü des vSphere-Webclients auf das Menü Hosts und Cluster.
  2. Suchen Sie Ihren Ressourcenpool.
  3. Prüfen Sie, ob dem Namen des Nutzerclusters VMs vorangestellt sind.

Wenn Nutzlercluster-VMs übrig sind, führen Sie für jede VM die folgenden Schritte aus:

  1. Klicken Sie im vSphere-Webclient mit der rechten Maustaste auf die Nutzercluster-VM und wählen Sie Power > Power Off aus.
  2. Schalten Sie die VM aus, klicken Sie mit der rechten Maustaste auf die VM und wählen Sie Delete from Disk aus.

F5-Partition eines Nutzerclusters bereinigen

Wenn noch Einträge in der Partition des Nutzerclusters vorhanden sind, führen Sie die folgenden Schritte aus:

  1. Wechseln Sie in der F5 BIG-IP-Konsole in der oberen rechten Ecke der Konsole zur Nutzerclusterpartition, die Sie bereinigen möchten.
  2. Wählen Sie Local Traffic > Virtual Servers > Virtual Server List aus.
  3. Im Menü Virtual Servers entfernen Sie alle virtuellen IP-Adressen.
  4. Wählen Sie Pools aus und löschen Sie dann alle Pools.
  5. Wählen Sie Knoten aus und löschen Sie dann alle Knoten.

Wenn Sie fertig sind

Nachdem gkectl den Nutzercluster gelöscht hat, können Sie die kubeconfig des Nutzerclusters löschen.

Problembehebung

Weitere Informationen finden Sie unter Fehlerbehebung.

Clusterprobleme mit gkectl diagnostizieren

Verwenden Sie gkectl diagnose-Befehle, um Clusterprobleme zu identifizieren und Clusterinformationen an Google zu senden. Siehe Clusterprobleme diagnostizieren.

gkectl-Befehle umfassend ausführen

-v5

gkectl-Fehler in stderr protokollieren

--alsologtostderr

gkectl-Logs auf der Administratorworkstation suchen

Auch wenn Sie nicht die Debugging-Flags übergeben, können Sie gkectl-Logs im folgenden Verzeichnis der Administrator-Workstation aufrufen:

/home/ubuntu/.config/gke-on-prem/logs

Cluster-API-Logs im Administratorcluster suchen

Wenn eine VM nach dem Start der Administrator-Steuerungsebene nicht gestartet wird, versuchen Sie, dies durch Untersuchen der Logs der Cluster-API-Controller im Administratorcluster zu beheben:

  1. Suchen Sie im Namespace kube-system den Namen des Cluster-API-Controller-Pods, wobei [ADMIN_CLUSTER_KUBECONFIG] der Pfad zur kubeconfig-Datei des Administratorclusters ist:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Öffnen Sie die Logs des Pods, wobei [POD_NAME] der Name des Pods ist. Verwenden Sie optional für die Fehlersuche grep oder ein ähnliches Tool:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager