Sie betrachten die Dokumentation für eine frühere Version von GKE On-Prem. Sehen Sie sich die aktuelle Dokumentation an.

Nutzercluster löschen

Auf dieser Seite wird beschrieben, wie Sie einen GKE On-Prem-Nutzercluster löschen.

Übersicht

GKE On-Prem unterstützt das Löschen von Nutzerclustern über gkectl. Wenn der Cluster fehlerhaft ist (z. B. wenn seine Steuerungsebene nicht erreichbar ist oder der Cluster nicht gestartet werden konnte), lesen Sie Fehlerhaften Nutzercluster löschen.

Nutzercluster löschen

Führen Sie den folgenden Befehl aus, um einen Nutzercluster zu löschen:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.

Bekanntes Problem

In der Version 1.1.2 gibt es ein bekanntes Problem, das zu diesem Fehler führt, wenn Sie ein vSAN-Datastore verwenden:

Error deleting machine object xxx; Failed to delete machine xxx: failed
  to ensure disks detached: failed to convert disk path "" to UUID path:
  failed to convert full path "ds:///vmfs/volumes/vsan:52ed29ed1c0ccdf6-0be2c78e210559c7/":
  ServerFaultCode: A general system error occurred: Invalid fault

Siehe Problemumgehung in den Versionshinweisen.

Fehlerhaften Nutzercluster löschen

Sie können --force übergeben, um einen Nutzercluster zu löschen, wenn der Cluster fehlerhaft ist. Ein Nutzercluster ist möglicherweise fehlerhaft, wenn seine Steuerungsebene nicht erreichbar ist, der Cluster nicht gestartet werden kann oder wenn gkectl delete cluster den Cluster nicht löscht.

So erzwingen Sie das Löschen eines Clusters:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME] \
--force

Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.

Externe Ressourcen bereinigen

Nach einem erzwungenen Löschvorgang sind möglicherweise einige Ressourcen in F5 oder vSphere geblieben. In den folgenden Abschnitten wird erläutert, wie Sie diese verbleibenden Ressourcen bereinigen.

VMs eines Nutzerclusters in vSphere bereinigen

Führen Sie die folgenden Schritte aus, um zu prüfen, ob die VMs des Nutzerclusters gelöscht wurden:

  1. Klicken Sie im linken Navigator-Menü des vSphere-Webclients auf das Menü Hosts und Cluster.
  2. Suchen Sie Ihren Ressourcenpool.
  3. Prüfen Sie, ob dem Namen des Nutzerclusters VMs vorangestellt sind.

Wenn Nutzlercluster-VMs übrig sind, führen Sie für jede VM die folgenden Schritte aus:

  1. Klicken Sie im vSphere-Webclient mit der rechten Maustaste auf die Nutzercluster-VM und wählen Sie Power > Power Off aus.
  2. Schalten Sie die VM aus, klicken Sie mit der rechten Maustaste auf die VM und wählen Sie Delete from Disk aus.

F5-Partition eines Nutzerclusters bereinigen

Wenn noch Einträge in der Partition des Nutzerclusters vorhanden sind, führen Sie die folgenden Schritte aus:

  1. Wechseln Sie in der F5 BIG-IP-Konsole in der oberen rechten Ecke der Konsole zur Nutzerclusterpartition, die Sie bereinigen möchten.
  2. Wählen Sie Local Traffic > Virtual Servers > Virtual Server List aus.
  3. Im Menü Virtual Servers entfernen Sie alle virtuellen IP-Adressen.
  4. Wählen Sie Pools aus und löschen Sie dann alle Pools.
  5. Wählen Sie Knoten aus und löschen Sie dann alle Knoten.

Wenn Sie fertig sind

Nachdem gkectl den Nutzercluster gelöscht hat, können Sie die kubeconfig des Nutzerclusters löschen.

Fehlerbehebung

Weitere Informationen finden Sie unter Fehlerbehebung.

Clusterprobleme mit gkectl diagnostizieren

Verwenden Sie gkectl diagnose-Befehle, um Clusterprobleme zu identifizieren und Clusterinformationen an Google zu senden. Siehe Clusterprobleme diagnostizieren.

Standard-Logging-Verhalten

Für gkectl und gkeadm reicht es aus, die Standard-Logging-Einstellungen zu verwenden:

  • Standardmäßig werden Logeinträge so gespeichert:

    • Für gkectl ist die Standard-Logdatei /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log per Symlink mit der Datei logs/gkectl-$(date).log im lokalen Verzeichnis verknüpft, wo Sie gkectl ausführen.
    • Für gkeadm ist die Standard-Logdatei logs/gkeadm-$(date).log im lokalen Verzeichnis, in dem Sie gkeadm ausführen.
  • Alle Logeinträge werden in der Logdatei gespeichert, auch wenn sie nicht im Terminal ausgegeben werden (wenn --alsologtostderr auf false gesetzt ist).
  • Die Ausführlichkeitsstufe -v5 (Standard) deckt alle Logeinträge ab, die vom Support-Team benötigt werden.
  • Die Logdatei enthält auch den ausgeführten Befehl und die Fehlermeldung.

Wir empfehlen Ihnen, die Logdatei an das Supportteam zu senden, wenn Sie Hilfe benötigen.

Nicht standardmäßigen Speicherort für die Logdatei angeben

Wenn Sie einen nicht standardmäßigen Speicherort für die Logdatei gkectl angeben möchten, verwenden Sie das Flag --log_file. Die von Ihnen angegebene Logdatei wird nicht mit dem lokalen Verzeichnis verknüpft.

Wenn Sie einen nicht standardmäßigen Speicherort für die Logdatei gkeadm angeben möchten, verwenden Sie das Flag --log_file.

Cluster API-Logs im Administratorcluster suchen

Wenn eine VM nach dem Start der Administrator-Steuerungsebene nicht gestartet wird, versuchen Sie, dies durch Untersuchen der Logs der Cluster-API-Controller im Administratorcluster zu beheben:

  1. Suchen Sie im Namespace kube-system den Namen des Cluster-API-Controller-Pods, wobei [ADMIN_CLUSTER_KUBECONFIG] der Pfad zur kubeconfig-Datei des Administratorclusters ist:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Öffnen Sie die Logs des Pods, wobei [POD_NAME] der Name des Pods ist. Verwenden Sie optional für die Fehlersuche grep oder ein ähnliches Tool:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager