Nutzercluster löschen

Auf dieser Seite wird beschrieben, wie Sie einen GKE On-Prem-Nutzercluster löschen.

Übersicht

GKE On-Prem unterstützt das Löschen fehlerfreier Nutzercluster über gkectl. Wenn der Cluster fehlerhaft ist, weil z. B. die Steuerungsebene nicht erreicht werden kann oder der Cluster nicht gestartet werden konnte, verweisen Sie stattdessen auf Manuelles Löschen eines Nutzerclusters.

Nutzercluster löschen

Führen Sie diesen Befehl aus:

gkectl delete cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--cluster [CLUSTER_NAME]

Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administrator-Clusters und [CLUSTER_NAME] der Name des Nutzerclusters, den Sie löschen möchten.

Wenn Sie fertig sind

Löschen Sie den User-Cluster kubeconfig, nachdem der Nutzercluster von gkectl gelöscht wurde.

Bekannte Probleme

Nach dem Löschen des Clusters kann eine zusätzliche VM auf Nutzersteuerungsebene in vplanar erstellt werden. Überprüfen Sie mithilfe der folgenden Schritte, ob alle User-Cluster-VMs gelöscht wurden:

  1. Klicken Sie im linken Navigator-Menü des vSphere-Webclients auf das Menü Hosts und Cluster.
  2. Suchen Sie Ihren Ressourcenpool.
  3. Es sollten keine VMs vorhanden sein, denen der Name Ihres Nutzerclusters vorangestellt ist.

Wenn noch Nutzercluster-VMs übrig sind, führen Sie die folgenden Schritte über den vsphere Webclient aus:

  1. Klicken Sie mit der rechten Maustaste auf die Nutzercluster-VM und wählen Sie Ein- / Ausschalten Ausschalten aus.
  2. Schalten Sie die VM aus, klicken Sie mit der rechten Maustaste auf die VM und wählen Sie Vom Datenträger löschen aus.

Fehlerbehebung

Weitere Informationen finden Sie unter Fehlerbehebung.

Clusterprobleme mit gkectl diagnostizieren

Verwenden Sie gkectl diagnose-Befehle, um Clusterprobleme zu identifizieren und Clusterinformationen an Google zu senden. Siehe Clusterprobleme diagnostizieren.

Standard-Logging-Verhalten

Für gkectl und gkeadm reicht es aus, die Standard-Logging-Einstellungen zu verwenden:

  • Standardmäßig werden Logeinträge so gespeichert:

    • Für gkectl ist die Standard-Logdatei /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log. Die Datei ist per Symlink mit der Datei logs/gkectl-$(date).log im lokalen Verzeichnis verknüpft, in dem Sie gkectl ausführen.
    • Für gkeadm ist die Standard-Logdatei logs/gkeadm-$(date).log im lokalen Verzeichnis, in dem Sie gkeadm ausführen.
  • Alle Logeinträge werden in der Logdatei gespeichert, auch wenn sie nicht im Terminal ausgegeben werden (wenn --alsologtostderr auf false gesetzt ist).
  • Die Ausführlichkeitsstufe -v5 (Standard) deckt alle Logeinträge ab, die vom Support-Team benötigt werden.
  • Die Logdatei enthält auch den ausgeführten Befehl und die Fehlermeldung.

Wir empfehlen Ihnen, die Logdatei an das Supportteam zu senden, wenn Sie Hilfe benötigen.

Nicht standardmäßigen Speicherort für die Logdatei angeben

Wenn Sie einen nicht standardmäßigen Speicherort für die Logdatei gkectl angeben möchten, verwenden Sie das Flag --log_file. Die von Ihnen angegebene Logdatei wird nicht per Symlink mit dem lokalen Verzeichnis verknüpft.

Wenn Sie einen nicht standardmäßigen Speicherort für die Logdatei gkeadm angeben möchten, verwenden Sie das Flag --log_file.

Cluster-API-Logs im Administratorcluster suchen

Wenn eine VM nach dem Start der Administrator-Steuerungsebene nicht gestartet wird, versuchen Sie, dies durch Untersuchen der Logs der Cluster-API-Controller im Administratorcluster zu beheben:

  1. Suchen Sie im Namespace kube-system den Namen des Cluster-API-Controller-Pods, wobei [ADMIN_CLUSTER_KUBECONFIG] der Pfad zur kubeconfig-Datei des Administratorclusters ist:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Öffnen Sie die Logs des Pods, wobei [POD_NAME] der Name des Pods ist. Verwenden Sie optional für die Fehlersuche grep oder ein ähnliches Tool:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager