Sie betrachten die Dokumentation für eine frühere Version von GKE On-Prem. Sehen Sie sich die aktuelle Dokumentation an.

Admincluster löschen

Auf dieser Seite wird beschrieben, wie Sie einen Anthos GKE On-Prem-Admin-Cluster löschen.

Hinweise

Führen Sie vor dem Löschen eines Administrator-Clusters die folgenden Schritte aus:

  • Löschen Sie die Nutzer-Cluster. Siehe Nutzer-Cluster löschen.
  • Löschen Sie alle Arbeitslasten, die PodDisruptionBudgets (PDBs) vom Administrator-Cluster verwenden.
  • Löschen Sie alle externen Objekte, z. B. PersistentVolumes, aus dem Administrator-Cluster.
  • Legen Sie eine Umgebungsvariable KUBECONFIG fest, die auf das kubeconfig des Administrator-Clusters verweist, den Sie löschen möchten:

    export KUBECONFIG=[ADMIN_CLUSTER_KUBECONFIG]
    

    Dabei ist [ADMIN_CLUSTER_KUBECONFIG] der Pfad der kubeconfig-Datei des Administrator-Clusters.

Logging und Monitoring löschen

Die von StatefulSets bereitgestellten Logging- und Monitoring-Pods des lokalen GKE verwenden PDBs, die verhindern können, dass Knoten ordnungsgemäß geleert werden. Um einen Administrator-Cluster ordnungsgemäß zu löschen, müssen Sie diese Pods löschen.

Führen Sie die folgenden Befehle aus, um Logging- und Monitoring-Pods zu löschen:

kubectl delete monitoring --all -n kube-system
kubectl delete stackdriver --all -n kube-system

Durch das Löschen der Überwachung werden die mit StatefulSets verknüpften PersistentVolumes (PVs) gelöscht. Das PersistentVolume für Stackdriver muss jedoch separat gelöscht werden.

Das Löschen der Stackdriver-PV ist optional. Wenn Sie den PV nicht löschen möchten, notieren Sie sich den Speicherort und den Namen des zugehörigen PV an einem externen Speicherort außerhalb des Nutzer-Clusters.

Das Löschen des PV wird durch das Löschen des PVC-Werts (Anspruch auf persistentes Volume) ausgelöst.

Führen Sie den folgenden Befehl aus, um den Stackdriver-PVC zu finden:

kubectl get pvc -n kube-system

Führen Sie den folgenden Befehl aus, um den PVC zu löschen:

kubectl delete pvc -n kube-system [PVC_NAME]

Logging und Monitoring bestätigen wird entfernt

Führen Sie die folgenden Befehle aus, um zu prüfen, ob Logging und Monitoring entfernt wurden:

kubectl get pvc -n kube-system
kubectl get statefulsets -n kube-system

Die F5-Partition eines Administrator-Clusters bereinigen

Wenn Sie den Namespace gke-system aus dem Administrator-Cluster löschen, wird die F5-Partition ordnungsgemäß bereinigt, sodass Sie die Partition für einen anderen Administrator-Cluster wiederverwenden können.

Führen Sie den folgenden Befehl aus, um den Namespace gke-system zu löschen:

kubectl delete ns gke-system

Löschen Sie dann alle verbleibenden Dienste vom Typ LoadBalancer. Führen Sie den folgenden Befehl aus, um alle Dienste aufzulisten:

kubectl get services --all-namespaces

Löschen Sie jeden Dienst vom Typ LoadBalancer mit dem folgenden Befehl:

kubectl delete service [SERVICE_NAME] -n [SERVICE_NAMESPACE]

Gehen Sie dann über die F5 BIG-IP-Konsole wie folgt vor:

  1. Wechseln Sie in der oberen rechten Ecke der Konsole zur Partition, die Sie bereinigen möchten.
  2. Wählen Sie Lokaler Traffic > Virtuelle Server > Virtuelle Serverliste.
  3. Im Menü Virtuelle Server entfernen Sie alle virtuellen IP-Adressen.
  4. Wählen Sie Pools aus und löschen Sie dann alle Pools.
  5. Wählen Sie Knoten aus und löschen Sie dann alle Knoten.

Bereinigung der F5-Partition prüfen

CLI

Prüfen Sie mit dem folgenden Befehl, dass der VIP nicht erreichbar ist:

ping -c 1 -W 1 [F5_LOAD_BALANCER_IP]; echo $?

Es gibt 1 zurück, wenn die VIP ausfällt.

F5-Benutzeroberfläche

So prüfen Sie, ob die Partition von der F5-Benutzeroberfläche gereinigt wurde:

  1. Klicken Sie rechts oben auf das Drop-down-Menü Partition. Wählen Sie die Partition des Administrator-Clusters aus.
  2. Wählen Sie im Hauptmenü links Lokaler Traffic > Netzwerkkarte aus. Unter der Netzwerkkarte für lokalen Traffic sollte nichts aufgeführt sein.
  3. Wählen Sie unter Lokaler Traffic > Virtuelle Server Knoten aus und wählen Sie dann Knotenliste aus. Hier sollte auch nichts aufgeführt sein.

Wenn noch Einträge vorhanden sind, löschen Sie diese manuell aus der Benutzeroberfläche.

Computer mit Administrator-Knoten ausschalten

Zum Löschen der Knotenmaschinen der Admin-Steuerungsebene müssen Sie alle verbleibenden Admin-VMs im vSphere-Ressourcenpool ausschalten.

vSphere-Benutzeroberfläche

Führen Sie diese Schritte aus:

  1. Wählen Sie im vSphere-Menü die VM aus dem Vsphere-Ressourcenpool aus.
  2. Klicken Sie oben im VM-Menü auf Aktionen.
  3. Wählen Sie Power > Ausschalten aus. Es kann einige Minuten dauern, bis die VM ausgeschaltet wird.

Maschinen mit Administrator-Knoten löschen

Nachdem die VM heruntergefahren wurde, können Sie die VM löschen.

vSphere-Benutzeroberfläche

Führen Sie diese Schritte aus:

  1. Wählen Sie im vSphere-Menü die VM aus dem Vsphere-Ressourcenpool aus.
  2. Klicken Sie oben im VM-Menü auf Aktionen.
  3. Klicken Sie auf Vom Laufwerk löschen.

Wenn Sie fertig sind

Löschen Sie nach dem Löschen des Administrator-Clusters dessen kubeconfig.

Fehlerbehebung

Weitere Informationen finden Sie unter Fehlerbehebung.

Clusterprobleme mit gkectl diagnostizieren

Verwenden Sie gkectl diagnose-Befehle, um Clusterprobleme zu identifizieren und Clusterinformationen an Google zu senden. Siehe Clusterprobleme diagnostizieren.

gkectl-Befehle ausführlich ausführen

-v5

gkectl-Fehler in stderr protokollieren

--alsologtostderr

gkectl-Logs auf der Administrator-Workstation suchen

Auch wenn Sie die Debugging-Flags nicht übergeben, können Sie gkectl-Logs im folgenden Verzeichnis der Administrator-Workstation aufrufen:

/home/ubuntu/.config/syllogi/logs

Cluster-API-Logs im Administrator-Cluster finden

Wenn eine VM nach dem Start der Administrator-Steuerungsebene nicht gestartet wird, versuchen Sie dies durch Untersuchen der Logs der Cluster API-Controller im Administratorcluster zu beheben:

  1. Suchen Sie im Namespace kube-system den Namen des Cluster API-Controller-Pods, wobei [ADMIN_CLUSTER_KUBECONFIG] der Pfad zur kubeconfig-Datei des Administratorclusters ist:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Öffnen Sie die Logs des Pods, wobei [POD_NAME] der Name des Pods ist. Verwenden Sie optional für die Fehlersuche grep oder ein ähnliches Tool:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager