Auf dieser Seite wird beschrieben, wie Sie Probleme beim Erstellen eines GKE on VMware-Nutzerclusters in der Google Cloud Console untersuchen.
Der Administratorcluster wird nicht in der Drop-down-Liste Clustergrundlagen angezeigt
Der Administratorcluster muss bei einer Flotte registriert sein, bevor Sie Nutzercluster in der Google Cloud Console erstellen können. Wenn Sie den Administratorcluster in der Drop-down-Liste im Abschnitt Clustergrundlagen der Google Cloud Console nicht sehen, wurde der Administratorcluster entweder gar nicht oder mit dem Befehl gcloud container hub memberships register
registriert.
Prüfen Sie den Registrierungsstatus:
Rufen Sie in der Google Cloud Console die Seite Anthos > Clusters auf und wählen Sie das Google Cloud-Projekt aus, in dem Sie versucht haben, den Nutzercluster zu erstellen.
Zur Seite „GKE Enterprise-Cluster“
Wenn der Administratorcluster nicht in der Liste angezeigt wird, finden Sie weitere Informationen unter Administratorcluster registrieren.
Wenn der Administratorcluster in der Liste angezeigt wird, bedeutet dies, dass der Cluster mit dem Befehl
gcloud container hub memberships register
registriert wurde. Mit diesemgcloud
-Befehl werden Administratorcluster nicht ordnungsgemäß registriert.
So beheben Sie das Registrierungsproblem:
Rufen Sie auf Ihrer Administrator-Workstation den Namen der Mitgliedschaft ab:
kubectl describe membership membership \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Heben Sie die Registrierung des Administratorclusters auf. Ersetzen Sie im folgenden Befehl:
MEMBERSHIP_NAME
durch den Namen der Mitgliedschaft aus dem vorherigen Befehl.FLEET_HOST_PROJECT_ID
durch die ID des Flotten-Hostprojekts. Dies ist das Projekt, das Sie beim Erstellen des Nutzerclusters in der Google Cloud Console ausgewählt haben.ADMIN_CLUSTER_KUBECONFIG
durch den Pfad zur kubeconfig-Datei für Ihren Administratorcluster.ADMIN_CLUSTER_CONTEXT
durch den Kontext des Administratorclusters, wie er in der kubeconfig-Datei angezeigt wird. Sie erhalten diesen Wert über die Befehlszeile, indem Siekubectl config current-context
ausführen.
gcloud container fleet memberships unregister MEMBERSHIP_NAME \ --project=FLEET_HOST_PROJECT_ID \ --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --context=ADMIN_CLUSTER_CONTEXT
Führen Sie die Schritte unter Administratorcluster registrieren aus, um den Cluster noch einmal zu registrieren.
Fehler bei der Clustererstellung
In diesem Abschnitt werden einige Fehler beschrieben, die beim Erstellen von Clustern in der Google Cloud Console auftreten können.
Fehler "Ressource bereits vorhanden"
Die Erstellung eines Nutzerclusters schlägt mit einer Fehlermeldung wie der folgenden fehl:
Resource 'projects/1234567890/locations/europe-west1/vmwareClusters/user-cluster1'
already exists
Request ID: 129290123128705826
Diese Fehlermeldung gibt an, dass der Clustername bereits verwendet wird.
Eine Lösung zur Behebung des Problems:
Erstellen Sie den Cluster noch einmal mit einem anderen Namen, der nicht mit einem vorhandenen Cluster in Konflikt steht.
Anti-Affinitätsgruppen-Fehler
Die Erstellung eines Nutzerclusters schlägt mit einer Fehlermeldung wie der folgenden fehl:
- Validation Category: VCenter
- [FATAL] Hosts for AntiAffinityGroups: Anti-affinity groups enabled with
available vsphere host number 1 less than 3, please add more vsphere hosts
or disable anti-affinity groups.
Die Anti-Affinitätsregeln von VMware Distributed Resource Scheduler (DRS) erfordern mindestens drei physische Hosts in Ihrer vSphere-Umgebung. Deaktivieren Sie zur Behebung des Problems Anti-Affinitätsgruppen im Abschnitt Features auf der Seite Clusterdetails für Ihren Cluster. Gehen Sie dazu so vor:
Rufen Sie in der Google Cloud Console die Seite „GKE Enterprise-Cluster“ auf.
Wählen Sie das Google Cloud-Projekt aus, in dem sich der Nutzercluster befindet.
Klicken Sie in der Clusterliste auf den Namen des Clusters und dann im Bereich Details auf Details ansehen.
Klicken Sie im Abschnitt Features auf
Bearbeiten.Deaktivieren Sie die Option Anti-Affinitätsgruppen aktivieren und klicken Sie auf Fertig.
In der Google Cloud Console wird Clusterstatus: Änderungen in Bearbeitung angezeigt. Klicken Sie auf Details ansehen, um die Ressourcenstatusbedingung und Statusmeldungen aufzurufen.
Fehler durch in Konflikt stehende IP-Adressen
Die Erstellung eines Nutzerclusters schlägt mit einer Fehlermeldung wie der folgenden fehl:
- Validation Category: Network Configuration
- [FAILURE] CIDR, VIP and static IP (availability and overlapping): user: user
cluster control plane VIP "10.251.133.132" overlaps with
example-cluster1/control plane VIP "10.251.133.132"
Derzeit können Sie keine Felder wie VIP der Steuerungsebene und Ingress-VIP im Abschnitt Load-Balancer der Seite Clusterdetails in der Google Cloud Console bearbeiten. So beheben Sie Probleme mit in Konflikt stehenden IP-Adressen:
Erstellen Sie den Cluster noch einmal mit IP-Adressen, die nicht mit einem vorhandenen Cluster in Konflikt stehen.
Beim Löschen von Clustern werden Cluster nicht aus der Cloud Console entfernt
Nach dem Löschen eines Nutzerclusters wird er weiterhin in der Google Cloud Console angezeigt. Dies kann passieren, wenn der Nutzercluster die Verbindung zu seinem Administratorcluster verloren hat. Folgen Sie der Anleitung unter Anthos On-Prem API-Ressourcen entfernen, um dieses Problem zu beheben.
GKE On-Prem API-Ressourcen entfernen
Die Google Cloud Console verwendet die GKE On-Prem API zur Verwaltung des Lebenszyklus von Nutzerclustern. Sie können auch Nutzercluster konfigurieren, die von der GKE On-Prem API verwaltet werden sollen. Die GKE On-Prem API-Ressourcen werden in den folgenden Fällen nicht gelöscht:
gkectl
wurde verwendet, um einen Knotenpool für einen Nutzercluster zu löschen, der von der GKE On-Prem API verwaltet wird.Der Administratorcluster für einen in der Cloud Console erstellten Nutzercluster wird gelöscht.
Wenn die GKE On-Prem API-Ressourcen nicht gelöscht werden, wird der Nutzercluster in der Google Cloud Console weiterhin in einem fehlerhaften Zustand angezeigt. Führen Sie die folgenden Schritte aus, um die verbleibenden Ressourcen zu entfernen.
Legen Sie die folgenden Umgebungsvariablen fest:
export PROJECT_ID=FLEET_HOST_PROJECT_ID export REGION=REGION export CLUSTER_NAME=USER_CLUSTER_NAME
Ersetzen Sie Folgendes:
FLEET_HOST_PROJECT_ID: die Projekt-ID, in der der Nutzercluster erstellt wurde, die auch das Flotten-Hostprojekt ist.
REGION: Region des Clusters. Die Region wird in der Console im Feld Details des Clusters im Feld Standort angezeigt.
USER_CLUSTER_NAME: Der Name des Clusters.
Wenn der Knotenpool des Nutzerclusters gelöscht wurde, ist der Cluster weiterhin bei einer Flotte registriert. Löschen Sie die Flottenmitgliedschaft des Nutzerclusters, indem Sie den folgenden Befehl ausführen:
gcloud container fleet memberships delete USER_CLUSTER_NAME
Wenn der Administratorcluster gelöscht wurde, ist der Cluster weiterhin bei einer Flotte registriert. Löschen Sie die Flottenmitgliedschaft des Administratorclusters, indem Sie den folgenden Befehl ausführen:
gcloud container fleet memberships delete ADMIN_CLUSTER_NAME
Details hierzu finden Sie unter
gcloud command reference
.Löschen Sie die GKE On-Prem API-Metadaten:
curl -X DELETE "https://gkeonprem.googleapis.com/v1/projects/${PROJECT_ID}/locations/${REGION}/vmwareClusters/${CLUSTER_NAME}:unenroll?force=true&allow_missing=true" \ -H "Content-Type: application/json" \ -H "X-GFE-SSL: yes" \ -H "Authorization: Bearer $(gcloud auth print-access-token)"