In diesem Thema wird gezeigt, wie Sie GKE On-Prem aktualisieren.
Zum Aktualisieren von GKE On-Prem führen Sie ein Upgrade Ihrer Administrator-Workstation aus. Anschließend aktualisieren Sie Ihre Cluster.
Hinweis
- Befolgen Sie diese Anweisungen von Ihrer lokalen Workstation oder Ihrem Laptop aus. Folgen Sie ihnen nicht auf Ihrer bestehenden Administrator-Workstation.
- Prüfen Sie die aktuelle Version des Clusters.
- Prüfen Sie die Versionshinweise und die bekannten Probleme, die sich auf das Upgrade auswirken.
- Prüfen Sie die Versionen
Lesen Sie außerdem die folgenden Punkte:
Informationen zu Ausfallzeiten bei Upgrades
Ressource | Beschreibung |
---|---|
Administratorcluster | Wenn ein Administratorcluster ausfällt, werden die Steuerungsebenen und Arbeitslasten von Nutzerclustern weiterhin ausgeführt, es sei denn, sie sind von einem Fehler betroffen, der die Ausfallzeit verursacht hat. |
Steuerungsebene der Nutzercluster | Normalerweise sollten Sie keine nennenswerten Ausfallzeiten für Nutzercluster-Steuerungsebenen erwarten. Lang andauernde Verbindungen zum Kubernetes API-Server können jedoch unterbrochen werden und müssen neu hergestellt werden. In diesen Situationen sollte der API-Aufrufer noch einmal versuchen, eine Verbindung herzustellen. Im schlimmsten Fall kann es während eines Upgrades bis zu einer Minute dauern. |
Nutzerclusterknoten | Wenn ein Upgrade eine Änderung an Nutzerclusterknoten erfordert, erstellt GKE On-Prem die Knoten rollierend neu und verschiebt die auf diesen Knoten ausgeführten Pods neu. Sie können Auswirkungen auf Ihre Arbeitslasten verhindern, wenn Sie die entsprechenden PodDisruptionBudgets und Anti-Affinitätsregeln konfigurieren. |
Sequenzielles Upgrade
GKE On-Prem unterstützt sequenzielle Upgrades. Damit ein Cluster auf eine neue Version aktualisiert werden kann, muss für den Cluster die letzte Version gültig sein.
Sie können Ihre Cluster nicht direkt auf die neueste Version aktualisieren, wenn die aktuelle Version mehr als eine Version zurückliegt. In diesem Fall müssen Sie den Cluster sequenziell aktualisieren.
Beispiel
Angenommen, die folgenden Versionen sind verfügbar, wobei Ihre Administrator-Workstation und Ihre Cluster die älteste Version ausführen.
- 1.0.1 (älteste Version)
- 1.0.2
- 1.1 (aktuelle Version)
In diesem Fall ist 1.1 die aktuelle Version. Um von 1.0.1 auf 1.1 zu aktualisieren, müssen Sie dann folgende Schritte ausführen:
- Aktualisieren Sie Ihre Administrator-Workstation von 1.0.1 auf 1.0.2.
- Aktualisieren Sie Ihre Cluster von 1.0.1 auf 1.0.2.
- Aktualisieren Sie Ihre Administrator-Workstation von 1.0.2 auf 1.1.
- Aktualisieren Sie Ihre Cluster von 1.0.2 auf 1.1.
GKE On-Prem-Konfigurationsdatei und kubeconfig-Dateien sichern
Wenn Sie Ihre Administrator-Workstation aktualisieren, löscht Terraform die VM der Administrator-Workstation und ersetzt sie durch eine aktualisierte Administrator-Workstation. Bevor Sie ein Upgrade für Ihre Administrator-Workstation ausführen, müssen Sie Ihre GKE On-Prem-Konfigurationsdatei und die kubeconfig-Dateien Ihrer Cluster sichern. Später kopieren Sie diese Dateien dann wieder auf Ihre aktualisierte Administrator-Workstation.
Administrator-Workstation aktualisieren
Wenn Sie ein Upgrade für Ihre Administrator-Workstation ausführen, umfasst dies die folgenden Entitäten in der gleichen Version wie die Open Virtualization Appliance-Datei (OVA) der Administrator-Workstation:
gkectl
- vollständiges Paket
Nach dem Upgrade Ihrer Administrator-Workstation führen Sie ein Upgrade Ihrer Cluster aus.
OVA herunterladen
Laden Sie unter Downloads die OVA-Datei der Administrator-Workstation für die Version herunter, auf die Sie ein Upgrade vornehmen möchten.
Mit dem folgenden Befehl laden Sie die neueste OVA herunter:
gsutil cp gs://gke-on-prem-release/admin-appliance/1.2.2-gke.2/gke-on-prem-admin-appliance-vsphere-1.2.2-gke.2.{ova,ova.1.sig} ~/
OVA in vSphere importieren und als VM-Vorlage markieren
In den folgenden Abschnitten führen Sie diese Schritte aus:
- Einige Variablen erstellen, die Elemente Ihrer vCenter Server- und vSphere-Umgebung deklarieren
- OVA-Datei für die Administrator-Workstation in vSphere importieren und als VM-Vorlage markieren
Variablen für govc
erstellen
Bevor Sie die OVA-Datei für die Administrator-Workstation in vSphere importieren, müssen Sie für govc
einige Variablen angeben, die Elemente Ihrer vCenter Server- und vSphere-Umgebung deklarieren:
export GOVC_URL=https://[VCENTER_SERVER_ADDRESS]/sdk export GOVC_USERNAME=[VCENTER_SERVER_USERNAME] export GOVC_PASSWORD=[VCENTER_SERVER_PASSWORD] export GOVC_DATASTORE=[VSPHERE_DATASTORE] export GOVC_DATACENTER=[VSPHERE_DATACENTER] export GOVC_INSECURE=true
Sie können entweder den Standardressourcenpool von vSphere verwenden oder einen eigenen erstellen:
# If you want to use a resource pool you've configured yourself, export this variable: export GOVC_RESOURCE_POOL=[VSPHERE_CLUSTER]/Resources/[VSPHERE_RESOURCE_POOL]
# If you want to use vSphere's default resource pool, export this variable instead: export GOVC_RESOURCE_POOL=[VSPHERE_CLUSTER]/Resources
Dabei gilt:
- [VCENTER_SERVER_ADDRESS] ist die IP-Adresse oder der Hostname Ihres vCenter Servers.
- [VCENTER_SERVER_USERNAME] ist der Nutzername eines Kontos, das die Administratorrolle oder gleichwertige Berechtigungen in vCenter Server hat.
- [VCENTER_SERVER_PASSWORD] ist das Passwort des vCenter Server-Kontos.
- [VSPHERE_DATASTORE] ist der Name des Datenspeichers, den Sie in Ihrer vSphere-Umgebung konfiguriert haben.
- [VSPHERE_DATACENTER] ist der Name des Rechenzentrums, das Sie in Ihrer vSphere-Umgebung konfiguriert haben.
- [VSPHERE_CLUSTER] ist der Name des Clusters, den Sie in Ihrer vSphere-Umgebung konfiguriert haben. Wenn Sie einen nicht standardmäßigen Ressourcenpool verwenden,
- [VSPHERE_RESOURCE_POOL] ist der Name des Ressourcenpools, den Sie für Ihre vSphere-Umgebung konfiguriert haben.
OVA-Datei in vSphere importieren: Standard-Switch
Wenn Sie einen vSphere-Standard-Switch verwenden, importieren Sie die OVA-Datei mit diesem Befehl in vSphere:
govc import.ova -options - ~/gke-on-prem-admin-appliance-vsphere-1.2.2-gke.2.ova <<EOF { "DiskProvisioning": "thin", "MarkAsTemplate": true } EOF
OVA in vSphere importieren: Verteilter Switch
Wenn Sie einen vSphere Distributed Switch verwenden, importieren Sie die OVA-Datei mit diesem Befehl in vSphere, wobei [YOUR_DISTRIBUTED_PORT_GROUP_NAME] der Name Ihrer verteilten Portgruppe ist:
govc import.ova -options - ~/gke-on-prem-admin-appliance-vsphere-1.2.2-gke.2.ova <<EOF { "DiskProvisioning": "thin", "MarkAsTemplate": true, "NetworkMapping": [ { "Name": "VM Network", "Network": "[YOUR_DISTRIBUTED_PORT_GROUP_NAME]" } ] } EOF
Terraform-Vorlagenvariablen für die neue Administrator-Workstation-VM festlegen
Legen Sie in der TFVARS-Datei Ihrer Administrator-Workstation für vm_template
die Version fest, auf die Sie ein Upgrade ausführen. Der Wert von vm_template
sieht so aus, wobei [VERSION] die OVA-Version ist:
gke-on-prem-admin-appliance-vsphere-[VERSION]
Ihre Administrator-Workstation mit Terraform aktualisieren
Führen Sie den folgenden Befehl aus, um Ihre Administrator-Workstation zu aktualisieren. Mit diesem Befehl wird die aktuelle Administrator-Workstation-VM gelöscht und durch eine aktualisierte VM ersetzt:
terraform init && terraform apply -auto-approve -input=false
Verbindung zur Administrator-Workstation herstellen
SSH-Verbindung zur Administrator-Workstation herstellen
ssh -i ~/.ssh/vsphere_workstation ubuntu@[IP_ADDRESS]
Wenn Sie einen Proxy verwenden, müssen Sie Google Cloud CLI für den Proxy konfigurieren, damit Sie die Befehle
gcloud
undgsutil
ausführen können. Eine Anleitung finden Sie unter gcloud CLI zur Verwendung hinter einem Proxy bzw. einer Firewall konfigurieren.Melden Sie sich mit Ihren Kontoanmeldedaten in Google Cloud an:
gcloud auth login
Registrieren Sie
gcloud
als Credential Helper für Docker. Zu folgendem Befehl finden Sie weitere Informationen:gcloud auth configure-docker
Erstellen Sie einen privaten Schlüssel für Ihr Dienstkonto auf der Zulassungsliste.
Kopieren Sie die E-Mail-Adresse des Dienstkontos.
gcloud iam service-accounts list
Erstellen Sie den privaten Schlüssel des Dienstkontos. Dabei ist [KEY_FILE] der Name, den Sie für die Datei verwenden. Mit folgendem Befehl wird die Datei im aktuellen Arbeitsverzeichnis gespeichert:
gcloud iam service-accounts keys create key.json \ --project [PROJECT_ID] --iam-account [ALLOWLISTED_SERVICE_ACCOUNT_EMAIL]
Dabei gilt:
- [PROJECT_ID] ist die Projekt-ID.
- [KEY_FILE] ist der Name und Pfad der Datei, in der der private Schlüssel des Dienstkontos gespeichert wird, z. B.
/home/ubuntu/key.json
. - [ALLOWLISTED_SERVICE_ACCOUNT_EMAIL] ist die E-Mail-Adresse des Dienstkontos auf der Zulassungsliste.
Aktivieren Sie Ihr Dienstkonto auf der Zulassungsliste:
gcloud auth activate-service-account --project [PROJECT_ID] \ --key-file [KEY_FILE]
Gesicherte Konfigurations- und kubeconfig-Dateien kopieren
Zuvor haben Sie Ihre GKE On-Prem-Konfigurationsdatei und die kubeconfig-Dateien Ihrer Cluster gesichert. Kopieren Sie diese Dateien nun wieder auf die aktualisierte Administrator-Workstation.
Cluster aktualisieren
Führen Sie die folgenden Schritte aus, nachdem Sie Ihre Administrator-Workstation aktualisiert und eine Verbindung zu ihr hergestellt haben:
Verfügbarkeit ausreichender IP-Adressen prüfen
Achten Sie vor dem Upgrade darauf, dass genügend IP-Adressen für Ihre Cluster verfügbar sind.
DHCP
Während eines Upgrades erstellt GKE On-Prem einen temporären Knoten im Administratorcluster und einen temporären Knoten in jedem zugeordneten Nutzercluster. Achten Sie darauf, dass Ihr DHCP-Server ausreichend IP-Adressen für diese temporären Knoten bereitstellen kann. Weitere Informationen finden Sie unter Erforderliche IP-Adressen für Administrator- und Nutzercluster.
Statische IP-Adressen
Während eines Upgrades erstellt GKE On-Prem einen temporären Knoten im Administratorcluster und einen temporären Knoten in jedem zugeordneten Nutzercluster. Prüfen Sie, ob Sie für Ihren Administratorcluster und jeden Nutzercluster genügend IP-Adressen reserviert haben. Für jeden Cluster müssen Sie mindestens eine IP-Adresse reserviert haben, die über die Anzahl der Clusterknoten hinausgeht. Weitere Informationen finden Sie unter Statische IP-Adressen konfigurieren.
Bestimmen Sie die Anzahl der Knoten in Ihrem Administratorcluster:
kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] get nodes
Dabei ist [ADMIN_CLUSTER_KUBECONFIG] der Pfad der kubeconfig-Datei Ihres Administratorclusters.
Sehen Sie sich als Nächstes die für Ihren Administratorcluster reservierten Adressen an:
kubectl get cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -o yaml
In der Ausgabe sehen Sie im Feld reservedAddresses
die Anzahl der IP-Adressen, die für die Knoten des Administratorclusters reserviert sind. Die folgende Ausgabe zeigt beispielsweise, dass fünf IP-Adressen für die Knoten des Administratorclusters reserviert sind:
...
reservedAddresses:
- gateway: 21.0.135.254
hostname: admin-node-1
ip: 21.0.133.41
netmask: 21
- gateway: 21.0.135.254
hostname: admin-node-2
ip: 21.0.133.50
netmask: 21
- gateway: 21.0.135.254
hostname: admin-node-3
ip: 21.0.133.56
netmask: 21
- gateway: 21.0.135.254
hostname: admin-node-4
ip: 21.0.133.47
netmask: 21
- gateway: 21.0.135.254
hostname: admin-node-5
ip: 21.0.133.44
netmask: 21
Die Anzahl der reservierten IP-Adressen sollte mindestens eine mehr als die Anzahl der Knoten im Administratorcluster betragen. Wenn dies nicht der Fall ist, können Sie eine zusätzliche Adresse reservieren. Dazu bearbeiten Sie das Clusterobjekt.
Öffnen Sie das Clusterobjekt zum Bearbeiten:
kubectl edit cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG]
Fügen Sie unter reservedAddresses
einen zusätzlichen Block mit gateway
, hostname
, ip
und netmask
hinzu.
Gehen Sie für jeden Ihrer Nutzercluster genauso vor.
So stellen Sie die Anzahl von Knoten in einem Nutzercluster fest:
kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] get nodes
Dabei gilt:[USER_CLUSTER_KUBECONFIG] is the path of your user cluster's kubeconfig file.
So zeigen Sie die für einen Nutzercluster reservierten Adressen an:
kubectl get cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ -n [USER_CLUSTER_NAME] [USER_CLUSTER_NAME] -o yaml
Dabei gilt:
[ADMIN_CLUSTER_KUBECONFIG] ist der Pfad der kubeconfig-Datei Ihres Administratorclusters.
[USER_CLUSTER_NAME] ist der Name des Nutzerclusters.
So bearbeiten Sie das Clusterobjekt eines Nutzerclusters:
kubectl edit cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ -n [USER_CLUSTER_NAME] [USER_CLUSTER_NAME]
Konfigurationsdatei ändern
Bearbeiten Sie auf der VM Ihrer Administrator-Workstation Ihre Konfigurationsdatei. Legen Sie den Wert von bundlepath
fest, wobei [VERSION] die GKE On-Prem-Version ist, auf die Sie Ihre Cluster aktualisieren:
bundlepath: /var/lib/gke/bundles/gke-onprem-vsphere-[VERSION].tgz
Informationen zu automatisch aktivierten Features
Eine neue GKE On-Prem-Version kann neue Funktionen enthalten oder Unterstützung für bestimmte Funktionen von VMware vSphere bieten. Manchmal werden durch das Upgrade auf eine GKE On-Prem-Version solche Funktionen automatisch aktiviert. Weitere Informationen zu den neuen Funktionen von GKE On-Prem finden Sie in den Versionshinweisen. Neue Funktionen werden manchmal in der GKE On-Prem-Konfigurationsdatei angezeigt.
Neue Funktionen über die Konfigurationsdatei deaktivieren
Wenn Sie eine neue Funktion deaktivieren müssen, die in einer neuen GKE On-Prem-Version automatisch aktiviert ist und durch die Konfigurationsdatei gesteuert wird, führen Sie die folgenden Schritte aus, bevor Sie Ihren Cluster aktualisieren:
Erstellen Sie in der aktualisierten Administration-Workstation eine neue Konfigurationsdatei mit einem anderen Namen als dem Ihrer aktuellen Konfigurationsdatei:
gkectl create-config --config [CONFIG_NAME]
Öffnen Sie die neue Konfigurationsdatei und das Feld der Funktion. Schließen Sie die Datei.
Öffnen Sie Ihre aktuelle Konfigurationsdatei und fügen Sie das Feld der neuen Funktion in die entsprechende Spezifikation ein.
Geben Sie im Feld einen
false
oder einen entsprechenden Wert ein.Speichern Sie die Konfigurationsdatei. Fahren Sie mit dem Aktualisieren der Cluster fort.
Sie sollten immer die Versionshinweise lesen, bevor Sie Ihre Cluster aktualisieren. Sie können die Konfiguration eines vorhandenen Clusters nach dem Upgrade nicht deklarativ ändern.
gkectl prepare
ausführen
Führen Sie folgenden Befehl aus:
gkectl prepare --config [CONFIG_FILE]
Mit dem Befehl gkectl prepare
werden folgende Tasks ausgeführt:
Kopieren Sie bei Bedarf ein neues Knoten-Betriebssystem-Image in Ihre vsphere-Umgebung und markieren Sie das Betriebssystem-Image als Vorlage.
Übertragen Sie die im neuen Bundle angegebenen aktualisierten Docker-Images per Push in Ihre private Docker-Registry, sofern Sie eine solche konfiguriert haben.
Upgrade für Administratorcluster ausführen
Führen Sie folgenden Befehl aus:
gkectl upgrade admin \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --config [CONFIG_FILE]
Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die Datei "kubeconfig" des Administratorclusters und [CONFIG_FILE] die GKE On-Prem-Konfigurationsdatei, die Sie für das Upgrade verwenden.
Upgrade für Nutzercluster ausführen
Zum Upgrade eines Nutzerclusters muss Ihr Administratorcluster auf die gewünschte Version oder höher aktualisiert werden, bevor Sie den Nutzercluster aktualisieren.
gkectl
Führen Sie auf Ihrer Administrator-Workstation den folgenden Befehl aus:
gkectl upgrade cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --config [CONFIG_FILE] \ --cluster-name [CLUSTER_NAME]
Dabei ist [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters, [CLUSTER_NAME] der Name des aktualisierten Nutzerclusters und [CONFIG_FILE] die GKE On-Prem-Konfigurationsdatei, die Sie für das Upgrade verwenden.
Console
Sie können Ihre Nutzercluster während der Installation oder nach der Erstellung bei der Google Cloud Console registrieren. Sie können Ihre registrierten GKE On-Prem-Cluster und Ihre Google Kubernetes Engine-Cluster über das GKE-Menü der Google Cloud Console aufrufen und sich anmelden.
Sobald ein Upgrade für GKE On-Prem-Nutzercluster verfügbar ist, wird eine Benachrichtigung in der Google Cloud Console angezeigt. Wenn Sie auf diese Benachrichtigung klicken, werden eine Liste der verfügbaren Versionen und ein gkectl
-Befehl angezeigt, den Sie zum Aktualisieren des Clusters ausführen können:
Rufen Sie in der Google Cloud Console das GKE-Menü auf.
Klicken Sie unter der Spalte Benachrichtigungen für den Nutzercluster auf Upgrade verfügbar, falls vorhanden.
Kopieren Sie den Befehl
gkectl upgrade cluster
.Führen Sie auf Ihrer Administrator-Workstation den Befehl
gkectl upgrade cluster
aus, wobei [ADMIN_CLUSTER_KUBECONFIG] die kubeconfig-Datei des Administratorclusters, [CLUSTER_NAME] der Name des aktualisierten Nutzerclusters und [CONFIG_FILE] die GKE On-Prem-Konfigurationsdatei ist, die Sie für das Upgrade verwenden.
Ein Upgrade fortsetzen
Wenn das Upgrade eines Nutzerclusters nach dem Upgrade des Administratorclusters unterbrochen wird, können Sie es fortsetzen, wenn Sie denselben Aktualisierungsbefehl mit dem Flag --skip-validation-all
ausführen:
gkectl upgrade cluster \ --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \ --config [CONFIG_FILE] \ --cluster-name [CLUSTER_NAME] \ --skip-validation-all
Informationen zum Fortsetzen eines Administratorcluster-Upgrades
Sie sollten das Upgrade eines Administratorclusters nicht unterbrechen. Derzeit können Upgrades von Administratorclustern nicht in jedem Fall fortgesetzt werden. Wenn das Upgrade eines Administratorclusters aus irgendeinem Grund unterbrochen wird, wenden Sie sich an den Support.
Bekannte Probleme
Die folgenden bekannten Probleme betreffen das Aktualisieren von Clustern.
Version 1.1.0-gke.6, 1.2.0-gke.6: Das Feld stackdriver.proxyconfigsecretname
wurde entfernt
Das Feld stackdriver.proxyconfigsecretname
wurde in Version 1.1.0-gke.6 entfernt. Die Preflight-Prüfungen von GKE On-Prem geben einen Fehler zurück, wenn das Feld in Ihrer Konfigurationsdatei vorhanden ist.
Dies können Sie umgehen, wenn Sie vor dem Upgrade auf 1.2.0-gke.6 das Feld proxyconfigsecretname
aus Ihrer Konfigurationsdatei löschen.
Stackdriver verweist auf die alte Version
Vor Version 1.2.0-gke.6 verhindert ein bekanntes Problem, dass Stackdriver seine Konfiguration nach Clusterupgrades aktualisiert. Stackdriver verweist immer noch auf eine alte Version. Dadurch wird verhindert, dass Stackdriver die neuesten Funktionen seiner Telemetrie-Pipeline erhält. Dieses Problem kann dem Google-Support die Fehlerbehebung für Cluster erschweren.
Nachdem Sie die Cluster auf 1.2.0-gke.6 aktualisiert haben, führen Sie den folgenden Befehl für die Administrator- und Nutzercluster aus:
kubectl --kubeconfig=[KUBECONFIG] \ -n kube-system --type=json patch stackdrivers stackdriver \ -p '[{"op":"remove","path":"/spec/version"}]'
Dabei ist [KUBECONFIG] der Pfad zur kubeconfig-Datei des Clusters.
Unterbrechung für Arbeitslasten mit PodDisruptionBudgets
Derzeit kann das Upgrade von Clustern zu Unterbrechungen oder Ausfallzeiten bei Arbeitslasten führen, die PodDisruptionBudgets (PDBs) verwenden.
Version 1.2.0-gke.6: Prometheus und Grafana werden nach dem Upgrade deaktiviert
In Nutzerclustern werden Prometheus und Grafana während des Upgrades automatisch deaktiviert. Die Konfigurations- und Messwertdaten gehen jedoch nicht verloren. In Administratoclustern bleiben Prometheus und Grafana aktiviert.
Eine Anleitung finden Sie in den Versionshinweisen zu GKE On-Prem.
Version 1.1.2-gke.0: Gelöschte Nutzerclusterknoten werden nicht aus dem vSAN-Datenspeicher entfernt
Eine Anleitung finden Sie in den Versionshinweisen zu GKE On-Prem.
Version 1.1.1-gke.2: Das Datenlaufwerk im vSAN-Datenspeicherordner kann gelöscht werden
Wenn Sie einen vSAN-Datenspeicher verwenden, müssen Sie einen Ordner erstellen, in dem das VMDK gespeichert werden soll. Derzeit ist es für ein bekanntes Problem erforderlich, dass Sie vcenter.datadisk
den UUID-Pfad (Universally Unique Identifier) des Ordners und nicht den Dateipfad angeben. Andernfalls können Upgrades fehlschlagen.
Eine Anleitung finden Sie in den Versionshinweisen zu GKE On-Prem.
Upgrade auf Version 1.1.0-gke.6 von Version 1.0.2-gke.3: OIDC-Problem
Cluster der Versionen 1.0.11, 1.0.1-gke.5 und 1.0.2-gke.3, für die OpenID Connect (OIDC) konfiguriert ist, können nicht auf Version 1.1.0-gke.6 aktualisiert werden. Dieses Problem wurde in Version 1.1.1-gke.2 behoben.
Wenn Sie einen Cluster der Version 1.0.11, 1.0.1-gke.5 oder 1.0.2-gke.3 mit OIDC während der Installation konfiguriert haben, können Sie kein Upgrade ausführen. Stattdessen müssen Sie neue Cluster erstellen.
Upgrade auf Version 1.0.2-gke.3 von Version 1.0.11
In Version 1.0.2-gke.3 werden die folgenden OIDC-Felder (usercluster.oidc
) eingeführt. Mit diesen Feldern können Sie sich von der Google Cloud Console aus in einem Cluster anmelden:
usercluster.oidc.kubectlredirecturl
usercluster.oidc.clientsecret
usercluster.oidc.usehttpproxy
Wenn Sie OIDC verwenden möchten, ist das Feld clientsecret
erforderlich, auch wenn Sie sich nicht über die Google Cloud Console bei einem Cluster anmelden möchten. Zur Verwendung von OIDC müssen Sie möglicherweise einen Platzhalterwert für clientsecret
angeben:
oidc: clientsecret: "secret"
Anhang
Informationen zu den in Version 1.1.0-gke.6 aktivierten DRS-Regeln von VMware
Ab Version 1.1.0-gke.6 erstellt GKE On-Prem automatisch Anti-Affinitätsregeln des Typs Distributed Resource Scheduler (DRS) für die Knoten Ihres Nutzerclusters, sodass sie auf mindestens drei physische Hosts in Ihrem Rechenzentrum verteilt werden. Ab Version 1.1.0-gke.6 wird diese Funktion automatisch für neue Cluster und vorhandene Cluster aktiviert.
Prüfen Sie vor dem Upgrade, ob Ihre vSphere-Umgebung die folgenden Bedingungen erfüllt:
- VMware DRS ist aktiviert. Für VMware DRS ist die vplaner Enterprise Plus-Lizenzversion erforderlich. Informationen zum Aktivieren von DRS finden Sie unter VMware DRS in einem Cluster aktivieren.
- Das im Feld
vcenter
angegebene vSphere-Nutzerkonto hat die BerechtigungHost.Inventory.EditCluster
. - Es sind mindestens drei physische Hosts verfügbar.
VMware DRS vor dem Upgrade auf 1.1.0-gke.6 deaktivieren
Wenn Sie diese Funktion nicht für Ihre vorhandenen Nutzercluster aktivieren möchten, z. B. wenn nicht genügend Hosts für die Funktion vorhanden sind, führen Sie die folgenden Schritte aus, bevor Sie Ihre Nutzercluster aktualisieren:
- Öffnen Sie die vorhandene GKE On-Prem-Konfigurationsdatei.
- Fügen Sie unter der Spezifikation
usercluster
das Feldantiaffinitygroups
hinzu:usercluster: ... antiaffinitygroups: enabled: false
- Speichern Sie die Datei.
- Verwenden Sie die Konfigurationsdatei zur Aktualisierung. Ihre Cluster werden aktualisiert, aber die Funktion ist nicht aktiviert.
Alternatives Upgradeszenario
In diesem Thema wird die einfachste Möglichkeit zur Aktualisierung von GKE On-Prem beschrieben. Sie erfahren, wie Sie ein Upgrade für Ihre Administrator-Workstation und Ihre vorhandenen Cluster vornehmen.
In der Tabelle unten wird ein alternatives Upgrade-Szenario beschrieben. In diesem Szenario aktualisieren Sie nur gkectl
und Ihre Cluster, aber nicht die Administrator-Workstation:
Szenario | Schritte |
---|---|
Der Release enthält keine Sicherheitsupdates für die Administrator-Workstation. |
|
Problembehebung
Weitere Informationen finden Sie unter Fehlerbehebung.
Neue Knoten erstellt, aber nicht intakt
- Symptome
Neue Knoten registrieren sich nicht auf der Steuerungsebene des Nutzerclusters, wenn Sie den manuellen Load-Balancing-Modus verwenden.
- Mögliche Ursachen
Die Ingress-Validierung im Knoten, die den Startvorgang der Knoten blockiert, kann aktiviert sein.
- Lösung
Führen Sie Folgendes aus, um die Prüfung zu deaktivieren:
kubectl patch machinedeployment [MACHINE_DEPLOYMENT_NAME] -p '{"spec":{"template":{"spec":{"providerSpec":{"value":{"machineVariables":{"net_validation_ports": null}}}}}}}' --type=merge
Clusterprobleme mit gkectl
diagnostizieren
Verwenden Sie gkectl diagnose
-Befehle, um Clusterprobleme zu identifizieren und Clusterinformationen an Google zu senden. Siehe Clusterprobleme diagnostizieren.
Standard-Logging-Verhalten
Für gkectl
und gkeadm
reicht es aus, die Standard-Logging-Einstellungen zu verwenden:
-
Standardmäßig werden Logeinträge so gespeichert:
-
Für
gkectl
ist die Standard-Logdatei/home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log
. Die Datei ist per Symlink mit der Dateilogs/gkectl-$(date).log
im lokalen Verzeichnis verknüpft, in dem Siegkectl
ausführen. -
Für
gkeadm
ist die Standard-Logdateilogs/gkeadm-$(date).log
im lokalen Verzeichnis, in dem Siegkeadm
ausführen.
-
Für
- Alle Logeinträge werden in der Logdatei gespeichert, auch wenn sie nicht im Terminal ausgegeben werden (wenn
--alsologtostderr
auffalse
gesetzt ist). - Die Ausführlichkeitsstufe
-v5
(Standard) deckt alle Logeinträge ab, die vom Support-Team benötigt werden. - Die Logdatei enthält auch den ausgeführten Befehl und die Fehlermeldung.
Wir empfehlen Ihnen, die Logdatei an das Supportteam zu senden, wenn Sie Hilfe benötigen.
Nicht standardmäßigen Speicherort für die Logdatei angeben
Wenn Sie einen nicht standardmäßigen Speicherort für die Logdatei gkectl
angeben möchten, verwenden Sie das Flag --log_file
. Die von Ihnen angegebene Logdatei wird nicht per Symlink mit dem lokalen Verzeichnis verknüpft.
Wenn Sie einen nicht standardmäßigen Speicherort für die Logdatei gkeadm
angeben möchten, verwenden Sie das Flag --log_file
.
Cluster-API-Logs im Administratorcluster suchen
Wenn eine VM nach dem Start der Administrator-Steuerungsebene nicht gestartet wird, versuchen Sie, dies durch Untersuchen der Logs der Cluster-API-Controller im Administratorcluster zu beheben:
Suchen Sie im Namespace
kube-system
den Namen des Cluster-API-Controller-Pods, wobei [ADMIN_CLUSTER_KUBECONFIG] der Pfad zur kubeconfig-Datei des Administratorclusters ist:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
Öffnen Sie die Logs des Pods, wobei [POD_NAME] der Name des Pods ist. Verwenden Sie optional für die Fehlersuche
grep
oder ein ähnliches Tool:kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager