Auf dieser Seite sind bekannte Probleme mit GKE-Netzwerken aufgeführt. Diese Seite richtet sich an Administratoren und Architekten, die den Lebenszyklus der zugrunde liegenden technischen Infrastruktur verwalten und auf Benachrichtigungen und Seiten reagieren, wenn Service Level Objectives (SLOs) nicht erfüllt werden oder Anwendungen ausfallen.
Zum Filtern der bekannten Probleme nach einer Produktversion wählen Sie in den folgenden Drop-down-Menüs die gewünschten Filter aus.
Wählen Sie Ihre GKE-Version aus:
Sie können auch nach Ihrem Problem suchen:
Erkannte Version(en) | Korrigierte Version(en) | Problem und Problemumgehung |
---|---|---|
1.30, 1.31, 1.32 |
Neu erstellte Knoten werden den internen Layer-4-Load Balancern nicht hinzugefügt.Bei Google Cloud -Load Balancern, die für interne LoadBalancer-Dienste erstellt werden, fehlen möglicherweise neu erstellte Knoten in der Backend-Instanzgruppe. Das Problem ist am deutlichsten bei einem Cluster zu sehen, der auf null Knoten skaliert und dann wieder auf einen oder mehrere Knoten skaliert wurde. Problemumgehungen:
|
|
1.27,1.28,1.29,1.30,1.31 |
NEG-Controller beendet die Verwaltung von Endpunkten, wenn Port aus Dienst entfernt wirdWenn der NEG-Controller so konfiguriert ist, dass eine eigenständige NEG für einen Dienst erstellt wird und einer der konfigurierten Ports später aus dem Dienst entfernt wird, verwaltet der NEG-Controller irgendwann keine Endpunkte mehr für die NEG. Neben Diensten, für die der Nutzer eine eigenständige NEG-Anmerkung erstellt, wirkt sich dies auch auf Dienste aus, auf die vom GKE-Gateway, MCI und GKE Multi-Cluster-Gateway verwiesen wird. Workaround: Wenn Sie einen Port aus einem Dienst mit einer eigenständigen NEG-Anmerkung entfernen, muss auch die Anmerkung aktualisiert werden, um den betreffenden Port zu entfernen. |
|
1,28 |
Fehler bei der TLS-Konfiguration des GatewaysWir haben ein Problem bei der Konfiguration von TLS für Gateways in Clustern mit der GKE-Version 1.28.4-gke.1083000 festgestellt. Das betrifft TLS-Konfigurationen, bei denen entweder ein SSLCertificate oder eine CertificateMap verwendet wird. Wenn Sie einen Cluster mit vorhandenen Gateways aktualisieren, schlagen Aktualisierungen des Gateways fehl. Bei neuen Gateways werden die Load Balancer nicht bereitgestellt. Dieses Problem wird in einer zukünftigen GKE 1.28-Patchversion behoben. |
|
1.27,1.28,1.29 |
|
Zeitweise fehlgeschlagene VerbindungsaufbauversucheBei Clustern mit Steuerungsebenen-Versionen ab 1.26.6-gke.1900 kann es zu zeitweiligen Verbindungsaufbaufehlern kommen. Die Wahrscheinlichkeit von Ausfällen ist gering und sie betreffen nicht alle Cluster. Die Ausfälle sollten nach einigen Tagen nach Beginn der Symptome vollständig aufhören. |
1.27,1.28,1.29 |
|
Probleme mit der DNS-Auflösung bei Container-Optimized OSBei Arbeitslasten, die in GKE-Clustern mit Container-Optimized OS-basierten Knoten ausgeführt werden, kann es zu DNS-Auflösungsproblemen kommen. |
1,28 | 1.28.3-gke.1090000 oder höher |
Netzwerkrichtlinie bricht eine Verbindung aufgrund einer falschen Verbindungsverfolgung abWenn in Clustern mit aktivierter GKE Dataplane V2 ein Client-Pod über einen Dienst oder die virtuelle IP-Adresse eines internen Passthrough-Network Load Balancers eine Verbindung zu sich selbst herstellt, wird das Antwortpaket aufgrund eines falschen Conntrack-Lookups in der Datenebene nicht als Teil einer vorhandenen Verbindung identifiziert. Das bedeutet, dass eine Netzwerkrichtlinie, die eingehenden Traffic für den Pod einschränkt, für das Paket falsch erzwungen wird. Die Auswirkungen dieses Problems hängen von der Anzahl der konfigurierten Pods für den Dienst ab. Wenn der Dienst beispielsweise einen Backend-Pod hat, schlägt die Verbindung immer fehl. Wenn der Service zwei Backend-Pods hat, schlägt die Verbindung in 50% der Fälle fehl. Workaround:
Sie können dieses Problem mindern, indem Sie |
1.27,1.28 |
|
Paketdrops für Hairpin-AnschlussflowsWenn bei Clustern mit aktiviertem GKE Dataplane V2 ein Pod mithilfe eines Service eine TCP-Verbindung zu sich selbst erstellt, sodass der Pod sowohl Quelle als auch Ziel der Verbindung ist, überwacht die GKE Dataplane V2 eBPF-Verbindungsüberwachung den Verbindungsstatus nicht korrekt, was zu verlorenen conntrack-Einträgen führt. Wenn ein Verbindungs-Tupel (Protokoll, Quell-/Ziel-IP und Quell-/Zielport) gehackt wurde, können neue Verbindungen mit demselben Verbindungs-Tupel dazu führen, dass Rückgabepakete verworfen werden. Workaround: Versuchen Sie einen der folgenden Schritte, um das Problem zu umgehen:
|
Älter als 1.31.0-gke.1506000 | 1.31.0-gke.1506000 und höher |
Gerätetypisches Netzwerk in GKE-Multi-Netzwerk funktioniert bei langen Netzwerknamen nichtDie Clustererstellung schlägt mit dem folgenden Fehler fehl:
Workaround: Begrenzen Sie die Länge von von Geräten eingegebenen Netzwerkobjektnamen auf maximal 41 Zeichen. Der vollständige Pfad jedes UNIX-Domain-Sockets wird zusammengesetzt, einschließlich des entsprechenden Netzwerknamens. Unter Linux ist die Länge von Socket-Pfaden auf unter 107 Byte beschränkt. Abzüglich des Verzeichnisses, des Dateinamenspräfixes und der |
1.27, 1.28, 1.29, 1.30 |
|
Verbindungsprobleme für
|
1.28, 1.29, 1.30, 1.31 |
Calico-Pods sind in Clustern mit weniger als 3 Knoten und nicht ausreichender vCPU nicht fehlerfreiCalico-typha- und calico-node-Pods können nicht in Clustern geplant werden, die alle folgenden Bedingungen erfüllen: weniger als 3 Knoten insgesamt, jeder Knoten hat eine oder weniger zuweisbare vCPUs und Netzwerkrichtlinie aktiviert. Das liegt an unzureichenden CPU-Ressourcen. Problemumgehungen:
|