Kontingente und Limits

Auf dieser Seite werden die Kontingente und Limits von Google Kubernetes Engine-Clustern (GKE), Knoten und GKI API-Anfragen erläutert.

Limits pro Projekt

Pro GKE-Projekt gelten folgende Limits:

Hinweis: Cluster, die im Autopilot-Modus erstellt wurden, sind als regionale Cluster vorkonfiguriert.

Limits pro Cluster

Pro GKE-Cluster gelten folgende Limits:

Limits GKE-Standardcluster GKE Autopilot-Cluster
Knoten pro Cluster
  • 5.000 für GKE-Versionen bis 1.17
  • 15.000 für GKE-Versionen 1.18 und höher

Hinweis: Bei über 5.000 Knoten ist jedoch eine Kontingenterhöhung der Clustergröße erforderlich. Wenden Sie sich an den Support, um Unterstützung zu erhalten.

400

Wenn Sie dieses Kontingent erhöhen möchten, wenden Sie sich bitte an den Support.

Knoten pro Zone des Knotenpools 1.000 Nicht zutreffend
Knoten in einer Zone
  • Keine Knotenbeschränkungen beim containernativen Load-Balancing mit NEG-basiertem Ingress, was nach Möglichkeit empfohlen wird Ab GKE-Version 1.17 ist NEG-basierter Ingress der Standardmodus.
  • 1.000, wenn Sie auf Instanzgruppen basierten Ingress verwenden.
Nicht zutreffend
Pods pro Knoten 110 32
Pods pro Cluster 150.000 12.800 (32 Pods/Knoten * 400 Knoten)
Container pro Cluster 300.000 300.000

Weitere Informationen zu relevanten Limits und Kontingenten finden Sie unter Richtlinien für das Erstellen skalierbarer Cluster.

Limit für API-Anfragen

Die standardmäßige Ratenbegrenzung für die Kubernetes Engine API beträgt 3000 Anfragen pro Minute, die in Intervallen von 100 Sekunden erzwungen wird.

Zusätzliche Limits und Kontingente

Zusätzlich zu den Limits pro Cluster und pro Projekt haben bestimmte GKE-Features zusätzliche Limits. Weitere Informationen finden Sie in der Dokumentation der Features, die Sie nutzen.

Möglicherweise begegnen Ihnen auch Compute Engine-Ressourcenkontingente. GKE-Cluster sind außerdem bei Projekten mit standardmäßigen regionalen Compute Engine-CPU-Kontingenten auf drei pro Region beschränkt.

Ressourcenkontingente

Auf Cluster mit 100 Knoten oder weniger und Namespaces in diesen Clustern wird eine Reihe von Ressourcenkontingenten angewendet. Diese Kontingente, die nicht aufgehoben werden können, sollen die Steuerungsebene des Clusters vor Instabilität durch mögliche Fehler in auf dem Cluster bereitgestellten Anwendungen schützen.

Verwenden Sie den folgenden Befehl, um Ressourcenkontingente zu prüfen:

kubectl get resourcequota gke-resource-quotas -o yaml

Geben Sie über die Option --namespace einen bestimmten Namespace an, um sich dessen Objekt gke-resource-quotas anzusehen.