Kontingente und Limits

Auf dieser Seite werden die Kontingente und Limits von Google Kubernetes Engine-Clustern (GKE), Knoten und GKI API-Anfragen erläutert.

Limits pro Projekt

Pro GKE-Projekt gelten folgende Limits:

Hinweis: Cluster, die im Autopilot-Modus erstellt wurden, sind als regionale Cluster vorkonfiguriert.

Limits pro Cluster

Pro GKE-Cluster gelten folgende Limits:

Limits GKE-Standardcluster GKE Autopilot-Cluster
Knoten pro Cluster 15.000

Hinweis: Wenn Sie mehr als 2.000 Knoten ausführen möchten, verwenden Sie einen regionalen Cluster.

Hinweis : Bei über 5.000 Knoten ist eine Kontingenterhöhung der Cluster-Größe erforderlich. Wenden Sie sich an den Support, um Unterstützung zu erhalten.

400

Wenn Sie dieses Kontingent erhöhen möchten, wenden Sie sich bitte an den Support.

Knoten pro Zone des Knotenpools 1.000 Nicht zutreffend
Knoten in einer Zone
  • Keine Knotenbeschränkungen beim containernativen Load-Balancing mit NEG-basiertem Ingress, was nach Möglichkeit empfohlen wird Ab GKE-Version 1.17 ist NEG-basierter Ingress der Standardmodus.
  • 1.000, wenn Sie auf Instanzgruppen basierten Ingress verwenden.
Nicht zutreffend
Pods pro Knoten 256

Hinweis: Bei GKE-Versionen vor 1.23.5-gke.1300 beträgt das Limit 110 Pods.

32
Pods pro Cluster1 200.000 12.800 (32 Pods/Knoten * 400 Knoten)
Container pro Cluster 400.000 25.600
Endpunkte pro Service 1.000 für GKE 1.19 und höher. 250 für ältere Versionen.

Die GKE-Versionsanforderung gilt sowohl für die Knoten als auch für die Steuerungsebene.

Weitere Informationen zu relevanten Limits und Kontingenten finden Sie unter Richtlinien für das Erstellen skalierbarer Cluster.

Limit für API-Anfragen

Die standardmäßige Ratenbegrenzung für die Kubernetes Engine API beträgt 3000 Anfragen pro Minute, die in Intervallen von 100 Sekunden erzwungen wird.

Zusätzliche Limits und Kontingente

Zusätzlich zu den Limits pro Cluster und pro Projekt haben bestimmte GKE-Features zusätzliche Limits. Weitere Informationen finden Sie in der Dokumentation der Features, die Sie nutzen.

Möglicherweise begegnen Ihnen auch Compute Engine-Ressourcenkontingente. GKE-Cluster sind außerdem bei Projekten mit standardmäßigen regionalen Compute Engine-CPU-Kontingenten auf drei pro Region beschränkt.

Ressourcenkontingente

Auf Cluster mit 100 Knoten oder weniger und Namespaces in diesen Clustern wird eine Reihe von Ressourcenkontingenten angewendet. Diese Kontingente, die nicht aufgehoben werden können, sollen die Steuerungsebene des Clusters vor Instabilität durch mögliche Fehler in auf dem Cluster bereitgestellten Anwendungen schützen.

Verwenden Sie den folgenden Befehl, um Ressourcenkontingente zu prüfen:

kubectl get resourcequota gke-resource-quotas -o yaml

Geben Sie über die Option --namespace einen bestimmten Namespace an, um sich dessen Objekt gke-resource-quotas anzusehen.

Bei Hinzufügung weiterer Knoten zum Cluster (bis zu 100 Knoten) werden diese Ressourcenkontingente erhöht. Wenn der Cluster 100 Knoten überschreitet, wird das Ressourcenkontingentobjekt entfernt und der Cluster hat unbegrenzte Kontingente.

Wenn Sie die Ressourcenkontingente noch einmal aufrufen, sieht die Ausgabe in etwa so aus:

Error from server (NotFound): resourcequotas "gke-resource-quotas" not found.

Sobald der Cluster 100 Knoten überschreitet, werden die Kontingente nicht noch einmal angewendet, wenn die Anzahl der Knoten wieder auf weniger als 100 reduziert wird.

Hinweise

  1. Die maximale Anzahl von Pods umfasst System-Pods. Die Anzahl der System-Pods variiert je nach Clusterkonfiguration und aktivierten Features.