Diese Seite enthält eine Reihe von Empfehlungen zum Planen, Entwerfen, Bereitstellen, Skalieren und Ausführen großer Arbeitslasten in GKE-Clustern (Google Kubernetes Engine). Folgen Sie diesen Empfehlungen, damit Ihre Skalierungsarbeitslasten den Service Level Objectives (SLOs) entsprechen.
Verfügbare Empfehlungen zur Skalierbarkeit
Bevor Sie eine GKE-Architektur planen und entwerfen, ordnen Sie für Ihre Arbeitslast spezifische Parameter (z. B. Anzahl der aktiven Nutzer, erwartete Antwortzeit, erforderliche Rechenressourcen) mit den von Kubernetes verwendeten Ressourcen (z. B. Pods, Dienste und „CustomResourceDefinition“) zu. Prüfen Sie anhand der zugeordneten Informationen die Skalierbarkeitsempfehlungen für GKE.
Die Empfehlungen zur Skalierbarkeit sind in die folgenden Planungsbereiche unterteilt:
Skalierbarkeit planen: Hier erfahren Sie mehr über die allgemeinen Best Practices für das Entwerfen von Arbeitslasten und Clustern, um eine zuverlässige Leistung beim Ausführen kleiner und großer Cluster zu erzielen. Diese Empfehlungen sind nützlich für Architekten, Plattformadministratoren und Kubernetes-Entwickler. Weitere Informationen finden Sie unter Skalierbarkeit planen.
Große GKE-Cluster planen: Informationen zum Planen der Ausführung sehr großer GKE-Cluster. Informationen zu bekannten Limits von Kubernetes und GKE sowie dazu, wie Sie das Erreichen dieser Limits vermeiden können. Diese Empfehlungen sind für Architekten und Plattformadministratoren nützlich. Weitere Informationen finden Sie unter Große GKE-Cluster planen.
Große Arbeitslasten planen: Informationen zum Planen von Architekturen, die große Kubernetes-Arbeitslasten in GKE ausführen. Außerdem erhalten Sie Empfehlungen zur Verteilung der Arbeitslast auf Projekte und Cluster sowie zum Anpassen dieser erforderlichen Arbeitslastkontingente. Diese Empfehlungen sind für Architekten und Plattformadministratoren nützlich.
Weitere Informationen finden Sie unter Große Arbeitslasten planen.
Diese Skalierbarkeitsempfehlungen gelten allgemein für GKE und betreffen beide GKE-Modi: „Standard“ und „Autopilot“. GKE Autopilot übernimmt automatisch die Bereitstellung und Verwaltung der zugrunde liegenden Infrastruktur des Clusters, sodass einige Empfehlungen nicht anwendbar sind.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-04 (UTC)."],[],[],null,["# About GKE Scalability\n\n[Autopilot](/kubernetes-engine/docs/concepts/autopilot-overview) [Standard](/kubernetes-engine/docs/concepts/choose-cluster-mode)\n\n*** ** * ** ***\n\nThis page provides a set of recommendations for planning, architecting, deploying, scaling, and operating large workloads on Google Kubernetes Engine (GKE) clusters. We recommend you follow these recommendations to keep your scaling workloads within [service-level objectives (SLOs)](https://landing.google.com/sre/sre-book/chapters/service-level-objectives).\n\n\u003cbr /\u003e\n\nAvailable recommendations for scalability\n-----------------------------------------\n\nBefore planning and designing a GKE architecture, map parameters specific to your\nworkload (for example the number of active users, expected response time,\nrequired compute resources) with the resources used by Kubernetes (such as Pods,\nServices, and 'CustomResourceDefinition'). With this information mapped, review\nthe GKE scalability recommendations.\n\nThe scalability recommendations are divided based in the following planning scopes:\n\n- **Plan for scalability** : To learn about the general best practices for designing your workloads and clusters for reliable performance when running on both small and large clusters. These recommendations are useful for architects, platform administrators, and Kubernetes developers. To learn more, see [Plan for scalability](/kubernetes-engine/docs/concepts/planning-scalability).\n- **Plan for large-size GKE clusters** : To learn how to plan to run very big-size GKE clusters. Learn about known limits of Kubernetes and GKE and ways to avoid reaching them. These recommendations are useful for architects and platform administrators. To learn more, see [Plan for large GKE clusters](/kubernetes-engine/docs/concepts/planning-large-clusters).\n- **Plan for large workloads** : To learn how to plan architectures that run large Kubernetes workloads on GKE. It covers recommendations for distributing the workload among projects and clusters, and adjusting these workload required quotas. These recommendations are useful for architects and platform administrators. To learn more, see [Plan for large workloads](/kubernetes-engine/docs/concepts/planning-large-workloads).\n\nThese scalability recommendations are general to GKE and are applicable to both\nGKE Standard and GKE Autopilot modes. GKE Autopilot provisions and manages\nthe cluster's underlying infrastructure for you, therefore some recommendations\nare not applicable.\n| **Caution:** Test your planned cluster configuration before its implementation. Some design decisions might include fixed parameters, for example, CIDRs definition. Changing these parameters on existing clusters is not available and it requires cluster recreation.\n\nWhat's next?\n------------\n\n- [Plan for scalability](/kubernetes-engine/docs/concepts/planning-scalability).\n- [Plan for large GKE clusters](/kubernetes-engine/docs/concepts/planning-large-clusters)\n- [Plan for large workloads](/kubernetes-engine/docs/concepts/planning-large-workloads)\n- See our episodes about [building large GKE clusters](https://www.youtube.com/watch?v=542XwAPKh4g)."]]