Questa pagina fornisce un insieme di consigli per la pianificazione, la progettazione, il deployment, lo scaling e la gestione di carichi di lavoro di grandi dimensioni sui cluster Google Kubernetes Engine (GKE). Ti consigliamo di seguire
questi suggerimenti per mantenere i carichi di lavoro di scalabilità entro
gli obiettivi di livello di servizio (SLO).
Consigli disponibili per la scalabilità
Prima di pianificare e progettare un'architettura GKE, mappa i parametri specifici del tuo
workload (ad esempio il numero di utenti attivi, il tempo di risposta previsto,
le risorse di calcolo richieste) con le risorse utilizzate da Kubernetes (come pod,
servizi e "CustomResourceDefinition"). Una volta mappate queste informazioni, esamina
i suggerimenti per la scalabilità di GKE.
I suggerimenti per la scalabilità sono suddivisi in base ai seguenti ambiti di pianificazione:
Pianifica la scalabilità: per scoprire le best practice generali per
progettare i workload e i cluster per prestazioni affidabili quando vengono eseguiti
su cluster piccoli e grandi. Questi consigli sono utili per architetti,
amministratori di piattaforme e sviluppatori Kubernetes. Per saperne di più, consulta
Pianificare la scalabilità.
Pianifica cluster GKE di grandi dimensioni: scopri come pianificare l'esecuzione di cluster GKE di dimensioni molto grandi. Scopri i limiti noti di Kubernetes e GKE e i modi per evitarli. Questi consigli sono utili per gli architetti
e gli amministratori della piattaforma. Per saperne di più, consulta la pagina Pianificare cluster GKE di grandi dimensioni.
Pianifica carichi di lavoro di grandi dimensioni: per scoprire come pianificare architetture che eseguono carichi di lavoro Kubernetes di grandi dimensioni su GKE. Include consigli per distribuire
il carico di lavoro tra progetti e cluster e per modificare queste quote
richieste per il carico di lavoro. Questi consigli sono utili per gli architetti e gli amministratori della piattaforma.
Per saperne di più, consulta
Pianificare carichi di lavoro di grandi dimensioni.
Questi consigli sulla scalabilità sono generali per GKE e sono applicabili sia alle modalità GKE Standard che GKE Autopilot. GKE Autopilot esegue il provisioning e la gestione
dell'infrastruttura sottostante del cluster, pertanto alcuni consigli
non sono applicabili.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-08-04 UTC."],[],[],null,["# About GKE Scalability\n\n[Autopilot](/kubernetes-engine/docs/concepts/autopilot-overview) [Standard](/kubernetes-engine/docs/concepts/choose-cluster-mode)\n\n*** ** * ** ***\n\nThis page provides a set of recommendations for planning, architecting, deploying, scaling, and operating large workloads on Google Kubernetes Engine (GKE) clusters. We recommend you follow these recommendations to keep your scaling workloads within [service-level objectives (SLOs)](https://landing.google.com/sre/sre-book/chapters/service-level-objectives).\n\n\u003cbr /\u003e\n\nAvailable recommendations for scalability\n-----------------------------------------\n\nBefore planning and designing a GKE architecture, map parameters specific to your\nworkload (for example the number of active users, expected response time,\nrequired compute resources) with the resources used by Kubernetes (such as Pods,\nServices, and 'CustomResourceDefinition'). With this information mapped, review\nthe GKE scalability recommendations.\n\nThe scalability recommendations are divided based in the following planning scopes:\n\n- **Plan for scalability** : To learn about the general best practices for designing your workloads and clusters for reliable performance when running on both small and large clusters. These recommendations are useful for architects, platform administrators, and Kubernetes developers. To learn more, see [Plan for scalability](/kubernetes-engine/docs/concepts/planning-scalability).\n- **Plan for large-size GKE clusters** : To learn how to plan to run very big-size GKE clusters. Learn about known limits of Kubernetes and GKE and ways to avoid reaching them. These recommendations are useful for architects and platform administrators. To learn more, see [Plan for large GKE clusters](/kubernetes-engine/docs/concepts/planning-large-clusters).\n- **Plan for large workloads** : To learn how to plan architectures that run large Kubernetes workloads on GKE. It covers recommendations for distributing the workload among projects and clusters, and adjusting these workload required quotas. These recommendations are useful for architects and platform administrators. To learn more, see [Plan for large workloads](/kubernetes-engine/docs/concepts/planning-large-workloads).\n\nThese scalability recommendations are general to GKE and are applicable to both\nGKE Standard and GKE Autopilot modes. GKE Autopilot provisions and manages\nthe cluster's underlying infrastructure for you, therefore some recommendations\nare not applicable.\n| **Caution:** Test your planned cluster configuration before its implementation. Some design decisions might include fixed parameters, for example, CIDRs definition. Changing these parameters on existing clusters is not available and it requires cluster recreation.\n\nWhat's next?\n------------\n\n- [Plan for scalability](/kubernetes-engine/docs/concepts/planning-scalability).\n- [Plan for large GKE clusters](/kubernetes-engine/docs/concepts/planning-large-clusters)\n- [Plan for large workloads](/kubernetes-engine/docs/concepts/planning-large-workloads)\n- See our episodes about [building large GKE clusters](https://www.youtube.com/watch?v=542XwAPKh4g)."]]