Cotas e limites

Nesta página, explicamos sobre as cotas e os limites para clusters, além dos nós do Google Kubernetes Engine (GKE) e as solicitações da API GKE.

Limites por projeto

Estes são os limites por projeto do GKE:

Observação: os clusters criados no modo de Autopilot são pré-configurados como clusters regionais.

Limites por cluster

Estes são os limites por cluster do GKE:

Limites Cluster do GKE Standard Cluster do GKE Autopilot
Nós por cluster
  • 5.000 para versões do GKE de até 1.17.
  • 15.000 para as versões 1.18 e posteriores do GKE.

Observação: para executar mais de 5.000 nós, é necessário o aumento de uma cota de tamanho do cluster. Entre em contato com o suporte para receber ajuda.

400

Para aumentar essa cota, entre em contato com o suporte para receber ajuda.

Nós por zona do pool de nós 1.000 Não relevante
Nós em uma zona
  • Não há limitações de nós para o balanceamento de carga nativo de contêiner com entrada baseada no NEG, que é recomendado sempre que possível. No GKE 1.17 e versões posteriores, a entrada com base em NEG é o modo padrão.
  • 1.000, se você estiver usando a entrada com base em grupo de instâncias.
Não relevante
Pods por nó 110 32
Pods por cluster 150.000 12.800 (32 pods/nó * 400 nós)
Contêineres por cluster 300.000 300.000

Saiba mais sobre as cotas e os limites relevantes nas Diretrizes para criar clusters escalonáveis.

Limite para solicitações de API

O limite de taxa padrão da API Kubernetes Engine é de 600 solicitações por minuto, aplicado a cada 100 segundos.

Limites e cotas adicionais

Além dos limites por cluster e por projeto, há outros limites em alguns recursos específicos do GKE. Para mais informações, consulte a documentação dos recursos que você usa.

Talvez você também encontre cotas de recursos do Compute Engine. Além disso, para projetos com cota regional padrão de CPUs do Compute Engine, os clusters de contêiner estão limitados a três por região.

Cotas de recursos

Um conjunto de cotas de recursos é aplicado automaticamente a clusters com 100 nós ou menos e a namespaces nesses clusters. Essas cotas, que não podem ser removidas, protegem o plano de controle do cluster contra a instabilidade causada por possíveis bugs nos aplicativos implantados no cluster.

Para examinar as cotas de recursos, use o comando a seguir:

kubectl get resourcequota gke-resource-quotas -o yaml

Adicione a opção --namespace para visualizar o objeto gke-resource-quotas de um determinado namespace.