Cotas e limites

Nesta página, explicamos sobre as cotas e os limites para clusters, além dos nós do Google Kubernetes Engine (GKE) e as solicitações da API GKE.

Confira a seguir os limites por projeto do GKE:

Os limites por cluster do GKE são:

  • No máximo 5.000 nós por cluster até a versão 1.17 do GKE.
  • No máximo 15.000 nós por cluster a partir da versão 1.18 do GKE. No entanto, a execução de mais de 5.000 nós exige o aumento da cota de tamanho de clusters. Entre em contato com o suporte se precisar de ajuda
  • No máximo 1.000 nós por zona de pool de nós.
  • Se você estiver usando entrada com base em grupo de instâncias, haverá um limite de 1.000 nós em uma zona por cluster. No entanto, o balanceamento de carga nativo de contêiner com entrada com base em NEG não terá limitações de nós e é recomendado sempre que possível. No GKE 1.17 ou em versões mais recentes, a entrada com base em NEG é o modo padrão.
  • No máximo 110 pods por nó.
  • No máximo 150.000 pods e 300.000 contêineres por cluster.

O limite de taxa para a API Kubernetes Engine é de 10 solicitações por segundo.

Além dos limites por cluster e por projeto, há outros limites em alguns recursos específicos do GKE. Para mais informações, consulte a documentação dos recursos que você usa.

Talvez você também encontre cotas de recursos do Compute Engine. Além disso, para projetos com cota regional padrão de CPUs do Compute Engine, os clusters de contêiner estão limitados a três por região.

Cotas de recursos

A partir do GKE 1.12.5, um conjunto de cotas de recursos é aplicado automaticamente a clusters com cinco nós ou menos e a namespaces nesses clusters. Essas cotas, que não podem ser removidas, protegem o plano de controle do cluster contra a instabilidade causada por possíveis bugs nos aplicativos implantados. Para examinar essas cotas, use o comando kubectl get resourcequota gke-resource-quotas -o yaml. Adicione a opção --namespace para visualizar o objeto gke-resource-quotas de um determinado namespace.

Desde 26 de agosto de 2019, um conjunto de cotas de recursos foi aplicado automaticamente a clusters com dez nós ou menos e a namespaces nesses clusters. Essas cotas, que não podem ser removidas, protegem o plano de controle do cluster contra a instabilidade causada por possíveis bugs nos aplicativos implantados no cluster. Para examinar essas cotas, use o comando kubectl get resourcequota gke-resource-quotas -o yaml. Adicione a opção --namespace para visualizar o objeto gke-resource-quotas de um determinado namespace.