Cotas e limites


Veja neste documento as cotas e os limites que se aplicam ao Google Kubernetes Engine.

Uma cota restringe quanto de um determinado recurso compartilhado do Google Cloud o projeto do Google Cloud pode usar, incluindo hardware, software e componentes de rede. Dessa forma, as cotas fazem parte de um sistema que:

  • monitora o uso ou o consumo de produtos e serviços do Google Cloud;
  • restringe o consumo desses recursos por motivos, que garantem imparcialidade e reduzem picos de uso;
  • mantém as configurações que aplicam automaticamente restrições prescritas;
  • fornece um meio de solicitar ou faz alterações na cota.

Na maioria dos casos, quando uma cota é excedida, o sistema bloqueia imediatamente o acesso ao recurso relevante do Google. Além disso, a tarefa que você está tentando executar falha. Na maioria dos casos, as cotas se aplicam a todos os projetos do Google Cloud. Além disso, elas são compartilhadas entre todos os aplicativos e endereços IP que usam esse projeto.

Para aumentar ou diminuir a maioria das cotas, use o console do Google Cloud. Para mais informações, consulte Solicitar uma cota maior.

Também há limites para os recursos de GKE. Esses limites não estão relacionados ao sistema de cotas. Não é possível mudar os limites, a menos que seja indicado o contrário.

Limites por projeto

Em um único projeto, é possível criar no máximo 100 clusters zonais por zona e 100 clusters regionais por região.

Observação: os clusters criados no modo de Autopilot são pré-configurados como clusters regionais.

Limites por cluster

As tabelas a seguir descrevem os limites por cluster do GKE.

Todas as versões do GKE especificadas na tabela a seguir se aplicam aos nós do cluster e ao plano de controle.

Limites Cluster do GKE Standard Cluster do GKE Autopilot
Nós por cluster 15.000 nós

Observação: se você planeja executar mais de 2.000 nós, use um cluster regional.

Observação : a execução de mais de 5.000 nós só está disponível para clusters regionais, particulares ou com Private Service Connect e com o GKE Dataplane V2 desativado. Entre em contato com o suporte para aumentar esse limite.

5.000 nós

Observação: se você planeja executar mais de 1.000 nós, use a versão 1.23 ou mais recente do GKE Autopilot.

Observação: a execução de mais de 400 nós pode exigir o aumento da cota de tamanho dos clusters criados em versões anteriores. Entre em contato com o suporte para receber ajuda.

Nós por pool de nós 1.000 nós por zona Não relevante
Nós em uma zona
  • Não há limitações de nós para o balanceamento de carga nativo de contêiner com entrada baseada no NEG, que é recomendado sempre que possível. No GKE 1.17 e versões posteriores, a entrada com base em NEG é o modo padrão.
  • 1.000 nós se você estiver usando uma entrada baseada em grupo de instâncias.
Não relevante
Pods por nó1 256 pods

Observação: para versões do GKE anteriores à 1.23.5-gke.1300, o limite é de 110 pods.

Defina dinamicamente para qualquer valor entre 8 e 256. O GKE considera o tamanho do cluster e o número de cargas de trabalho para provisionar o máximo de pods por nó.

  • Nas versões do GKE anteriores à 1.28, o limite é de 32 pods.
  • Para pods da classe acelerador e de desempenho, o limite é um pod por nó.
Pods por cluster2 200.000 pods1 25.000 pods
Contêineres por cluster 400.000 contêineres 25.000 contêineres
Tamanho do banco de dados de Etcd 6 GB 6 GB

Como administrador da plataforma, é recomendado familiarizar-se com a forma como as cotas afetam as cargas de trabalho grandes executadas no GKE. Para conferir outras recomendações, práticas recomendadas, limites e cotas para cargas de trabalho grandes, consulte Diretrizes para criar clusters escalonáveis.

Limite para solicitações de API

A limitação de taxa padrão da API Kubernetes Engine é de 3.000 solicitações por minuto, aplicado a cada 100 segundos.

cotas de recursos

Para clusters com menos de 100 nós, o GKE aplica a cota de recursos do Kubernetes a cada namespace. Essas cotas protegem o plano de controle do cluster contra a instabilidade causada por possíveis bugs nos aplicativos implantados no cluster. Não é possível remover essas cotas porque elas são aplicadas pelo GKE.

O GKE atualiza automaticamente os valores da cota de recursos proporcionalmente ao número de nós. Para clusters com mais de 100 nós, o GKE remove a cota de recursos.

Para examinar as cotas de recursos, use o comando a seguir:

kubectl get resourcequota gke-resource-quotas -o yaml

Para conferir os valores de um determinado namespace, especifique-o adicionando a opção --namespace.

Verificar sua cota

Console

  1. No Console do Google Cloud, acesse a página Cotas.

    Acesse Cotas

  2. A página Cotas exibe a lista de cotas pré-filtradas para as cotas do GKE.
  3. Para pesquisar a cota exata, use a tabela de filtros. Se você não souber o nome da cota, use os links da página Cotas.

gcloud

  1. Para verificar suas cotas, execute o seguinte comando:
    gcloud compute project-info describe --project PROJECT_ID

    Substitua PROJECT_ID pelo seu código do projeto:

  2. Para verificar a cota utilizada em uma região, execute o comando a seguir:
    gcloud compute regions describe example-region

Observações

  1. O número máximo de pods por cluster padrão do GKE inclui pods do sistema. O número de pods do sistema varia de acordo com a configuração do cluster e os recursos ativados.

  2. O número máximo de pods que podem caber em um nó depende do tamanho das solicitações de recursos do pod e da capacidade do nó. Talvez você não atinja todos os limites ao mesmo tempo. Como prática recomendada, carregue implantações de teste grandes.