Quotas et limites


Ce document répertorie les quotas et limites qui s'appliquent à Google Kubernetes Engine.

Google Cloud utilise des quotas pour garantir l'équité et réduire les pics d'utilisation et de disponibilité des ressources. Un quota limite la quantité de ressources Google Cloud que votre projet Google Cloud peut utiliser. Les quotas s'appliquent à différents types de ressources, y compris les composants matériels, logiciels et réseau. Par exemple, les quotas peuvent limiter le nombre d'appels d'API à un service, le nombre d'équilibreurs de charge utilisés simultanément par votre projet ou le nombre de projets que vous pouvez créer. Les quotas protègent la communauté des utilisateurs de Google Cloud en empêchant la surcharge des services. Les quotas vous aident également à gérer vos propres ressources Google Cloud.

Le système Cloud Quotas effectue les opérations suivantes :

  • Surveille votre consommation de produits et services Google Cloud
  • Limite votre consommation de ces ressources
  • Permet de demander des modifications de la valeur du quota

Dans la plupart des cas, lorsque vous tentez d'utiliser plus d'une ressource que son quota ne le permet, le système bloque l'accès à la ressource et la tâche que vous essayez d'effectuer échoue.

Les quotas s'appliquent généralement au niveau du projet Google Cloud. Votre utilisation d'une ressource dans un projet n'affecte pas votre quota disponible dans un autre projet. Dans un projet Google Cloud, les quotas sont partagés entre toutes les applications et adresses IP.

Pour demander une augmentation ou une diminution de la plupart des quotas, vous pouvez utiliser Google Cloud Console. Pour en savoir plus, consultez Demander une augmentation de quota.

Des limites s'appliquent également aux ressources GKE. Ces limites ne sont pas liées au système de quotas. Sauf indication contraire, les limites ne peuvent pas être modifiées.

Limites par projet

Dans un même projet, vous pouvez créer au maximum 100 clusters zonaux par zone, et 100 clusters régionaux par région.

Remarque : Les clusters créés en mode Autopilot sont préconfigurés en tant que clusters régionaux.

Limites par cluster

Les tableaux suivants décrivent les limites par cluster GKE.

Toutes les versions de GKE spécifiées dans le tableau suivant s'appliquent aux nœuds et au plan de contrôle du cluster.

Limites Cluster GKE standard Cluster GKE Autopilot
Nœuds par cluster 15 000 nœuds

Remarque : Si vous prévoyez d'exécuter plus de 2 000 nœuds, utilisez un cluster régional.

Remarque : L'exécution de plus de 5 000 nœuds n'est disponible que pour les clusters régionaux, privés ou avec Private Service Connect et avec GKE Dataplane V2 désactivé. Contactez l'assistance pour augmenter cette limite de quota.

5 000 nœuds

Remarque : Si vous prévoyez d'exécuter plus de 1 000 nœuds, utilisez GKE Autopilot version 1.23 ou ultérieure.

Remarque : L'exécution de plus de 400 nœuds peut nécessiter l'augmentation de la limite de quota des clusters créés avec des versions antérieures. Contactez l'assistance pour obtenir de l'aide.

Nœuds par pool de nœuds 1 000 nœuds par zone Non applicable
Nombre de nœuds dans une zone
  • L'équilibrage de charge natif en conteneurs avec un objet Ingress basé sur un NEG n'est soumis à aucune limite de nœuds. Il est recommandé autant que possible. Les objets Ingress basés sur un NEG sont le mode par défaut pour les versions 1.17 et ultérieures de GKE.
  • 1 000 nœuds si vous utilisez un objet Ingress basé sur un groupe d'instances.
Non applicable
Pods par nœud1 256 pods

Remarque : Pour les versions de GKE antérieures à 1.23.5-gke.1300, la limite est de 110 pods.

Défini de manière dynamique sur une valeur comprise entre 8 et 256. GKE prend en compte la taille du cluster et le nombre de charges de travail pour provisionner le nombre maximal de pods par nœud.

  • Pour les versions de GKE antérieures à la version 1.28, la limite est de 32 pods.
  • Pour les pods de classes Accelerator et Performance, la limite est fixée à un pod par nœud.
Pods par cluster2 200 000 pods1 200 000 pods
Conteneurs par cluster 400 000 conteneurs 400 000 conteneurs
Taille de la base de données etcd 6 GB 6 GB

En tant qu'administrateur de plate-forme, nous vous recommandons de vous familiariser avec l'impact des quotas sur les charges de travail volumineuses exécutées sur GKE. Pour obtenir d'autres recommandations, bonnes pratiques, limites et quotas pour les charges de travail volumineuses, consultez la page Consignes relatives à la création de clusters évolutifs.

Limite pour les requêtes API

La limite de requêtes par défaut pour l'API Kubernetes Engine est de 3 000 par minute, et est appliquée toutes les 100 secondes.

Quotas de ressources

Pour les clusters comportant moins de 100 nœuds, GKE applique un quota de ressources Kubernetes à chaque espace de noms. Ces quotas protègent le plan de contrôle du cluster contre toute instabilité provoquée par d'éventuels bugs au sein des applications déployées dans le cluster. Vous ne pouvez pas supprimer ces quotas, car ils sont appliqués par GKE.

GKE met automatiquement à jour les valeurs des quotas de ressources proportionnellement au nombre de nœuds. Pour les clusters comportant plus de 100 nœuds, GKE supprime le quota de ressources.

Pour examiner les quotas de ressources, exécutez la commande suivante :

kubectl get resourcequota gke-resource-quotas -o yaml

Pour afficher les valeurs correspondant à un espace de noms donné, spécifiez l'espace de noms en ajoutant l'option --namespace.

Vérifier les quotas

Console

  1. Dans Google Cloud Console, accédez à la page Quotas.

    Accéder à la section "Quotas"

  2. La page Quotas affiche la liste des quotas préfiltrés spécifiques aux quotas de GKE.
  3. Pour rechercher le quota exact, utilisez le tableau des filtres. Si vous ne connaissez pas le nom du quota, vous pouvez utiliser les liens disponibles sur la page Quotas.

gcloud

  1. Pour vérifier vos quotas, exécutez la commande suivante :
    gcloud compute project-info describe --project PROJECT_ID

    Remplacez PROJECT_ID par votre ID de projet :

  2. Pour vérifier le quota que vous avez déjà consommé dans une région, exécutez la commande suivante :
    gcloud compute regions describe example-region

Remarques

  1. Le nombre maximal de pods par cluster GKE Standard inclut les pods système. Le nombre de pods système varie en fonction de la configuration du cluster et des fonctionnalités activées.

  2. Le nombre maximal de pods pouvant tenir dans un nœud dépend de la taille de vos demandes de ressources de pods et de la capacité du nœud. Il est possible que vous n'atteigniez pas toutes les limites à la fois. Nous vous recommandons de tester la charge des déploiements volumineux.