Ce document répertorie les quotas et limites qui s'appliquent à Google Kubernetes Engine.
Google Cloud utilise des quotas pour garantir l'équité et réduire les pics d'utilisation et de disponibilité des ressources. Un quota limite la quantité de ressources Google Cloud que votre projet Google Cloud peut utiliser. Les quotas s'appliquent à différents types de ressources, y compris les composants matériels, logiciels et réseau. Par exemple, les quotas peuvent limiter le nombre d'appels d'API à un service, le nombre d'équilibreurs de charge utilisés simultanément par votre projet ou le nombre de projets que vous pouvez créer. Les quotas protègent la communauté des utilisateurs de Google Cloud en empêchant la surcharge des services. Les quotas vous aident également à gérer vos propres ressources Google Cloud.
Le système Cloud Quotas effectue les opérations suivantes :
- Surveille votre consommation de produits et services Google Cloud
- Limite votre consommation de ces ressources
- Permet de demander des modifications de la valeur du quota
Dans la plupart des cas, lorsque vous tentez d'utiliser plus d'une ressource que son quota ne le permet, le système bloque l'accès à la ressource et la tâche que vous essayez d'effectuer échoue.
Les quotas s'appliquent généralement au niveau du projet Google Cloud. Votre utilisation d'une ressource dans un projet n'affecte pas votre quota disponible dans un autre projet. Dans un projet Google Cloud, les quotas sont partagés entre toutes les applications et adresses IP.
Pour demander une augmentation ou une diminution de la plupart des quotas, vous pouvez utiliser Google Cloud Console. Pour en savoir plus, consultez Demander une augmentation de quota.
Des limites s'appliquent également aux ressources GKE. Ces limites ne sont pas liées au système de quotas. Sauf indication contraire, les limites ne peuvent pas être modifiées.
Limites par projet
Dans un même projet, vous pouvez créer au maximum 100 clusters zonaux par zone, et 100 clusters régionaux par région.
Remarque : Les clusters créés en mode Autopilot sont préconfigurés en tant que clusters régionaux.
Limites par cluster
Les tableaux suivants décrivent les limites par cluster GKE.
Toutes les versions de GKE spécifiées dans le tableau suivant s'appliquent aux nœuds et au plan de contrôle du cluster.
Limites | Cluster GKE standard | Cluster GKE Autopilot |
---|---|---|
Nœuds par cluster | 15 000 nœuds Remarque : Si vous prévoyez d'exécuter plus de 2 000 nœuds, utilisez un cluster régional. Remarque : L'exécution de plus de 5 000 nœuds n'est disponible que pour les clusters régionaux, privés ou avec Private Service Connect et avec GKE Dataplane V2 désactivé. Contactez l'assistance pour augmenter cette limite de quota. |
5 000 nœuds Remarque : Si vous prévoyez d'exécuter plus de 1 000 nœuds, utilisez GKE Autopilot version 1.23 ou ultérieure. Remarque : L'exécution de plus de 400 nœuds peut nécessiter l'augmentation de la limite de quota des clusters créés avec des versions antérieures. Contactez l'assistance pour obtenir de l'aide. |
Nœuds par pool de nœuds | 1 000 nœuds par zone | Non applicable |
Nombre de nœuds dans une zone |
|
Non applicable |
Pods par nœud1 | 256 pods Remarque : Pour les versions de GKE antérieures à 1.23.5-gke.1300, la limite est de 110 pods. |
Défini de manière dynamique sur une valeur comprise entre 8 et 256. GKE prend en compte la taille du cluster et le nombre de charges de travail pour provisionner le nombre maximal de pods par nœud.
|
Pods par cluster2 | 200 000 pods1 | 200 000 pods |
Conteneurs par cluster | 400 000 conteneurs | 400 000 conteneurs |
Taille de la base de données etcd | 6 GB | 6 GB |
En tant qu'administrateur de plate-forme, nous vous recommandons de vous familiariser avec l'impact des quotas sur les charges de travail volumineuses exécutées sur GKE. Pour obtenir d'autres recommandations, bonnes pratiques, limites et quotas pour les charges de travail volumineuses, consultez la page Consignes relatives à la création de clusters évolutifs.
Limite pour les requêtes API
La limite de requêtes par défaut pour l'API Kubernetes Engine est de 3 000 par minute, et est appliquée toutes les 100 secondes.
Quotas de ressources
Pour les clusters comportant moins de 100 nœuds, GKE applique un quota de ressources Kubernetes à chaque espace de noms. Ces quotas protègent le plan de contrôle du cluster contre toute instabilité provoquée par d'éventuels bugs au sein des applications déployées dans le cluster. Vous ne pouvez pas supprimer ces quotas, car ils sont appliqués par GKE.
GKE met automatiquement à jour les valeurs des quotas de ressources proportionnellement au nombre de nœuds. Pour les clusters comportant plus de 100 nœuds, GKE supprime le quota de ressources.
Pour examiner les quotas de ressources, exécutez la commande suivante :
kubectl get resourcequota gke-resource-quotas -o yaml
Pour afficher les valeurs correspondant à un espace de noms donné, spécifiez l'espace de noms en ajoutant l'option --namespace
.
Check your quota
Console
- In the Google Cloud console, go to the Quotas page. The Quotas page displays the list of quotas that are prefiltered to GKE quotas.
- To search for the exact quota, use the Filter table. If you don't know the name of the quota, you can use the links on the Quotas page.
gcloud
- To check your quotas, run the following command:
gcloud compute project-info describe --project PROJECT_ID
Replace
PROJECT_ID
with your own project ID. - To check your used quota in a region, run the following command:
gcloud compute regions describe example-region
Remarques
-
Le nombre maximal de pods par cluster GKE Standard inclut les pods système. Le nombre de pods système varie en fonction de la configuration du cluster et des fonctionnalités activées. ↩
-
Le nombre maximal de pods pouvant tenir dans un nœud dépend de la taille de vos demandes de ressources de pods et de la capacité du nœud. Il est possible que vous n'atteigniez pas toutes les limites à la fois. Nous vous recommandons de tester la charge des déploiements volumineux. ↩