Limites de l'environnement d'exécution des VM sur Google Distributed Cloud

Cette page fournit des informations de base sur le scaling pour les VM exécutées sur GKE sur une solution Bare Metal. Les informations fournies n'indiquent pas de limites strictes ni de seuils garantis pour le produit ou votre installation. Ces informations sont destinées à vous aider à déterminer si l'environnement d'exécution des VM sur Google Distributed Cloud peut répondre à vos exigences de calcul.

Pour en savoir plus sur les quotas, les limites et le scaling pour GKE sur Bare Metal, consultez la page Quotas et limites.

Scaling maximal de la VM

Lors de tests approfondis, nous avons déterminé que vous pouviez exécuter de manière fiable jusqu'à 500 VM simultanément sur un cluster GKE comportant 50 nœuds.

Utilisation des ressources

Pour effectuer un scaling à la hausse des déploiements de VM, assurez-vous que le cluster dispose de suffisamment de ressources de processeur, de mémoire et de stockage pour les VM et les composants du plan de contrôle. Pour connaître les exigences standards en termes de ressources pour les machines de nœud de cluster, consultez la section Prérequis pour les machines de nœud de cluster.

Notez l'utilisation suivante des ressources de l'environnement d'exécution de VM sur Google Distributed Cloud pour notre configuration de scaling maximal de VM:

  • La part de processeur totale utilisée par tous les composants de l'espace de noms vm-system est d'environ 1.3 lors des pics d'utilisation.
  • La mémoire totale consommée par tous les composants de l'espace de noms vm-system est d'environ 10 Gio.

Problème de ressource connu

Actuellement, lorsque l'agent invité est activé, chaque VM enregistre un observateur distinct sur le serveur d'API. Par conséquent, le nombre d'observateurs enregistrés dans kube-apiserver augmente linéairement avec le nombre de VM. Selon les charges de travail que vous exécutez, vous pouvez rencontrer des problèmes liés à kube-apiserver à mesure que le nombre de VM augmente. Si vous êtes affecté par ce problème, vous pouvez configurer kube-apiserver ou désactiver l'agent invité si vous ne l'utilisez pas.