Cette page fournit des informations de base sur le scaling des VM exécutées sur Google Distributed Cloud. Les informations fournies n'indiquent pas de limites strictes ni de seuils garantis pour le produit ou votre installation. Ces informations sont destinées à vous aider à déterminer si l'environnement d'exécution de VM sur GDC peut répondre à vos exigences de calcul.
Pour en savoir plus sur les quotas, les limites et le scaling pour Google Distributed Cloud, consultez la page Quotas et limites.
Scaling maximal des VM
Grâce à des tests approfondis, nous avons déterminé que vous pouviez exécuter de manière fiable jusqu'à 500 VM simultanément sur un cluster GKE sur Bare Metal avec 50 nœuds.
Utilisation des ressources
Pour effectuer le scaling à la hausse des déploiements de VM, assurez-vous que le cluster dispose de ressources de processeur, de mémoire et de stockage suffisantes pour les VM et les composants du plan de contrôle. Pour connaître les exigences standards en termes de ressources pour les machines de nœud de cluster, consultez la section Prérequis pour les machines de nœud de cluster.
Notez l'utilisation des ressources de l'environnement d'exécution des VM sur GDC pour notre configuration de scaling maximal de la VM:
- La part totale de processeur utilisée par tous les composants de l'espace de noms
vm-system
est d'environ 1,3 lors du pic d'utilisation. - La mémoire totale utilisée par tous les composants de l'espace de noms
vm-system
est d'environ 10 Gio.
Problème connu au niveau des ressources
Actuellement, lorsque l'agent invité est activé, chaque VM enregistre un observateur distinct sur le serveur d'API. Par conséquent, le nombre d'observateurs enregistrés dans kube-apiserver
augmente linéairement avec le nombre de VM. Selon les charges de travail que vous exécutez, vous pouvez rencontrer des problèmes liés à kube-apiserver
à mesure que le nombre de VM augmente. Si vous êtes concerné par ce problème, vous pouvez configurer kube-apiserver
ou désactiver l'agent invité si vous ne l'utilisez pas.