Limites de l'environnement d'exécution des VM sur GDC
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page fournit des informations de base sur le scaling pour les VM exécutées sur Google Distributed Cloud. Les informations fournies n'indiquent pas de limites strictes ni de seuils garantis pour le produit ou votre installation. Ces informations sont destinées à vous aider à déterminer si l'environnement d'exécution de VM sur GDC peut répondre à vos besoins informatiques.
Pour plus d'informations sur les quotas, les limites et le scaling de Google Distributed Cloud, consultez la page Quotas et limites.
Scaling maximal de VM
Nous avons déterminé grâce à des tests approfondis que vous pouvez exécuter de manière fiable jusqu'à 500 VM simultanément sur un cloud distribué de Google avec 50 nœuds.
Utilisation des ressources
Pour faire évoluer les déploiements de VM, assurez-vous que le cluster dispose de suffisamment de ressources de processeur, de mémoire et de stockage pour les VM et les composants du plan de contrôle. Pour connaître les exigences de ressources standards pour les machines de nœud de cluster, consultez la section Prérequis pour les machines du nœud de cluster.
Notez l'environnement d'exécution des VM suivant sur l'utilisation des ressources GDC pour notre configuration maximale de scaling de VM:
Le partage total de processeurs utilisé par tous les composants de l'espace de noms vm-system est d'environ 1,3 lors des pics d'utilisation.
La mémoire totale utilisée par tous les composants de l'espace de noms vm-system est d'environ 10 Gio.
Problème de ressource connu
Actuellement, lorsque l'agent invité est activé, chaque VM enregistre un observateur distinct sur le serveur d'API. Par conséquent, le nombre d'observateurs enregistrés dans kube-apiserver augmente linéairement avec le nombre de VM. Selon les charges de travail que vous exécutez, vous pouvez rencontrer des problèmes liés à kube-apiserver à mesure que le nombre de VM augmente. Si vous êtes concerné par ce problème, vous pouvez configurer kube-apiserver ou désactiver l'agent invité si vous ne l'utilisez pas.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/21 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/21 (UTC)."],[],[],null,["This page provides basic scaling information for VMs running on an installation\nof Google Distributed Cloud (software only) on bare metal. The information\nprovided doesn't indicate hard limits or guaranteed thresholds for the product\nor your installation. The information is intended to help you determine whether\nVM Runtime on GDC can meet your computing requirements.\n\nFor information about quotas, limits, and scaling for Google Distributed Cloud,\nsee [Quotas and limits](/kubernetes-engine/distributed-cloud/bare-metal/docs/limits).\n\nMaximum VM scaling\n\nWe have determined through extensive testing that you can run reliably as many\nas 500 VMs concurrently on a cluster with 50 nodes.\n\nResource usage\n\nTo scale up VM deployments, make sure there are enough CPU, memory, and storage\nresources in the cluster for both VMs and the control plane components. For\nstandard resource requirements for cluster node machines, see\n[Cluster node machine prerequisites](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/node-machine-prerequisites).\n\nNote the following VM Runtime on GDC resource usage for our maximum VM\nscaling configuration:\n\n- Total CPU share used by all the components in the `vm-system` namespace is approximately **1.3** at the peak usage.\n- Total memory consumed by all the components in the `vm-system` namespace is approximately **10 GiB**.\n\nKnown resource issue\n\nWhen the [guest agent is enabled](/kubernetes-engine/distributed-cloud/bare-metal/docs/vm-runtime/connect-vms#enable-agent),\neach VM registers a separate watcher to the API server. Therefore, the number of registered watchers in `kube-apiserver` increases linearly with the number of the VMs. Depending on the workloads you run, you may\nencounter issues related to `kube-apiserver` as the number of VMs increases. If\nyou're affected by this issue, you can configure the `kube-apiserver` or\n[disable the guest agent](/kubernetes-engine/distributed-cloud/bare-metal/docs/vm-runtime/connect-vms#disable-guest) if\nyou aren't using it."]]