Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
En esta página, se proporciona información básica sobre la escalabilidad de las VMs que se ejecutan en Google Distributed Cloud. La información proporcionada no indica límites estrictos ni umbrales garantizados para el producto o la instalación. El objetivo de la información es ayudarte a determinar si el entorno de ejecución de VM en GDC puede satisfacer tus requisitos de procesamiento.
Para obtener información sobre las cuotas, los límites y la escalabilidad de Google Distributed Cloud, consulta Cuotas y límites.
Escalamiento máximo de VM
A través de pruebas exhaustivas, determinamos que puedes ejecutar hasta 500 VMs de forma simultánea y confiable en Google Distributed Cloud con 50 nodos.
Uso de recursos
Para escalar verticalmente las implementaciones de VM, asegúrate de que haya suficientes recursos de CPU, memoria y almacenamiento en el clúster para las VMs y los componentes del plano de control. Para conocer los requisitos de recursos estándar de las máquinas de nodo del clúster, consulta Requisitos previos de las máquinas de nodo del clúster.
Ten en cuenta el siguiente uso de recursos del entorno de ejecución de VM en GDC para nuestra configuración máxima de escalamiento de VM:
La parte total de la CPU que usan todos los componentes del espacio de nombres vm-system es de aproximadamente 1.3 en el uso máximo.
La memoria total que consumen todos los componentes del espacio de nombres vm-system es de aproximadamente 10 GiB.
Problema conocido con los recursos
Actualmente, cuando el agente invitado está habilitado, cada VM registra un observador independiente en el servidor de la API. Por lo tanto, la cantidad de observadores registrados en kube-apiserver aumenta de manera lineal con la cantidad de VMs. Según las cargas de trabajo que ejecutes, es posible que encuentres problemas relacionados con kube-apiserver a medida que aumenta la cantidad de VMs. Si este problema te afecta, puedes configurar kube-apiserver o inhabilitar el agente invitado si no lo usas.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-12-18 (UTC)"],[],[],null,["This page provides basic scaling information for VMs running on an installation\nof Google Distributed Cloud (software only) on bare metal. The information\nprovided doesn't indicate hard limits or guaranteed thresholds for the product\nor your installation. The information is intended to help you determine whether\nVM Runtime on GDC can meet your computing requirements.\n\nFor information about quotas, limits, and scaling for Google Distributed Cloud,\nsee [Quotas and limits](/kubernetes-engine/distributed-cloud/bare-metal/docs/limits).\n\nMaximum VM scaling\n\nWe have determined through extensive testing that you can run reliably as many\nas 500 VMs concurrently on a cluster with 50 nodes.\n\nResource usage\n\nTo scale up VM deployments, make sure there are enough CPU, memory, and storage\nresources in the cluster for both VMs and the control plane components. For\nstandard resource requirements for cluster node machines, see\n[Cluster node machine prerequisites](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/node-machine-prerequisites).\n\nNote the following VM Runtime on GDC resource usage for our maximum VM\nscaling configuration:\n\n- Total CPU share used by all the components in the `vm-system` namespace is approximately **1.3** at the peak usage.\n- Total memory consumed by all the components in the `vm-system` namespace is approximately **10 GiB**.\n\nKnown resource issue\n\nWhen the [guest agent is enabled](/kubernetes-engine/distributed-cloud/bare-metal/docs/vm-runtime/connect-vms#enable-agent),\neach VM registers a separate watcher to the API server. Therefore, the number of registered watchers in `kube-apiserver` increases linearly with the number of the VMs. Depending on the workloads you run, you may\nencounter issues related to `kube-apiserver` as the number of VMs increases. If\nyou're affected by this issue, you can configure the `kube-apiserver` or\n[disable the guest agent](/kubernetes-engine/distributed-cloud/bare-metal/docs/vm-runtime/connect-vms#disable-guest) if\nyou aren't using it."]]