Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta página, você encontra informações básicas sobre escalonamento de VMs em execução no
Google Distributed Cloud. As informações fornecidas não indicam limites rígidos
ou garantidos para o produto ou sua instalação. As informações
servem para determinar se o ambiente de execução de VMs no GDC atende
aos seus requisitos de computação.
Para informações sobre cotas, limites e escalonamento do Google Distributed Cloud,
consulte Cotas e limites.
Escalonamento máximo de VMs
Determinamos, usando testes extensivo, que é possível executar de maneira confiável até
500 VMs simultaneamente em um Google Distributed Cloud com 50 nós.
Uso de recursos
Para escalonar verticalmente as implantações de VM, verifique se há recursos suficientes de CPU, memória e armazenamento
no cluster para as VMs e os componentes do plano de controle. Para
ver os requisitos de recursos padrão das máquinas de nós de cluster, consulte
Pré-requisitos da máquina de nó do cluster.
Observe o seguinte uso de recursos do ambiente de execução de VMs no GDC da configuração máxima de escalonamento de VMs.
O compartilhamento total de CPU usado por todos os componentes no namespace vm-system é de
aproximadamente 1,3 no pico de uso.
A memória total consumida por todos os componentes no namespace vm-system é de
aproximadamente 10 GiB.
Problema de recurso conhecido
Atualmente, quando o agente convidado está ativado,
cada VM registra um inspetor separado no servidor da API. Portanto, o número de inspetores registrados em kube-apiserver aumenta de maneira linear com o número de VMs. Dependendo das cargas de trabalho executadas, é possível
encontrar problemas relacionados a kube-apiserver conforme o número de VMs aumenta. Se
isso for afetado por esse problema, configure o kube-apiserver ou
desative o agente convidado se
ele não estiver sendo usado.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-11-21 UTC."],[],[],null,["This page provides basic scaling information for VMs running on an installation\nof Google Distributed Cloud (software only) on bare metal. The information\nprovided doesn't indicate hard limits or guaranteed thresholds for the product\nor your installation. The information is intended to help you determine whether\nVM Runtime on GDC can meet your computing requirements.\n\nFor information about quotas, limits, and scaling for Google Distributed Cloud,\nsee [Quotas and limits](/kubernetes-engine/distributed-cloud/bare-metal/docs/limits).\n\nMaximum VM scaling\n\nWe have determined through extensive testing that you can run reliably as many\nas 500 VMs concurrently on a cluster with 50 nodes.\n\nResource usage\n\nTo scale up VM deployments, make sure there are enough CPU, memory, and storage\nresources in the cluster for both VMs and the control plane components. For\nstandard resource requirements for cluster node machines, see\n[Cluster node machine prerequisites](/kubernetes-engine/distributed-cloud/bare-metal/docs/installing/node-machine-prerequisites).\n\nNote the following VM Runtime on GDC resource usage for our maximum VM\nscaling configuration:\n\n- Total CPU share used by all the components in the `vm-system` namespace is approximately **1.3** at the peak usage.\n- Total memory consumed by all the components in the `vm-system` namespace is approximately **10 GiB**.\n\nKnown resource issue\n\nWhen the [guest agent is enabled](/kubernetes-engine/distributed-cloud/bare-metal/docs/vm-runtime/connect-vms#enable-agent),\neach VM registers a separate watcher to the API server. Therefore, the number of registered watchers in `kube-apiserver` increases linearly with the number of the VMs. Depending on the workloads you run, you may\nencounter issues related to `kube-apiserver` as the number of VMs increases. If\nyou're affected by this issue, you can configure the `kube-apiserver` or\n[disable the guest agent](/kubernetes-engine/distributed-cloud/bare-metal/docs/vm-runtime/connect-vms#disable-guest) if\nyou aren't using it."]]