Risoluzione dei problemi relativi ai nodi single-tenant
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Linux
Windows
Questa pagina descrive come risolvere alcuni potenziali problemi che potrebbero verificarsi durante l'utilizzo dei nodi single-tenant.
Limitazione delle dimensioni dei gruppi di nodi
Problema: le dimensioni di un gruppo di nodi sono limitate a 100.
Soluzione: crea più gruppi di nodi e utilizza la stessa etichetta di affinità per ciascun gruppo di nodi. Successivamente, quando pianifichi le VM su questi gruppi di nodi, utilizza l'etichetta di affinità che hai assegnato ai gruppi di nodi.
Errori di pianificazione delle VM
Problema: non è possibile pianificare una VM su un nodo single-tenant.
Soluzione:
Non puoi pianificare una VM single-tenant se nella zona non è presente un nodo corrispondente alla specifica di affinità o anti-affinità della VM. Verifica di aver specificato le etichette di affinità corrette. Inoltre, verifica di non aver specificato etichette di affinità in conflitto.
Se utilizzi la policy di manutenzione Riavvia in loco, controlla che l'impostazione OnHostMaintenance della VM sia terminate.
Se utilizzi la policy di manutenzione Esegui la migrazione all'interno del gruppo di nodi, verifica di pianificare le VM su un gruppo di nodi, non su un nodo specifico o utilizzando un'etichetta di affinità.
Verifica che il nome del nodo specificato corrisponda al nome di un nodo nella zona.
Verifica che il nome del gruppo di nodi specificato corrisponda al nome di un gruppo di nodi nella zona.
Non puoi pianificare una VM single-tenant se la piattaforma CPU minima della VM (--min-cpu-platform) è impostata su un valore diverso da AUTOMATIC.
Tenancy delle VM
Problema: non è possibile spostare una VM in un nodo single-tenant.
Problema: non è possibile attivare il gestore della scalabilità automatica del gruppo di nodi.
Soluzione: puoi attivare il gestore della scalabilità automatica del gruppo di nodi solo se imposti la policy di manutenzione del gruppo di nodi su Predefinita.
Problema: vuoi conservare i nodi già prenotati con la policy di manutenzione Esegui la migrazione all'interno del gruppo di nodi.
Soluzione: quando utilizzi la policy di manutenzione Esegui la migrazione all'interno del gruppo di nodi, imposta il gestore della scalabilità automatica del gruppo di nodi in modo che faccia solo lo scale out, che aggiunge nodi al gruppo quando è necessaria una maggiore capacità.
Problema: quota di CPU esaurita nella regione.
Soluzione: la scalabilità automatica potrebbe non riuscire se hai esaurito la quota di CPU nella regione, se il numero di nodi in un gruppo è pari al numero massimo consentito o se si è verificato un problema di fatturazione. A seconda dell'errore, potresti dover richiedere un aumento della quota di CPU o creare un nuovo gruppo di nodi single-tenant.
Utilizzo del modello Bring Your Own License (BYOL)
Problema: configurazione della policy di manutenzione Riavvia in loco.
Soluzione: se utilizzi la policy di manutenzione Riavvia in loco, imposta OnHostMaintenanceSetting della VM su terminate.
Problema: pianificazione delle VM su gruppi di nodi con la policy di manutenzione Esegui la migrazione all'interno del gruppo di nodi.
Soluzione:
Pianifica le VM su un gruppo di nodi, non su un nodo specifico o utilizzando un'etichetta di affinità personalizzata.
Crea 2 nodi e abilita il gestore della scalabilità automatica. In caso contrario, se crei un gruppo di nodi di dimensione 1, il nodo viene riservato per l'holdback.
Problemi di capacità
Problema: capacità insufficiente su un nodo o in un gruppo di nodi.
Soluzione:
Se ripianifichi una VM su un nodo che pianifica le VM in parallelo,
in rare situazioni la capacità potrebbe non essere sufficiente.
Se ripianifichi una VM su un nodo in un gruppo di nodi per cui non hai attivato la scalabilità automatica, la capacità potrebbe non essere sufficiente.
Se ripianifichi una VM su un nodo in un gruppo di nodi su cui hai attivato la scalabilità automatica, ma hai superato la quota di CPU, la capacità potrebbe non essere sufficiente.
Overcommit della CPU
Problema: viene visualizzato un errore che indica che non è stato specificato alcun gruppo di nodi single-tenant quando imposti il valore per il numero minimo di CPU:
Invalid value for field 'resource.scheduling.minNodeCpus': '2'. Node virtual
CPU count may only be specified for sole-tenant instances.
Soluzione: specifica un gruppo di nodi single-tenant quando imposti il valore per il numero minimo di CPU.
Problema: viene visualizzato un errore che indica che il totale del numero minimo di CPU per tutte le VM single-tenant su un nodo è superiore alla capacità di CPU del tipo di nodo.
Node virtual CPU count must not be greater than the guest virtual CPU count.
No feasible nodes found for the instance given its node affinities and other
constraints.
Soluzione: specifica i valori del numero minimo di CPU per ogni VM in modo che il totale di tutte le VM non superi il numero di CPU specificato dal tipo di nodo single-tenant.
Problema: viene visualizzato un errore che indica che il numero totale di CPU specificato dai tipi di macchine per tutte le VM su un nodo è più del doppio rispetto al numero minimo di CPU specificato per tutte le VM su un nodo.
Guest virtual CPU count must not be greater than [~2.0] times the node
virtual CPU count.
Soluzione: aumenta il valore del numero minimo di CPU per le VM su questo nodo fino a quando il numero minimo totale di CPU non è maggiore o uguale alla metà del valore del numero totale di CPU determinato dai tipi di macchine.
Problema: viene visualizzato un errore che indica che il valore del numero minimo di CPU non è un numero pari maggiore o uguale a 2.
Invalid value for field 'resource.scheduling.minNodeCpus': '3'. Node virtual
CPU count must be even.
Soluzione: specifica un valore per il numero minimo di CPU che sia un numero pari maggiore o uguale a 2.
GPU
Problema: viene visualizzato un errore che indica che la creazione dell'istanza non è riuscita a causa dell'incompatibilità delle proprietà del nodo.
Instance could not be scheduled due to no matching node with property compatibility.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-08-04 UTC."],[[["\u003cp\u003eSole-tenant node groups are limited to a maximum size of 100 nodes, but you can work around this by creating multiple groups with the same affinity label and then scheduling VMs based on that label.\u003c/p\u003e\n"],["\u003cp\u003eIf you encounter VM scheduling failures on sole-tenant nodes, check for proper affinity label specifications, \u003ccode\u003eOnHostMaintenance\u003c/code\u003e settings, correct node and node group names, and ensure that the minimum CPU platform is set to \u003ccode\u003eAUTOMATIC\u003c/code\u003e.\u003c/p\u003e\n"],["\u003cp\u003eTo move a VM to a sole-tenant node, ensure that the VM's minimum CPU platform specification is removed by setting it to \u003ccode\u003eAUTOMATIC\u003c/code\u003e, as sole-tenant nodes cannot have this specification set.\u003c/p\u003e\n"],["\u003cp\u003eThe node group autoscaler can only be enabled when the node group maintenance policy is set to the \u003cstrong\u003eDefault\u003c/strong\u003e maintenance policy, and if using the \u003cstrong\u003eMigrate within node group\u003c/strong\u003e policy, the autoscaler should only be set to scale out to avoid issues with reserved nodes.\u003c/p\u003e\n"],["\u003cp\u003eWhen overcommitting CPUs, ensure that the minimum number of CPUs specified for each VM in a sole-tenant node group adheres to the rules, including being an even number greater than or equal to 2, and that their total does not exceed the total CPU capacity of the node type.\u003c/p\u003e\n"]]],[],null,["Linux Windows\n\n*** ** * ** ***\n\nThis page describes how to troubleshoot some potential issues that might occur\nwhile using [sole-tenant nodes](/compute/docs/nodes/sole-tenant-nodes).\n\nNode group size limitation\n\n- **Problem**: Size of a node group is limited to 100.\n\n - **Solution**: Create multiple node groups and use the same affinity label for each node group. Then, when scheduling VMs on these node groups, use the affinity label you assigned to the node groups.\n\nVM scheduling failures\n\n- **Problem**: Can't schedule a VM on a sole-tenant node.\n\n - **Solution**:\n\n - You can't schedule a sole-tenant VM if there's no node in the zone\n that matches the VM's [affinity or anti-\n affinity](/compute/docs/nodes#node_affinity_and_anti-affinity)\n specification. Check that you have specified the correct affinity\n labels. Also, check that you have not specified any conflicting affinity\n labels.\n\n - If you are using the restart in place maintenance policy, check that\n the VM's `OnHostMaintenance` setting is set to `terminate`.\n\n - If you are using the migrate within node group maintenance policy,\n check that you are scheduling VMs on a node group, not a specific node\n or by using an affinity label.\n\n - Check that the specified node name matches the name of a node in the\n zone.\n\n - Check that the specified node group name matches the name of a node\n group in the zone.\n\n - You can't schedule a sole-tenant VM if the VM's minimum CPU platform\n (`--min-cpu-platform`) is set to any value other than `AUTOMATIC`.\n\nVM tenancy\n\n- **Problem**: Can't move a VM to a sole-tenant node.\n\n - **Solution**:\n\n - A VM instance with a specified [minimum CPU\n platform](/compute/docs/instances/specify-min-cpu-platform) can't be\n moved to a sole-tenant node by updating VM tenancy. To move a VM to a\n sole-tenant node,\n [remove the minimum CPU platform specification by\n setting it to `automatic`](/compute/docs/instances/specify-min-cpu-platform).\n\n - Because each sole-tenant node uses a [specific CPU\n platform](/compute/docs/nodes#node_types), all VMs running on the node\n cannot specify a minimum CPU platform. Before you can move a VM to a\n sole-tenant node by [updating its tenancy](/compute/docs/nodes/updating-vm-tenancy), you must set the VM's [`--min-cpu-platform`\n flag](/sdk/gcloud/reference/compute/instances/update#--min-cpu-platform)\n to `AUTOMATIC`.\n\nAutoscaling node groups\n\n- **Problem**: Can't enable the node group autoscaler.\n\n - **Solution** : You can only enable the node group autoscaler when you set the node group maintenance policy to the **Default** maintenance policy.\n- **Problem**: Want to retain already reserved nodes with the migrate within\n node group maintenance policy.\n\n - **Solution** : When using the **Migrate within node group** maintenance policy, set the node group autoscaler to only scale out, which adds nodes to the node group when it needs extra capacity.\n- **Problem**: No remaining CPU quota in the region.\n\n - **Solution**: Autoscaling might fail if you have no remaining CPU quota in the region, the number of nodes in a group is at the maximum number allowed, or there was a billing issue. Depending on the error, you might need to request an increase in CPU quota or create a new sole-tenant node group.\n\nBringing your own licenses (BYOL)\n\n- **Problem**: Configuring the restart in-place maintenance policy.\n\n - **Solution** : If using the restart in-place maintenance policy, set the VM's `OnHostMaintenanceSetting` to `terminate`.\n- **Problem**: Scheduling VMs on node groups with the migrate within node group\n maintenance policy.\n\n - **Solution**:\n\n - Schedule VMs onto a node group, not on a specific node or by using a\n customized affinity label.\n\n - Create 2 nodes and enable the autoscaler; otherwise, if you create a\n node group of size 1, the node is reserved for holdback.\n\nCapacity issues\n\n- **Problem**: Not enough capacity on a node or in a node group.\n\n - **Solution**:\n\n - If you reschedule a VM onto a node that is scheduling VMs in parallel,\n in rare situations there might not be capacity.\n\n - If you reschedule a VM onto a node in a node group on which you\n haven't enabled\n [autoscaling](/compute/docs/nodes/autoscaling-node-groups),\n there might not be capacity.\n\n - If you reschedule a VM onto a node in a node group on which you have\n enabled autoscaling but have exceeded your CPU quota, there might not be\n capacity.\n\nCPU overcommit\n\n- **Problem**: An error indicating that no sole-tenant node group was specified\n when you set the value for the minimum number of CPUs:\n\n ```\n Invalid value for field 'resource.scheduling.minNodeCpus': '2'. Node virtual\n CPU count may only be specified for sole-tenant instances.\n ```\n - **Solution**: Specify a sole-tenant node group when setting the value for the minimum number of CPUs\n- **Problem**: An error indicating that the total of the minimum number of CPUs\n for all sole-tenant VMs on a node is greater than the CPU capacity of the node\n type.\n\n ```\n Node virtual CPU count must not be greater than the guest virtual CPU count.\n ``` \n\n ```\n No feasible nodes found for the instance given its node affinities and other\n constraints.\n ```\n - **Solution**: Specify values for the minimum number of CPUs for each VM so that the total for all VMs does not exceed the number of CPUs specified by the sole-tenant node type.\n- **Problem**: An error indicating that the total number of CPUs specified by\n the machine types for all VMs on a node is more than twice the minimum number of\n CPUs specified for all VMs on a node.\n\n ```\n Guest virtual CPU count must not be greater than [~2.0] times the node\n virtual CPU count.\n ```\n - **Solution**: Increase the value for the minimum number of CPUs for VMs on this node until the total minimum number of CPUs is greater than or equal to half the value for the total number of CPUs determined by the machine types.\n- **Problem**: An error indicating that the value for the minimum number of CPUs\n is not an even number greater than or equal to 2.\n\n ```\n Invalid value for field 'resource.scheduling.minNodeCpus': '3'. Node virtual\n CPU count must be even.\n ```\n - **Solution**: Specify a value for the minimum number of CPUs that is an even number greater than or equal to 2.\n\nGPUs\n\n- **Problem**: An error indicating that instance creation failed because of\n node property incompatibility.\n\n ```\n Instance could not be scheduled due to no matching node with property compatibility.\n ```\n - **Solution** : GPU-enabled sole-tenant nodes only support VMs that have GPUs attached. To resolve this issue, [Provision a sole-tenant VM](/compute/docs/nodes/provisioning-sole-tenant-vms#provision_a_sole-tenant_vm) with GPUs.\n\nWhat's next\n\n- [Provisioning VMs on sole-tenant nodes](/compute/docs/nodes/provisioning-sole-tenant-vms)\n\n- [Bringing your own licenses](/compute/docs/nodes/bringing-your-own-licenses)\n\n- [Analyzing sole-tenant node usage](/compute/docs/nodes/determining-server-usage)\n\n- [Autoscaling node groups](/compute/docs/nodes/autoscaling-node-groups)\n\n- [Overcommitting CPUs on sole-tenant VMs](/compute/docs/nodes/overcommitting-cpus-sole-tenant-vms)\n\n- [Updating VM tenancy](/compute/docs/nodes/updating-vm-tenancy)"]]