Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Un grupo de nodos es un conjunto de nodos dentro de un clúster de Kubernetes que tienen la misma configuración. Los grupos de nodos usan una especificación NodePool. Cada nodo del grupo tiene una etiqueta de nodo de Kubernetes, que tiene el nombre del grupo de nodos como valor.
De forma predeterminada, todos los grupos de nodos nuevos ejecutan la misma versión de Kubernetes que el plano de control.
Cuando creas un clúster de Kubernetes, la cantidad y el tipo de nodos que especificas crean el primer grupo de nodos del clúster. Puedes agregar grupos de nodos adicionales de diferentes tamaños y tipos a tu clúster. Todos los nodos en un grupo de nodos determinado son idénticos entre sí.
Los grupos de nodos personalizados son útiles cuando se programan pods que requieren más recursos que otros, como más memoria o espacio en el disco local. Puedes usar taints de nodos si necesitas más control sobre la programación de los pods.
Puedes crear y borrar grupos de nodos de forma individual sin afectar a todo el clúster. No puedes configurar un solo nodo en un grupo de nodos. Todos los cambios en la configuración afectan a todos los nodos del grupo de nodos.
Puedes cambiar el tamaño de los grupos de nodos en un clúster aumentando o disminuyendo la escala del grupo. Reducir la escala de un grupo de nodos es un proceso automatizado en el que se disminuye el tamaño del grupo y el sistema de GDC automáticamente vacía y expulsa un nodo arbitrario. No puedes seleccionar un nodo específico para quitarlo cuando reduces la escala de un grupo de nodos.
Antes de comenzar
Para ver y administrar grupos de nodos en un clúster de Kubernetes, debes tener los siguientes roles:
Administrador del clúster de usuario (user-cluster-admin)
Visualizador de nodos del clúster de usuario (user-cluster-node-viewer)
Estos roles no están vinculados a un espacio de nombres.
Agregue un grupo de nodos
Cuando creas un clúster de Kubernetes desde la consola de GDC, puedes personalizar el grupo de nodos predeterminado y crear grupos de nodos adicionales antes de que se inicialice la creación del clúster. Si debes agregar un grupo de nodos a un clúster de Kubernetes existente, completa los siguientes pasos:
Console
En el menú de navegación, selecciona Kubernetes Engine > Clústeres.
Haz clic en el clúster de la lista. Se muestra la página Detalles del clúster.
Selecciona Grupos de nodos > Agregar grupo de nodos.
Asigna un nombre al grupo de nodos. No puedes modificar el nombre después de crear el grupo de nodos.
Especifica la cantidad de nodos trabajadores que se crearán en el grupo de nodos.
Selecciona la clase de máquina que mejor se adapte a los requisitos de tu carga de trabajo. Las clases de máquinas se muestran en los siguientes parámetros de configuración:
Tipo de máquina
CPU virtual
Memoria
Haz clic en Guardar.
API
Abre la especificación del recurso personalizado Cluster con la CLI de kubectl usando el editor interactivo:
KUBERNETES_CLUSTER_NAME: Es el nombre del clúster.
MANAGEMENT_API_SERVER: Es la ruta de kubeconfig del servidor de la API zonal en la que se aloja el clúster de Kubernetes. Si aún no generaste un archivo kubeconfig para el servidor de la API en tu zona de destino, consulta Accede para obtener más detalles.
MACHINE_TYPE: Es el tipo de máquina para los nodos trabajadores del grupo de nodos. Consulta los tipos de máquinas disponibles para ver qué se puede configurar.
NODE_POOL_NAME: Es el nombre del grupo de nodos.
NUMBER_OF_WORKER_NODES: Es la cantidad de nodos trabajadores que se aprovisionarán en el grupo de nodos.
TAINTS: Son los taints que se aplicarán a los nodos de este grupo de nodos. Este paso es opcional,
LABELS: Son las etiquetas que se aplicarán a los nodos de este grupo de nodos. Contiene una lista de pares clave-valor. Este campo es opcional.
GPU_PARTITION_SCHEME: Esquema de partición de GPU, si ejecutas cargas de trabajo de GPU. Por ejemplo, mixed-2 La GPU no se particiona si no se configura este campo. Para conocer los perfiles de GPU multiinstancia (MIG) disponibles, consulta Perfiles de MIG compatibles.
Guarda el archivo y sal del editor.
Visualiza grupos de nodos
Para ver los grupos de nodos existentes en un clúster de Kubernetes, completa los siguientes pasos:
Console
En el menú de navegación, selecciona Kubernetes Engine > Clústeres.
Haz clic en el clúster de la lista. Se muestra la página Detalles del clúster.
Selecciona Grupos de nodos.
Se muestra la lista de grupos de nodos que se ejecutan en el clúster. En esta página, puedes administrar los grupos de nodos del clúster.
API
Visualiza los grupos de nodos de un clúster de Kubernetes específico:
Cuando se borra un grupo de nodos, se borran los nodos y las rutas a ellos. Estos nodos expulsan y reprograman los pods que se ejecutan en ellos. Si los Pods tienen selectores de nodo específicos, pueden mantenerse en una condición no programable si ningún otro nodo en el clúster cumple con los criterios.
Asegúrate de tener al menos tres nodos trabajadores antes de borrar un grupo de nodos para garantizar que tu clúster tenga suficiente espacio de procesamiento para ejecutarse de manera eficaz.
Para borrar un grupo de nodos, completa los siguientes pasos:
Console
En el menú de navegación, selecciona Kubernetes Engine > Clústeres.
Haz clic en el clúster que aloja el grupo de nodos que deseas borrar.
Selecciona Grupos de nodos.
Haz clic en deleteBorrar junto al grupo de nodos que deseas borrar.
API
Abre la especificación del recurso personalizado Cluster con la CLI de kubectl usando el editor interactivo:
KUBERNETES_CLUSTER_NAME: Es el nombre del clúster.
MANAGEMENT_API_SERVER: Es la ruta de kubeconfig del servidor de la API zonal en la que se aloja el clúster de Kubernetes. Si aún no generaste un archivo kubeconfig para el servidor de la API en tu zona de destino, consulta Accede para obtener más detalles.
Quita la entrada del grupo de nodos de la sección nodePools. Por ejemplo, en el siguiente fragmento, debes quitar los campos machineTypeName, name y nodeCount:
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eNode pools are groups of identically configured nodes within a Kubernetes cluster, all sharing the same \u003ccode\u003eNodePool\u003c/code\u003e specification and Kubernetes node label.\u003c/p\u003e\n"],["\u003cp\u003eYou can create multiple node pools within a cluster, each with different node sizes and types, which is useful for scheduling pods with specific resource requirements.\u003c/p\u003e\n"],["\u003cp\u003eNode pools can be added, deleted, or resized individually without affecting the entire cluster, and any configuration changes apply to all nodes within the pool.\u003c/p\u003e\n"],["\u003cp\u003eManaging node pools requires specific roles: User Cluster Admin (\u003ccode\u003euser-cluster-admin\u003c/code\u003e) and User Cluster Node Viewer (\u003ccode\u003euser-cluster-node-viewer\u003c/code\u003e).\u003c/p\u003e\n"],["\u003cp\u003eDeleting a worker node pool removes the nodes and routes to them, potentially leaving pods unschedulable if their node selectors are not met by other nodes.\u003c/p\u003e\n"]]],[],null,["# Manage node pools\n\nA *node pool* is a group of nodes within a Kubernetes cluster that all have the same\nconfiguration. Node pools use a `NodePool` specification. Each node in the pool\nhas a Kubernetes node label, which has the name of the node pool as its value.\nBy default, all new node pools run the same version of Kubernetes as the control\nplane.\n\nWhen you create a Kubernetes cluster, the number of nodes and type of nodes that you\nspecify create the first node pool of the cluster. You can add additional node\npools of different sizes and types to your cluster. All nodes in any given node\npool are identical to one another.\n\nCustom node pools are useful when scheduling pods that require more resources\nthan others, such as more memory or local disk space. You can use node taints if\nyou need more control over scheduling the pods.\n\nYou can create and delete node pools individually without affecting the whole\ncluster. You cannot configure a single node in a node pool. Any configuration\nchanges affect all nodes in the node pool.\n\nYou can [resize node pools](/distributed-cloud/hosted/docs/latest/gdch/platform-application/pa-ao-operations/cluster#resize-node-pools)\nin a cluster by upscaling or downscaling the pool. Downscaling a node pool is an\nautomated process where you decrease the pool size and the\nGDC system automatically drains and evicts an arbitrary\nnode. You cannot select a specific node to remove when downscaling a node pool.\n\nBefore you begin\n----------------\n\nTo view and manage node pools in a Kubernetes cluster, you must have the following\nroles:\n\n- User Cluster Admin (`user-cluster-admin`)\n- User Cluster Node Viewer (`user-cluster-node-viewer`)\n\nThese roles are not bound to a namespace.\n\nAdd a node pool\n---------------\n\nWhen creating a Kubernetes cluster from the GDC console, you\ncan customize the default node pool and create additional node pools before the\ncluster creation initializes. If you must add a node pool to an existing Kubernetes\ncluster, complete the following steps: \n\n### Console\n\n1. In the navigation menu, select **Kubernetes Engine \\\u003e Clusters**.\n2. Click the cluster from the cluster list. The **Cluster details** page is displayed.\n3. Select **Node pools \\\u003e Add node pool**.\n4. Assign a name for the node pool. You cannot modify the name after you create the node pool.\n5. Specify the number of worker nodes to create in the node pool.\n6. Select your machine class that best suits your workload requirements. The machine classes show in the following settings:\n - Machine type\n - vCPU\n - Memory\n7. Click **Save**.\n\n### API\n\n1. Open the `Cluster` custom resource spec with the `kubectl` CLI using the\n interactive editor:\n\n kubectl edit clusters.cluster.gdc.goog/\u003cvar translate=\"no\"\u003eKUBERNETES_CLUSTER_NAME\u003c/var\u003e -n platform \\\n --kubeconfig \u003cvar translate=\"no\"\u003eMANAGEMENT_API_SERVER\u003c/var\u003e\n\n Replace the following:\n - \u003cvar translate=\"no\"\u003eKUBERNETES_CLUSTER_NAME\u003c/var\u003e: The name of the cluster.\n - \u003cvar translate=\"no\"\u003eMANAGEMENT_API_SERVER\u003c/var\u003e: The zonal API server's kubeconfig path where the Kubernetes cluster is hosted. If you have not yet generated a kubeconfig file for the API server in your targeted zone, see [Sign in](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/iam/sign-in#cli) for details.\n2. Add a new entry in the `nodePools` section:\n\n nodePools:\n ...\n - machineTypeName: \u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-l devsite-syntax-l-Scalar devsite-syntax-l-Scalar-Plain\"\u003eMACHINE_TYPE\u003c/span\u003e\u003c/var\u003e\n name: \u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-l devsite-syntax-l-Scalar devsite-syntax-l-Scalar-Plain\"\u003eNODE_POOL_NAME\u003c/span\u003e\u003c/var\u003e\n nodeCount: \u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-l devsite-syntax-l-Scalar devsite-syntax-l-Scalar-Plain\"\u003eNUMBER_OF_WORKER_NODES\u003c/span\u003e\u003c/var\u003e\n taints: \u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-l devsite-syntax-l-Scalar devsite-syntax-l-Scalar-Plain\"\u003eTAINTS\u003c/span\u003e\u003c/var\u003e\n labels: \u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-l devsite-syntax-l-Scalar devsite-syntax-l-Scalar-Plain\"\u003eLABELS\u003c/span\u003e\u003c/var\u003e\n acceleratorOptions:\n gpuPartitionScheme: \u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-l devsite-syntax-l-Scalar devsite-syntax-l-Scalar-Plain\"\u003eGPU_PARTITION_SCHEME\u003c/span\u003e\u003c/var\u003e\n\n Replace the following:\n - \u003cvar translate=\"no\"\u003eMACHINE_TYPE\u003c/var\u003e: The machine type for the worker nodes of the node pool. View the [available machine types](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/cluster-node-machines#available-machine-types) for what is available to configure.\n - \u003cvar translate=\"no\"\u003eNODE_POOL_NAME\u003c/var\u003e: The name of the node pool.\n - \u003cvar translate=\"no\"\u003eNUMBER_OF_WORKER_NODES\u003c/var\u003e: The number of worker nodes to provision in the node pool.\n - \u003cvar translate=\"no\"\u003eTAINTS\u003c/var\u003e: The taints to apply to the nodes of this node pool. This is an optional field.\n - \u003cvar translate=\"no\"\u003eLABELS\u003c/var\u003e: The labels to apply to the nodes of this node pool. It contains a list of key-value pairs. This is an optional field.\n - \u003cvar translate=\"no\"\u003eGPU_PARTITION_SCHEME\u003c/var\u003e: The GPU partitioning scheme, if you're running GPU workloads. For example, `mixed-2`. The GPU is not partitioned if this field is not set. For available Multi-Instance GPU (MIG) profiles, see [Supported MIG profiles](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/cluster-node-machines#mig-profiles).\n\n | **Note:** You cannot edit node configurations, such as GPU partitioning, after the node pool is created.\n3. Save the file and exit the editor.\n\nView node pools\n---------------\n\nTo view existing node pools in a Kubernetes cluster, complete the following steps: \n\n### Console\n\n1. In the navigation menu, select **Kubernetes Engine \\\u003e Clusters**.\n2. Click the cluster from the cluster list. The **Cluster details** page is displayed.\n3. Select **Node pools**.\n\nThe list of node pools running in the cluster is displayed. You can manage\nthe node pools of the cluster from this page.\n\n### API\n\n- View the node pools of a specific Kubernetes cluster:\n\n kubectl get clusters.cluster.gdc.goog/\u003cvar translate=\"no\"\u003eKUBERNETES_CLUSTER_NAME\u003c/var\u003e -n platform \\\n -o json --kubeconfig \u003cvar translate=\"no\"\u003eMANAGEMENT_API_SERVER\u003c/var\u003e | \\\n jq .status.workerNodePoolStatuses\n\n The output is similar to the following: \n\n [\n {\n \"conditions\": [\n {\n \"lastTransitionTime\": \"2023-08-31T22:16:17Z\",\n \"message\": \"\",\n \"observedGeneration\": 2,\n \"reason\": \"NodepoolReady\",\n \"status\": \"True\",\n \"type\": \"Ready\"\n },\n {\n \"lastTransitionTime\": \"2023-08-31T22:16:17Z\",\n \"message\": \"\",\n \"observedGeneration\": 2,\n \"reason\": \"ReconciliationCompleted\",\n \"status\": \"False\",\n \"type\": \"Reconciling\"\n }\n ],\n \"name\": \"worker-node-pool\",\n \"readyNodes\": 3,\n \"readyTimestamp\": \"2023-08-31T18:59:46Z\",\n \"reconcilingNodes\": 0,\n \"stalledNodes\": 0,\n \"unknownNodes\": 0\n }\n ]\n\nDelete a node pool\n------------------\n\nDeleting a node pool deletes the nodes and routes to them. These nodes evict and\nreschedule any pods running on them. If the pods have specific node selectors,\nthe pods might remain in a non-schedulable condition if no other node in the\ncluster satisfies the criteria.\n| **Important:** Control plane node pools and load balancer node pools are critical to a cluster's function and consequently can't be removed from a cluster. You can only delete worker node pools.\n\nEnsure you have at least three worker nodes before deleting a node pool to\nensure your cluster has enough compute space to run effectively.\n\nTo delete a node pool, complete the following steps: \n\n### Console\n\n1. In the navigation menu, select **Kubernetes Engine \\\u003e Clusters**.\n\n2. Click the cluster that is hosting the node pool you want to delete.\n\n3. Select **Node pools**.\n\n4. Click *delete* **Delete** next to the node\n pool to delete.\n\n### API\n\n1. Open the `Cluster` custom resource spec with the `kubectl` CLI using the\n interactive editor:\n\n kubectl edit clusters.cluster.gdc.goog/\u003cvar translate=\"no\"\u003eKUBERNETES_CLUSTER_NAME\u003c/var\u003e -n platform \\\n --kubeconfig \u003cvar translate=\"no\"\u003eMANAGEMENT_API_SERVER\u003c/var\u003e\n\n Replace the following:\n - \u003cvar translate=\"no\"\u003eKUBERNETES_CLUSTER_NAME\u003c/var\u003e: The name of the cluster.\n - \u003cvar translate=\"no\"\u003eMANAGEMENT_API_SERVER\u003c/var\u003e: The zonal API server's kubeconfig path where the Kubernetes cluster is hosted. If you have not yet generated a kubeconfig file for the API server in your targeted zone, see [Sign in](/distributed-cloud/hosted/docs/latest/gdch/platform/pa-user/iam/sign-in#cli) for details.\n2. Remove the node pool entry from the `nodePools` section. For example, in\n the following snippet, you must remove the `machineTypeName`, `name`, and\n `nodeCount` fields:\n\n nodePools:\n ...\n - machineTypeName: n2-standard-2-gdc\n name: nodepool-1\n nodeCount: 3\n\n Be sure to remove all fields for the node pool you are deleting.\n3. Save the file and exit the editor."]]