Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Los clústeres de nodo único son clústeres de Dataproc con un solo nodo. Este nodo único actúa como el principal y el trabajador para tu clúster de Dataproc. Si bien los clústeres de nodo único solo tienen un nodo, se siguen aplicando la mayoría de las características y conceptos de Dataproc, excepto aquellos que se enumeran a continuación.
A continuación, se detallan algunas situaciones donde los clústeres de Dataproc de nodo único pueden ser útiles:
Probar versiones nuevas de Spark y Hadoop o cualquier otro componente de código abierto
Compilar demostraciones de prueba de concepto (PoC)
Ciencia de datos básica
Procesamiento de datos no críticos de pequeña escala
Educación relacionada con el ecosistema de Spark y Hadoop
Semántica del clúster de nodo único
Se aplica la siguiente semántica a los clústeres de Dataproc de nodo único:
Los clústeres de nodo único se configuran de la misma manera que los clústeres de Dataproc de varios nodos e incluyen servicios como HDFS y YARN.
Los clústeres de nodo único muestran 0 trabajadores, ya que el nodo único actúa como principal y trabajador.
Los clústeres de nodo único reciben nombres de host que siguen el patrón clustername-m.
Puedes usar este nombre de host para establecer una conexión SSH o una conexión a una IU web en el nodo.
Los clústeres de nodo único no se pueden actualizar a clústeres de varios nodos. Una vez creados, los clústeres de nodo único se limitan a un solo nodo. De manera similar, los clústeres de varios nodos no se pueden reducir a clústeres de nodo único.
Limitaciones
No se recomienda usar clústeres de nodo único para el procesamiento de datos en paralelo a gran escala. Si excedes los recursos en un clúster de nodo único, se recomienda un clúster de Dataproc de varios nodos.
Los clústeres de nodo único no están disponibles con alta disponibilidad, ya que solo hay un nodo en el clúster.
Puedes crear un clúster de Dataproc de un solo nodo con la herramienta de línea de comandos de gcloud. Para crear un clúster de nodo único, pasa la marca --single-node al comando gcloud dataproc clusters create.
Agrega la propiedad "dataproc:dataproc.allow.zero.workers":"true" a la SoftwareConfig de la solicitud del clúster.
No envíes valores para workerConfig y secondaryWorkerConfig (consulta ClusterConfig).
Console
Puedes crear un clúster de nodo único si seleccionas "Nodo único (1 principal, 0 trabajadores)" en la sección Tipo de clúster del panel Configurar clúster en la página Crear un clúster de Dataproc.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eSingle node Dataproc clusters utilize a single node as both the master and worker, simplifying cluster management for certain use cases.\u003c/p\u003e\n"],["\u003cp\u003eThese clusters are useful for tasks like testing new Spark/Hadoop versions, creating proof-of-concept demos, lightweight data science, small-scale data processing, and educational purposes.\u003c/p\u003e\n"],["\u003cp\u003eWhile most Dataproc features apply, single node clusters lack high-availability and do not support preemptible VMs or scaling to multi-node setups.\u003c/p\u003e\n"],["\u003cp\u003eSingle node clusters can be created using the \u003ccode\u003egcloud\u003c/code\u003e command-line tool with the \u003ccode\u003e--single-node\u003c/code\u003e flag, the Dataproc REST API with specific configurations, or the Google Cloud console by choosing the "Single Node" cluster type.\u003c/p\u003e\n"],["\u003cp\u003eSingle node clusters are not suitable for large-scale data processing, as they are limited by the resources of a single node.\u003c/p\u003e\n"]]],[],null,["Single node clusters are Dataproc clusters with only one node. This single\nnode acts as the master and worker for your\nDataproc cluster. While single\nnode clusters only have one node, most Dataproc concepts and features\nstill apply, except those [listed below](#limitations).\n\nThere are a number of situations where single node Dataproc clusters can\nbe useful, including:\n\n- Trying out new versions of Spark and Hadoop or other open source components\n- Building proof-of-concept (PoC) demonstrations\n- Lightweight data science\n- Small-scale non-critical data processing\n- Education related to the Spark and Hadoop ecosystem\n\nSingle node cluster semantics\n\nThe following semantics apply to single node Dataproc clusters:\n\n- Single node clusters are configured the same as multi node Dataproc clusters, and include services such as HDFS and YARN.\n- Single node clusters report as master nodes for [initialization actions](/dataproc/docs/concepts/configuring-clusters/init-actions).\n- Single node clusters show 0 workers since the single node acts as both master and worker.\n- Single node clusters are given hostnames that follow the pattern `clustername-m`. You can use this hostname to SSH into or connect to a [web UI](/dataproc/docs/concepts/accessing/cluster-web-interfaces) on the node.\n- Single node clusters cannot be upgraded to multi node clusters. Once created, single node clusters are restricted to one node. Similarly, multi node clusters cannot be scaled down to single node clusters.\n\nLimitations\n\n- Single node clusters are not recommended for large-scale parallel data\n processing. If you exceed the resources on a single node cluster, a multi node\n Dataproc cluster is recommended.\n\n- Single node clusters are not available with\n [high-availability](/dataproc/docs/concepts/configuring-clusters/high-availability)\n since there is only one node in the cluster.\n\n- Single node clusters cannot use [preemptible VMs](/dataproc/docs/concepts/compute/preemptible-vms).\n\nCreate a single node cluster \n\ngcloud command\n\n\nYou can create a single node Dataproc cluster using the `gcloud`\ncommand-line tool. To create a single node cluster, pass the\n`--single-node` flag to the\n[`gcloud dataproc clusters create`](/sdk/gcloud/reference/dataproc/clusters/create)\ncommand. \n\n```\ngcloud dataproc clusters create cluster-name \\\n --region=region \\\n --single-node \\\n ... other args\n```\n\n\u003cbr /\u003e\n\nREST API\n\n\nYou can create a single node cluster through the\n[Dataproc REST API](/dataproc/docs/reference/rest) using a\n[clusters.create](/dataproc/docs/reference/rest/v1/projects.regions.clusters/create)\nrequest. When making this request, you must:\n\n1. Add the property `\"dataproc:dataproc.allow.zero.workers\":\"true\"` to the [SoftwareConfig](/dataproc/docs/reference/rest/v1/ClusterConfig#SoftwareConfig) of the cluster request.\n2. Don't submit values for `workerConfig` and `secondaryWorkerConfig` (see [ClusterConfig](/dataproc/docs/reference/rest/v1/ClusterConfig)).\n\n| To examine and construct the JSON body of a Dataproc API clusters create request, open the Dataproc [Create a cluster](https://console.cloud.google.com/dataproc/clustersAdd) page, fill in the applicable fields, then click the **Equivalent REST** button at the bottom of the left panel to view the POST request with the completed JSON request body.\n\n\u003cbr /\u003e\n\nConsole\n\n\nYou can create a single node cluster by selecting \"Single Node\n(1 master, 0 workers)\" on the Cluster type section of\nthe Set up cluster panel on the Dataproc\n[Create a cluster](https://console.cloud.google.com/dataproc/clustersAdd)\npage."]]