Crea un clúster de Dataproc con la consola de Google Cloud
En esta página, se muestra cómo usar la consola de Google Cloud para crear un clúster de Dataproc, ejecutar un trabajo básico de Apache Spark en el clúster y, luego, modificar la cantidad de trabajadores en el clúster.
Para seguir la guía paso a paso en esta tarea directamente en la consola de Google Cloud, haz clic en Guiarme:
Antes de comenzar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataproc API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataproc API.
Crea un clúster
En la consola de Google Cloud, ve a la página Clústeres de Dataproc.
Haga clic en Crear clúster.
En el diálogo Crear clúster de Dataproc, haz clic en Crear en la fila Clúster en Compute Engine.
En el campo Nombre del clúster, ingresa
example-cluster
.En las listas Región y Zona, selecciona una región y una zona.
Selecciona una región (por ejemplo,
us-east1
oeurope-west1
) para aislar los recursos, como las instancias de máquina virtual (VM), Cloud Storage y las ubicaciones de almacenamiento de metadatos que usa Dataproc, en la región. Para obtener más información, consulta Regiones y zonas disponibles y Extremos regionales.Para todas las demás opciones, usa la configuración predeterminada.
Para crear el clúster, haz clic en Crear.
Tu clúster nuevo aparecerá en una lista de la página Clústeres. El estado es Aprovisionando hasta que el clúster esté listo para usarse y, luego, cambia a En ejecución. El aprovisionamiento del clúster puede tardar unos minutos.
Enviar un trabajo de Spark
Envía un trabajo de Spark que estime un valor de pi:
- En el menú de navegación de Dataproc, haz clic en Trabajos.
En la página Trabajos, haz clic en
Enviar trabajo y, luego, haz lo siguiente:- En el campo Clúster, haz clic en Explorar.
- En la fila de
example-cluster
, haz clic en Seleccionar. - En el campo ID de trabajo, usa el parámetro de configuración predeterminado o proporciona un ID que sea único para tu proyecto de Google Cloud.
- En Tipo de trabajo, selecciona Spark.
- En el campo Clase principal o jar, ingresa
org.apache.spark.examples.SparkPi
. - En el campo Archivos JAR, ingresa
file:///usr/lib/spark/examples/jars/spark-examples.jar
. En el campo Arguments, ingresa
1000
para configurar la cantidad de tareas.Haz clic en Enviar.
Tu trabajo se mostrará en la página Detalles del trabajo. El estado del trabajo es Running o Starting y, luego, cambia a Succeeded después de que se envía.
Para evitar el desplazamiento en el resultado, haz clic en Line wrap: off. El resultado es similar al siguiente:
Pi is roughly 3.1416759514167594
Para ver los detalles del trabajo, haz clic en la pestaña Configuración.
Actualiza un clúster
Para actualizar tu clúster, cambia la cantidad de instancias de trabajadores:
- En el menú de navegación, haz clic en Clústeres.
- En la lista de clústeres, haz clic en
example-cluster
. En la página Detalles del clúster, haz clic en la pestaña Configuración.
Se mostrará la configuración de tu clúster.
Haz clic en
Editar.En el campo Nodos trabajadores, ingresa
5
.Haz clic en Guardar.
El clúster ya se actualizó. Para disminuir la cantidad de nodos trabajadores al valor original, sigue el mismo procedimiento.
Limpia
Sigue estos pasos para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos que usaste en esta página.
- En la página Detalles del clúster de
example-cluster
, haz clic en Borrar para borrar el clúster. - Para confirmar que deseas borrar el clúster, haz clic en Borrar.
¿Qué sigue?
- Prueba esta guía de inicio rápido con otras herramientas:
- Aprende a diseñar reglas de firewall sólidas cuando creas un proyecto.
- Obtén información para escribir y ejecutar un trabajo de Spark Scala.