Usar Dataproc Hub


Objetivos

  1. Usa Dataproc Hub para crear un entorno de notebook de JupyterLab de un solo usuario que se ejecute en un clúster de Dataproc.

  2. Crear un notebook y ejecuta un trabajo de Spark en el clúster de Dataproc.

  3. Borrar tu clúster y conserva tu notebook en Cloud Storage.

Antes de comenzar

  1. El administrador debe otorgarte el permiso notebooks.instances.use (consulta Configura funciones de Identity and Access Management (IAM)).

Crea un clúster de JupyterLab de Dataproc desde Dataproc Hub

  1. Selecciona la pestaña Notebooks administrados por el usuario en la página Dataproc→Workbench de la consola de Google Cloud.

  2. Haz clic en Abrir JupyterLab en la fila que muestra la instancia de Dataproc Hub que creó el administrador.

    1. Si no tienes acceso a la consola de Google Cloud, ingresa la URL de la instancia de Dataproc Hub que un administrador compartió contigo en tu navegador web.
  3. En la página Jupyterhub→Opciones de Dataproc, selecciona una configuración y una zona de clúster. Si está habilitada, especifica las personalizaciones y, luego, haz clic en Crear.

    Después de crear el clúster de Dataproc, se te redireccionará a la interfaz de JupyterLab que se ejecuta en el clúster.

Crea un notebook y ejecuta un trabajo de Spark

  1. En el panel izquierdo de la interfaz de JupyterLab, haz clic en GCS (Cloud Storage).

  2. Crea un notebook de PySpark desde el selector de JupyterLab.

  3. El kernel de PySpark inicializa un SparkContext (mediante la variable sc). Puedes examinar SparkContext y ejecutar un trabajo de Spark desde el notebook.

    rdd = (sc.parallelize(['lorem', 'ipsum', 'dolor', 'sit', 'amet', 'lorem'])
           .map(lambda word: (word, 1))
           .reduceByKey(lambda a, b: a + b))
    print(rdd.collect())
    
  4. Asigna un nombre y guarda el notebook. El notebook se guarda y permanece en Cloud Storage después de que se borra el clúster de Dataproc.

Cierra el clúster de Dataproc

  1. Desde la interfaz de JupyterLab, selecciona Archivo→Panel de control del concentrador para abrir la página de Jupyterhub.

  2. Haz clic en Detener mi clúster para cerrar (borrar) el servidor de JupyterLab, que borra el clúster de Dataproc.

¿Qué sigue?