Abilita la derivazione dei dati Spark in Dataproc

Questo documento descrive come attivare la trasparenza dei dati per i job Spark Dataproc a livello di progetto o cluster.

La derivazione dei dati è una funzionalità di Dataplex che consente di monitorare il modo in cui i dati vengono spostati nei sistemi: da dove provengono, dove vengono inviati e a quali trasformazioni sono sottoposti.

La definizione dell'origine dei dati è disponibile per tutti i job Spark di Dataproc tranne per i job SparkR e Spark streaming e supporta le origini dati BigQuery e Cloud Storage. È incluso nelle versioni immagine di Dataproc su Compute Engine 2.0.74 e successive e 2.1.22 e successive.

Dopo aver attivato la funzionalità nel cluster Dataproc, i job Spark di Dataproc acquisiscono gli eventi di eredità dei dati e li pubblicano nell'API Data Lineage di Dataplex. Dataproc si integra con l'API Data Lineage tramite OpenLineage, utilizzando il plug-in Spark OpenLineage.

Puoi accedere alle informazioni sulla derivazione dei dati tramite Dataplex utilizzando quanto segue:

Prima di iniziare

  1. Nella console Google Cloud, nella pagina di selezione del progetto, seleziona il progetto che contiene il cluster Dataproc per cui vuoi monitorare la sequenza.

    Vai al selettore dei progetti

  2. Abilita l'API Data Lineage e l'API Dataplex.

    Abilita le API

Ruoli obbligatori

Per ottenere le autorizzazioni necessarie per utilizzare la cronologia dei dati in Dataproc, chiedi all'amministratore di concederti i seguenti ruoli IAM nell'account di servizio VM del cluster Dataproc:

Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.

Potresti anche riuscire a ottenere le autorizzazioni richieste tramite i ruoli personalizzati o altri ruoli predefiniti.

Abilita la derivazione dei dati Spark a livello di progetto

Puoi attivare la cronologia dei dati di Spark a livello di progetto. Per i job Spark supportati eseguiti su cluster creati dopo l'attivazione della tracciabilità dei dati in un progetto, la tracciabilità dei dati sarà abilitata. Tieni presente che i job eseguiti su cluster esistenti, ovvero cluster creati prima dell'attivazione della concatenazione dei dati a livello di progetto, non avranno la concatenazione dei dati attivata.

Come attivare la consistenza dei dati Spark a livello di progetto

Per attivare la definizione della struttura dei dati di Spark a livello di progetto, imposta i seguenti metadati di progetto personalizzati:

Chiave Valore
DATAPROC_LINEAGE_ENABLED true
DATAPROC_CLUSTER_SCOPES https://www.googleapis.com/auth/cloud-platform

Puoi disattivare la definizione della struttura dei dati di Spark a livello di progetto impostando i metadati DATAPROC_LINEAGE_ENABLED su false.

Attiva la derivazione dei dati Spark a livello di cluster

Puoi attivare la derivazione dei dati Spark quando crei un cluster in modo che tutti i job Spark supportati inviati al cluster abbiano la derivazione dei dati attivata.

Come attivare la derivazione dei dati Spark a livello di cluster

Per attivare la concatenazione dei dati Spark in un cluster, crea un cluster Dataproc con la proprietà del cluster dataproc:dataproc.lineage.enabled impostata su true.

Cluster con versione immagine 2.0: per la concatenazione dei dati Spark è obbligatorio l'cloud-platformambito di accesso alle VM del cluster Dataproc. I cluster con versione immagine Dataproc creati con la versione 2.1 e successive hanno cloud-platform abilitato. Se specifichi la versione dell'immagine Dataproc 2.0 quando crei un cluster, imposta il ambito su cloud-platform.

Esempio di interfaccia a riga di comando gcloud:

gcloud dataproc clusters create CLUSTER_NAME \
    --project PROJECT_ID \
    --region REGION \
    --properties 'dataproc:dataproc.lineage.enabled=true'

Disattivare la derivazione dei dati Spark in un job

Se attivi la concatenazione dei dati Spark a livello di cluster, puoi disattivarla per un job specifico passando la proprietà spark.extraListeners con un valore vuoto ("") quando invii il job.

Una volta abilitato, non puoi disattivare la consistenza dei dati Spark sul cluster. Per eliminare la sequenza di creazione dei dati Spark in tutti i job del cluster, puoi ricreare il cluster senza la proprietà dataproc:dataproc.lineage.enabled.

Invia un job Spark

Quando invii un job Spark su un cluster Dataproc creato con la derivazione dei dati Spark abilitata, Dataproc acquisisce e registra le informazioni sulla derivazione dei dati nell'API Data Lineage.

gcloud dataproc jobs submit spark \
    --cluster=CLUSTER_NAME \
    --project PROJECT_ID \
    --region REGION \
    --class CLASS \
    --jars=gs://APPLICATION_BUCKET/spark-application.jar \
    --properties=spark.openlineage.namespace=CUSTOM_NAMESPACE,spark.openlineage.appName=CUSTOM_APPNAME

Note:

  • L'aggiunta delle proprietà spark.openlineage.namespace e spark.openlineage.appName, che vengono utilizzate per identificare in modo univoco il job, è facoltativa. Se non aggiungi queste proprietà, Dataproc utilizza i seguenti valori predefiniti:
    • Valore predefinito per spark.openlineage.namespace: PROJECT_ID
    • Valore predefinito per spark.openlineage.appName: spark.app.name

Visualizza la derivazione in Dataplex

Un grafico di derivazione mostra le relazioni tra le risorse del progetto e i processi che le hanno create. Puoi visualizzare le informazioni sulla struttura dei dati nella console Google Cloud o recuperarle dall'API Data Lineage sotto forma di dati JSON.

Esempio:

Il seguente job Spark legge i dati da una tabella BigQuery e li scrive in un'altra tabella BigQuery.

#!/usr/bin/env python

from pyspark.sql import SparkSession
import sys

spark = SparkSession \
  .builder \
  .appName('LINEAGE_BQ_TO_BQ') \
  .getOrCreate()

bucket = lineage-ol-test
spark.conf.set('temporaryGcsBucket', bucket)

source = sample.source
words = spark.read.format('bigquery') \
  .option('table', source) \
  .load()
words.createOrReplaceTempView('words')

word_count = spark.sql('SELECT word, SUM(word_count) AS word_count FROM words GROUP BY word')

destination = sample.destination
word_count.write.format('bigquery') \
  .option('table', destination) \
  .save()

Il job Spark crea il seguente grafico della struttura nella UI di Dataplex:

Grafo di derivazione di esempio

Passaggi successivi