데이터 계보는 시스템을 통해 데이터가 이동하는 방식, 즉 데이터의 출처, 데이터가 전달되는 위치, 데이터에 적용되는 변환을 추적할 수 있는 Dataplex 기능입니다.
데이터 계보는 Dataproc Compute Engine 2.0.74 이상 및 2.1.22 이상 이미지를 통해 SparkR을 제외하고 모든 Dataproc Spark 작업에 사용할 수 있습니다. 계보는 BigQuery 및 Cloud Storage 데이터 소스에 사용할 수 있습니다.
Dataproc 클러스터에서 이 기능을 사용 설정하면 Dataproc Spark 작업이 계보 이벤트를 캡처하여 Dataplex Data Lineage API에 게시합니다. Dataproc은 OpenLineage Spark 플러그인을 사용하여 OpenLineage를 통해 Data Lineage API와 통합됩니다.
다음을 사용하여 Dataplex를 통해 계보 정보에 액세스할 수 있습니다.
제한사항
계보는 다음에서 지원되지 않습니다.
- BigQuery 커넥터 버전 2(Spark의 데이터 소스 API 버전 2)
- Spark 스트리밍 워크로드
시작하기 전에
Google Cloud 콘솔의 프로젝트 선택기 페이지에서 계보를 추적할 Dataproc 클러스터가 포함된 프로젝트를 선택합니다.
Data Lineage API 및 Data Catalog API를 사용 설정합니다.
필요한 역할
Dataproc에서 데이터 계보를 사용하는 데 필요한 권한을 얻으려면 관리자에게 Dataproc 클러스터 VM 서비스 계정에 대해 다음 IAM 역할을 부여해 달라고 요청하세요.
- Data Catalog에서 계보 시각화를 보거나 Data Lineage API를 사용:
Data Lineage 뷰어(
roles/datalineage.viewer
) - API를 사용하여 수동으로 계보 생성:
데이터 계보 이벤트 제작자(
roles/datalineage.producer
) - API를 사용하여 계보 수정:
데이터 계보 편집자(
roles/datalineage.editor
) -
계보에서 모든 작업 수행:
데이터 계보 관리자(
roles/datalineage.admin
)
역할 부여에 대한 자세한 내용은 액세스 관리를 참조하세요.
커스텀 역할이나 다른 사전 정의된 역할을 통해 필요한 권한을 얻을 수도 있습니다.
Dataproc에서 데이터 계보 사용 설정
제출된 모든 클러스터의 Spark 작업이 계보 정보를 Data Lineage API에 보고하도록 클러스터 수준에서 계보를 사용 설정합니다.
Dataproc 클러스터 만들기
dataproc:dataproc.lineage.enabled
속성을 true
로 설정하여 Dataproc 클러스터를 만듭니다.
gcloud dataproc clusters create CLUSTER_NAME \
--region REGION \
--zone ZONE \
--project PROJECT_ID \
--properties 'dataproc:dataproc.lineage.enabled=true' \
--scopes https://www.googleapis.com/auth/cloud-platform
Spark 작업 제출
계보가 사용 설정된 상태로 만들어진 Dataproc 클러스터에서 Spark 작업을 제출하면 Dataproc이 계보 정보를 캡처하여 Data Lineage API에 보고합니다.
gcloud dataproc jobs submit spark \
--project PROJECT_ID \
--cluster=CLUSTER_NAME \
--region REGION \
--class CLASS \
--jars=gs://APPLICATION_BUCKET/spark-application.jar \
--properties=spark.openlineage.namespace=CUSTOM_NAMESPACE,spark.openlineage.appName=CUSTOM_APPNAME
spark.openlineage.namespace
및 spark.openlineage.appName
속성은 선택사항이며 작업을 고유하게 식별하는 데 사용됩니다. 이러한 속성을 전달하지 않으면 Dataproc은 다음 기본값을 사용합니다.
spark.openlineage.namespace
기본값: PROJECT_IDspark.openlineage.appName
기본값:spark.app.name
Dataplex에서 계보 그래프 보기
계보 시각화 그래프에는 프로젝트 리소스와 이를 만든 프로세스 간의 관계가 표시됩니다. Google Cloud 콘솔에서 그래프 시각화 형식으로 데이터 계보 정보를 보거나 JSON 데이터 형식으로 Data Lineage API에서 검색할 수 있습니다.
자세한 내용은 Dataplex UI에서 계보 그래프 보기를 참조하세요.
예
BigQuery 테이블에서 데이터를 읽고 다른 BigQuery 테이블에 쓰는 다음 Spark 작업을 살펴봅시다.
#!/usr/bin/env python
from pyspark.sql import SparkSession
import sys
spark = SparkSession \
.builder \
.appName('LINEAGE_BQ_TO_BQ') \
.getOrCreate()
bucket = lineage-ol-test
spark.conf.set('temporaryGcsBucket', bucket)
source = sample.source
words = spark.read.format('bigquery') \
.option('table', source) \
.load()
words.createOrReplaceTempView('words')
word_count = spark.sql('SELECT word, SUM(word_count) AS word_count FROM words GROUP BY word')
destination = sample.destination
word_count.write.format('bigquery') \
.option('table', destination) \
.save()
이 Spark 작업은 Dataplex UI에서 다음 계보 그래프를 만듭니다.
Dataproc에서 데이터 계보 사용 중지
클러스터를 만들 때 계보를 사용 설정하면 클러스터 수준에서 계보를 사용 중지할 수 없습니다. Dataproc 클러스터에서 계보를 사용 중지하려면 dataproc:dataproc.lineage.enabled
속성 없이 클러스터를 다시 만듭니다.
계보가 사용 설정된 상태로 생성된 클러스터에서 특정 작업의 계보를 사용 중지하려면 작업을 제출할 때 spark.extraListeners
속성을 빈 값으로 전달해야 합니다.
다음 단계
- 데이터 계보에 대해 자세히 알아보세요.