Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Integration von Data Lineage
Die Datenherkunft ist eine Dataplex-Funktion, mit der Sie verfolgen können, wie sich Daten durch Ihre Systeme bewegen – woher sie kommen, wohin sie übergeben werden und welche Transformationen auf sie angewendet werden. Die Datenherkunft ist für Folgendes verfügbar:
Cloud Composer 2-Umgebungen mit Version 2.1.2 und höher mit Airflow-Versionen 2.2.5 und höher
Cloud Composer 2-Umgebungen in denselben Regionen wie Data Catalog-Regionen, die die Datenabfolge unterstützen
Sobald das Feature in Ihrer Cloud Composer-Umgebung aktiviert ist, wird der folgende Befehl ausgeführt: DAGs, die einen der unterstützten Operatoren verwenden, führen dazu, Cloud Composer, um Herkunftsinformationen an die Data Lineage API zu melden.
Sie können dann auf diese Informationen zugreifen:
- Data Lineage API
- Lineage-Visualisierungsdiagramme für unterstützte Data Catalog-Einträge in Dataplex aus. Weitere Informationen finden Sie in der Dataplex-Dokumentation unter Grafiken zur Visualisierung der Datenabfolge.
Unterstützte Operatoren
Die folgenden Betreiber unterstützen automatische Abstammungsberichte in Cloud Composer:
airflow.providers.google.cloud.operators.bigquery.BigQueryExecuteQueryOperator
airflow.providers.google.cloud.operators.bigquery.BigQueryInsertJobOperator
airflow.providers.google.cloud.transfers.bigquery_to_bigquery.BigQueryToBigQueryOperator
airflow.contrib.operators.bigquery_to_gcs.BigQueryToCloudStorageOperator
airflow.providers.google.cloud.transfers.bigquery_to_gcs.BigQueryToGCSOperator
airflow.providers.google.cloud.transfers.gcs_to_bigquery.GCSToBigQueryOperator
airflow.contrib.operators.gcs_to_bq.GoogleCloudStorageToBigQueryOperator
airflow.providers.google.cloud.operators.dataproc.DataprocSubmitJobOperator
Führen Sie beispielsweise die folgende Aufgabe aus:
task = BigQueryInsertJobOperator(
task_id='snapshot_task',
dag=dag,
location='<dataset-location>',
configuration={
'query': {
'query': 'SELECT * FROM dataset.tableA',
'useLegacySql': False,
'destinationTable': {
'project_id': GCP_PROJECT,
'dataset_id': 'dataset',
'table_id': 'tableB',
},
}
},
)
Zum Erstellen des folgenden Lineage-Diagramms in der Dataplex-UI:
Funktionsüberlegungen für Cloud Composer
Bei jeder Airflow-Aufgabenausführung, bei der die Datenabfolge erfasst wird, geschieht Folgendes:
- Eine RPC-Anfrage zum Erstellen oder Aktualisieren eines Abstammungsvorgangs
- Eine RPC-Anfrage zum Erstellen oder Aktualisieren einer Abstammungsausführung
- Mindestens eine RPC-Anfrage zum Erstellen von Herkunftsereignissen (meist 0 oder 1)
Weitere Informationen zu diesen Entitäten finden Sie unter Lineage-Informationsmodell und Lineage API-Referenz in Dataplex Dokumentation.
Für den ausgegebenen Lineage-Traffic gelten Kontingente in der Data Lineage API. Cloud Composer verbraucht das Schreibkontingent.
Die Preise für die Verarbeitung von Daten zu Herkunftsinformationen unterliegen den Preisen für Herkunftsinformationen. Siehe Überlegungen zur Data Lineage.
Auswirkungen auf die Leistung
Die Datenherkunft wird am Ende der Airflow-Taskausführung gemeldet. Im Durchschnitt dauert das Erstellen von Data-Lineage-Berichten etwa 1–2 Sekunden.
Dies hat keine Auswirkungen auf die Leistung der Aufgabe selbst: Airflow-Aufgaben schlagen nicht fehl, wenn die Abstammung nicht erfolgreich an die Lineage API gemeldet wurde. Dies hat keine Auswirkungen auf die Logik des Hauptoperators, aber die gesamte Aufgabeninstanz. um die Herkunftsdaten in der Berichterstellung zu berücksichtigen.
In einer Umgebung, in der die Herkunft der Daten gemeldet wird, wird eine geringe Zunahme von die damit verbundenen Kosten, da zusätzliche Zeit für die Berichterstellung der Datenherkunft erforderlich ist.
Compliance
Data Lineage bietet verschiedene Unterstützungsstufen für Funktionen wie VPC Service Controls Sehen Sie sich die Anforderungen an die Datenableitung an, um sicherzustellen, dass die Supportebenen den Anforderungen Ihrer Umgebung entsprechen.
Mit Data Lineage-Integration arbeiten
Die Einbindung der Datenabfolge für Cloud Composer wird pro Umgebung verwaltet. Das bedeutet, dass die Aktivierung der Funktion zwei Schritte umfasst:
- Aktivieren Sie die Data Lineage API in Ihrem Projekt.
- Datenabstammungsintegration in einer bestimmten Cloud Composer-Umgebung aktivieren
Hinweise
Wenn Sie eine Umgebung erstellen, wird die Datenabstammungsintegration automatisch aktiviert, wenn die folgenden Bedingungen erfüllt sind:
Die Data Lineage API ist in Ihrem Projekt aktiviert. Weitere Informationen finden Sie unter Data Lineage API aktivieren in Dataplex-Dokumentation.
Ein benutzerdefiniertes Abstammungs-Back-End ist in Airflow nicht konfiguriert.
Bei einer vorhandenen Umgebung können Sie die Datenabstammungsintegration jederzeit aktivieren oder deaktivieren.
Erforderliche Rollen
Für die Einbindung in Data Lineage müssen die folgenden Berechtigungen für Ihre Dienstkonto der Cloud Composer-Umgebung:
- Für die Standarddienstkonten: keine Änderungen erforderlich. Standarddienstkonten enthalten die erforderlichen Berechtigungen.
- Gewähren Sie für nutzerverwaltete Dienstkonten den Composer-Worker.
(
roles/composer.worker
) zu Ihrem Dienstkonto. Diese Rolle umfasst alle erforderlichen Data Lineage-Berechtigungen.
Weitere Informationen finden Sie in der Dataplex-Dokumentation unter Abstammungsrollen und ‑berechtigungen.
Data Lineage in Cloud Composer aktivieren
Console
Rufen Sie in der Google Cloud Console die Seite Umgebungen auf.
Klicken Sie in der Liste der Umgebungen auf den Namen Ihrer Umgebung. Die Seite Umgebungsdetails wird geöffnet.
Wählen Sie den Tab Umgebungskonfiguration aus.
Klicken Sie im Abschnitt Dataplex Data Lineage Integration auf Bearbeiten.
Wählen Sie im Bereich Einbindung von Dataplex Data Lineage die Option Einbindung in Dataplex Data Lineage aktivieren aus und klicken Sie auf Speichern.
gcloud
Verwenden Sie das Argument --enable-cloud-data-lineage-integration
.
gcloud composer environments update ENVIRONMENT_NAME \
--location LOCATION \
--enable-cloud-data-lineage-integration
Ersetzen Sie:
ENVIRONMENT_NAME
durch den Namen der Umgebung.Der Name muss mit einem Kleinbuchstaben beginnen, gefolgt von bis zu 62 Kleinbuchstaben, Ziffern oder Bindestrichen. Das letzte Zeichen darf kein Bindestrich sein. Anhand des Umgebungsnamens werden Unterkomponenten für die Umgebung erstellt. Daher müssen Sie einen Namen angeben, der auch als Cloud Storage-Bucket-Name gültig ist. Eine Liste der Einschränkungen finden Sie in den Benennungsrichtlinien für Buckets.
LOCATION
durch die Region für die Umgebung.Ein Speicherort ist die Region, in der sich der GKE-Cluster der Umgebung befindet.
Beispiel:
gcloud composer environments update example-environment \
--location us-central1 \
--enable-cloud-data-lineage-integration
Benutzerdefinierte Herkunftsereignisse senden
Sie können benutzerdefinierte Abfolgeereignisse senden, wenn Sie die Abfolge für einen Betreiber erfassen möchten, der für automatisierte Abfolgeberichte nicht unterstützt wird.
Beispielsweise können Sie benutzerdefinierte Ereignisse mit folgenden Methoden senden:
BashOperator
, ändern Sie den Parameterinlets
oderoutlets
in der Aufgabe Definition.PythonOperator
, ändern Sie den Parametertask.inlets
odertask.outlets
in der Aufgabendefinition. Durch die Verwendung vonAUTO
für den Parameterinlets
wird seine Wert, der demoutlets
der vorgelagerten Aufgabe entspricht.
Führen Sie beispielsweise diese Aufgabe aus:
from airflow.composer.data_lineage.entities import BigQueryTable
from airflow.lineage import AUTO
…
bash_task = BashOperator(
task_id='bash_task',
dag=dag,
bash_command='sleep 0',
inlets=[BigQueryTable(
project_id=GCP_PROJECT,
dataset_id='dataset',
table_id='table1',
)],
outlets=[BigQueryTable(
project_id=GCP_PROJECT,
dataset_id='dataset',
table_id='table2',
)]
)
def _python_task(task):
task.inlets.append(BigQueryTable(
project_id=GCP_PROJECT,
dataset_id='dataset',
table_id='table3',
))
task.outlets.append(BigQueryTable(
project_id=GCP_PROJECT,
dataset_id='dataset',
table_id='table4',
))
python_task = PythonOperator(
task_id='python_task',
dag=dag,
python_callable=_python_task,
inlets=[AUTO],
)
bash_task >> python_task
Zum Erstellen des folgenden Lineage-Diagramms in der Dataplex-UI:
Datenabfolge in Cloud Composer deaktivieren
Das Deaktivieren der Lineage-Einbindung in einer Cloud Composer-Umgebung Data Lineage API deaktivieren. Wenn Sie die Lineage-Funktion vollständig deaktivieren möchten, für Ihr Projekt erstellen, deaktivieren Sie auch die Data Lineage API. Weitere Informationen finden Sie unter Dienste werden deaktiviert.
Console
Rufen Sie in der Google Cloud Console die Seite Umgebungen auf.
Klicken Sie in der Liste der Umgebungen auf den Namen Ihrer Umgebung. Die Seite Umgebungsdetails wird geöffnet.
Wählen Sie den Tab Umgebungskonfiguration aus.
Klicken Sie im Abschnitt Einbindung von Dataplex Data Lineage auf Bearbeiten.
Wählen Sie im Bereich Integration von Dataplex Data Lineage die Option Integration von Dataplex Data Lineage deaktivieren aus und klicken Sie auf Speichern.
gcloud
Verwenden Sie das Argument --disable-cloud-data-lineage-integration
.
gcloud composer environments update ENVIRONMENT_NAME \
--location LOCATION \
--disable-cloud-data-lineage-integration
Ersetzen Sie:
ENVIRONMENT_NAME
durch den Namen der Umgebung.Der Name muss mit einem Kleinbuchstaben beginnen, gefolgt von bis zu 62 Kleinbuchstaben, Ziffern oder Bindestrichen. Das letzte Zeichen darf kein Bindestrich sein. Anhand des Umgebungsnamens werden Unterkomponenten für die Umgebung erstellt. Daher müssen Sie einen Namen angeben, der auch als Cloud Storage-Bucket-Name gültig ist. Eine Liste der Einschränkungen finden Sie in den Benennungsrichtlinien für Buckets.
LOCATION
durch die Region für die Umgebung.Ein Speicherort ist die Region, in der sich der GKE-Cluster der Umgebung befindet.
Beispiel:
gcloud composer environments update example-environment \
--location us-central1 \
--disable-cloud-data-lineage-integration
Herkunftslogs in Cloud Composer ansehen
Sie können Logs im Zusammenhang mit Data Lineage über den Link auf der Seite Umgebungskonfiguration in Dataplex Data Lineage-Integration.
Fehlerbehebung
Wenn Stammbaumdaten nicht an die Lineage API gesendet werden oder Sie sie nicht in Dataplex sehen können, führen Sie die folgenden Schritte zur Fehlerbehebung aus:
- Achten Sie darauf, dass die Data Lineage API im Projekt Ihres Cloud Composer-Umgebung.
- Prüfen, ob die Einbindung von Data Lineage in Cloud Composer aktiviert ist zu verbessern.
- Prüfen Sie, ob der von Ihnen verwendete Operator in der automatischen Unterstützung für Abstammungsberichte enthalten ist. Weitere Informationen finden Sie unter Unterstützte Airflow-Operatoren.
- Prüfen Sie in Cloud Composer die Abstammungsprotokolle auf mögliche Probleme.