In diesem Dokument wird beschrieben, wie Sie Metadaten aus einer Drittanbieterquelle in Dataplex importieren, indem Sie eine verwaltete Konnektivitätspipeline in Workflows ausführen.
Wenn Sie eine verwaltete Konnektivitätspipeline einrichten möchten, erstellen Sie einen Connector für Ihre Datenquelle. Anschließend führen Sie die Pipeline in Workflows aus. Die Pipeline extrahiert Metadaten aus Ihrer Datenquelle und importiert dann die Metadaten in Dataplex an. Bei Bedarf erstellt die Pipeline auch Dataplex-Katalog-Eintragsgruppen in Ihrem Google Cloud-Projekt.
Weitere Informationen zu verwalteten Verbindungen finden Sie unter Verwaltete Verbindung – Übersicht
Hinweis
Führen Sie die Aufgaben in diesem Abschnitt aus, bevor Sie Metadaten importieren.
Connector erstellen
Ein Connector extrahiert die Metadaten aus Ihren Daten und generiert eine Metadaten-Importdatei, die von Dataplex. Der Connector ist ein Artifact Registry-Image, das auf Dataproc Serverless
Erstellen Sie einen benutzerdefinierten Connector, der Metadaten aus der Drittanbieterquelle extrahiert.
Hier sehen Sie einen Beispiel-Connector, den Sie als Referenzvorlage verwenden können, um einen eigenen Connector erstellen, finden Sie Benutzerdefinierten Connector für den Metadatenimport entwickeln
Google Cloud-Ressourcen konfigurieren
-
Enable the Workflows, Dataproc, Cloud Storage, Dataplex, Secret Manager, Artifact Registry, and Cloud Scheduler APIs.
Wenn Sie die Pipeline nicht nach einem Zeitplan ausführen möchten, Aktivieren Sie die Cloud Scheduler API.
Erstellen Sie Secrets in Secret Manager, um die Anmeldedaten für Ihre Drittanbieterdatenquelle zu speichern.
VPC-Netzwerk (Virtual Private Cloud) konfigurieren um Dataproc Serverless für Spark-Arbeitslasten auszuführen.
Cloud Storage-Bucket erstellen, um Metadaten-Importdateien speichern.
Erstellen Sie die folgenden Dataplex Catalog-Ressourcen:
Benutzerdefinierte Aspekttypen erstellen für die Einträge, die Sie importieren möchten.
Benutzerdefinierte Eintragstypen erstellen für die Einträge, die Sie importieren möchten.
Erforderliche Rollen
Ein Dienstkonto stellt die Identität eines Workflows dar und bestimmt, welche Berechtigungen der Workflow hat und auf welche Google Cloud-Ressourcen er zugreifen kann. Sie benötigen ein Dienstkonto für Workflows (zum Ausführen der Pipeline) und für Dataproc Serverless (zum Ausführen des Connectors).
Sie können das Compute Engine-Standarddienstkonto
(PROJECT_NUMBER-compute@developer.gserviceaccount.com
) oder erstellen Sie Ihr eigenes Dienstkonto
(oder Konten), um die Pipeline für die verwaltete Verbindung auszuführen.
Console
Öffnen Sie in der Google Cloud Console die Seite IAM.
Wählen Sie das Projekt aus, in das Sie Metadaten importieren möchten.
Klicken Sie auf
Zugriff gewähren und geben Sie dann die E-Mail-Adresse des Dienstkontos ein.Weisen Sie dem Dienstkonto die folgenden Rollen zu:
- Logautor
- Inhaber von Dataplex-Eintragsgruppen
- Dataplex Metadata Job Owner
- Dataplex Catalog Editor
- Dataproc-Bearbeiter
- Dataproc-Worker
- Zugriffsperson für Secret Manager-Secret für das Secret, in dem die Anmeldedaten für Ihre Datenquelle gespeichert sind
- Storage Object User – im Cloud Storage-Bucket
- Artifact Registry Reader: Im Artifact Registry-Repository, das das Connector-Image enthält
- Service Account User – Wenn Sie verschiedene Dienstkonten verwenden, Dem Dienstkonto, das Workflows ausführt, diese Rolle gewähren für das Dienstkonto, auf dem Dataproc Serverless ausgeführt wird Batchjobs
- Workflows Invoker: Wenn Sie die Pipeline planen möchten
Speichern Sie die Änderungen.
gcloud
Weisen Sie dem Dienstkonto Rollen zu. Führen Sie folgende Befehle aus:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/logging.logWriter gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataplex.entryGroupOwner gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataplex.metadataJobOwner gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataplex.catalogEditor gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataproc.editor gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataproc.worker
Ersetzen Sie Folgendes:
-
PROJECT_ID
: der Name des Ziel-Google Cloud-Projekts, in das die Metadaten importiert werden sollen. SERVICE_ACCOUNT_ID
: das Dienstkonto, z. B.my-service-account@my-project.iam.gserviceaccount.com
.
-
Weisen Sie dem Dienstkonto die folgenden Rollen auf Ressourcenebene zu:
gcloud secrets add-iam-policy-binding SECRET_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/secretmanager.secretaccessor gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/storage.objectUser \ --condition=resource.name.startsWith('projects/_/buckets/BUCKET_ID') gcloud artifacts repositories add-iam-policy-binding REPOSITORY \ --location=REPOSITORY_LOCATION \ --member=SERVICE_ACCOUNT_ID} \ --role=roles/artifactregistry.reader
Ersetzen Sie Folgendes:
SECRET_ID
: die ID des gespeicherten Secrets die Anmeldedaten für Ihre Datenquelle. Sie verwendet das Formatprojects/PROJECT_ID/secrets/SECRET_ID
.BUCKET_ID
: der Name von Cloud Storage Bucket.REPOSITORY
: das Artifact Registry-Repository das das Connector-Image enthält.REPOSITORY_LOCATION
: Der Google Cloud-Standort, an dem das Repository gehostet wird.
Gewähren Sie dem Dienstkonto, das Workflows ausführt, die Rolle
roles/iam.serviceAccountUser
für das Dienstkonto Ausführen der serverlosen Batchjobs von Dataproc Serverless Sie müssen diese Rolle auch gewähren, wenn Sie dasselbe Dienstkonto für Workflows und Dataproc Serverless verwenden.gcloud iam service-accounts add-iam-policy-binding \ serviceAccount:SERVICE_ACCOUNT_ID \ --member='SERVICE_ACCOUNT_ID' \ --role='roles/iam.serviceAccountUser'
Wenn Sie verschiedene Dienstkonten verwenden, ist der Wert für das Flag
--member
ist das Dienstkonto, auf dem Dataproc Serverless ausgeführt wird BatchjobsWenn Sie die Pipeline planen möchten, weisen Sie dem Dienstkonto die folgende Rolle zu:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member="SERVICE_ACCOUNT_ID" \ --role=roles/workflows.invoker
Metadaten importieren
Wenn Sie Metadaten importieren möchten, erstellen Sie einen Workflow, in dem die verwaltete Konnektivitätspipeline ausgeführt wird, und führen Sie ihn aus. Optional können Sie auch einen Zeitplan für die Ausführung der Pipeline erstellen.
Console
Erstellen Sie den Workflow. Geben Sie die folgenden Informationen an:
- Dienstkonto: das Dienstkonto, das Sie unter Erforderliche Rollen konfiguriert haben dieses Dokuments.
Verschlüsselung: Wählen Sie Von Google verwalteter Verschlüsselungsschlüssel aus.
Workflow definieren: Stellen Sie die folgende Definitionsdatei bereit:
Wenn Sie die Pipeline bei Bedarf ausführen möchten, führen Sie den Workflow aus.
Geben Sie die folgenden Laufzeitargumente an:
Ersetzen Sie Folgendes:
-
PROJECT_ID
: der Name des Ziel-Google Cloud-Projekts, in das die Metadaten importiert werden sollen. -
LOCATION_ID
: Der Google Cloud-Speicherort, an dem die Dataproc Serverless- und Metadatenimportjobs ausgeführt und Metadaten importiert werden. -
ENTRY_GROUP_ID
: die ID der zu importierenden Eintragsgruppe in die Metadaten. Die ID der Eintragsgruppe kann Kleinbuchstaben, Ziffern und Bindestriche enthalten.Der vollständige Ressourcenname dieser Eintragsgruppe lautet
projects/PROJECT_ID/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
-
CREATE_ENTRY_GROUP_BOOLEAN
: wenn die Pipeline Erstellen Sie die Eintragsgruppe, falls diese noch nicht in Ihrem Projekt vorhanden ist, legen Sie Folgendes fest: Wert auftrue
. -
BUCKET_ID
: der Name von Cloud Storage Bucket zum Speichern der vom Connector generierten Metadatenimportdatei. Bei jeder Workflowausführung wird ein neuer Ordner erstellt. -
SERVICE_ACCOUNT_ID
: das Dienstkonto, das Sie im Abschnitt Erforderliche Rollen dieses Dokuments konfiguriert haben. Das Dienstkonto führt den Connector in Dataproc Serverless aus. -
ADDITIONAL_CONNECTOR_ARGUMENTS
: eine Liste mit zusätzlichen die an den Connector übergeben werden sollen. Beispiele finden Sie unter Benutzerdefinierten Connector für den Metadatenimport. Setzen Sie jedes Argument in doppelte und trennen Sie die Argumente durch Kommas. -
CONTAINER_IMAGE
ist das benutzerdefinierte Container-Image des in Artifact Registry gehosteter Connector. -
ENTRY_TYPES
: eine Liste der Eintragstypen, die einbezogen werden für den Import im Formatprojects/PROJECT_ID/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
.LOCATION_ID
muss entweder derselbe Google Cloud-Speicherort sein, in den Sie Metadaten importieren, oderglobal
. -
ASPECT_TYPES
: eine Liste der Aspekttypen, die in den Umfang fallen für den Import im Formatprojects/PROJECT_ID/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
. Das FeldLOCATION_ID
muss entweder gleich Google Cloud-Standort, in den Sie Metadaten importieren, oderglobal
. -
Optional: Geben Sie für das Argument
NETWORK_TAGS
eine Liste mit Netzwerk-Tags an. -
Optional: Geben Sie für das Argument
NETWORK_URI
den URI des VPC-Netzwerks an, das mit der Datenquelle verbunden ist. Wenn Sie ein Netzwerk angeben, lassen Sie Subnetzwerk-Arguments. -
Optional: Geben Sie für das Argument
SUBNETWORK_URI
den URI des Unternetzwerks an, das eine Verbindung zur Datenquelle herstellt. Wenn Sie ein Subnetz angeben, lassen Sie das Netzwerkargument weg.
Je nach Menge der importierten Metadaten kann die Ausführung der Pipeline einige Minuten oder länger dauern. Weitere Informationen zu wie Sie den Fortschritt sehen, Auf Ergebnisse der Workflowausführung zugreifen
Nachdem die Pipeline ausgeführt wurde, können Sie in Dataplex Catalog nach den importierten Metadaten suchen.
-
Optional: Wenn Sie die Pipeline nach einem Zeitplan ausführen möchten, einen Zeitplan erstellen, indem Sie Cloud Scheduler Geben Sie die folgenden Informationen an:
- Frequency (Häufigkeit): ein Unix-Cron-Ausdruck, der den Zeitplan für führen Sie die Pipeline aus.
- Workflow-Argument: Die Laufzeitargumente für den Connector, wie im vorherigen Schritt beschrieben.
- Dienstkonto: Das Dienstkonto. Das Dienstkonto verwaltet den Scheduler.
gcloud
Speichern Sie die folgende Arbeitslastdefinition als YAML-Datei:
Definieren Sie Bash-Variablen, erstellen Sie den Workflow und erstellen Sie optional einen Zeitplan für die Ausführung der Pipeline:
Ersetzen Sie Folgendes:
-
PROJECT_ID
: der Name des Ziel-Google Cloud-Projekts, in das die Metadaten importiert werden sollen. -
LOCATION_ID
: der Google Cloud-Zielstandort in dem die serverlosen Dataproc- und Metadaten-Importjobs ausgeführt werden. und Metadaten importiert werden. -
SERVICE_ACCOUNT_ID
: das Dienstkonto, das Sie unter Erforderliche Rollen konfiguriert haben dieses Dokuments. WORKFLOW_DEFINITION_FILE
: der Pfad zum YAML-Datei für die Workflow-Definition.WORKFLOW_NAME
: Der Name des Workflows.WORKFLOW_ARGUMENTS
: die Laufzeitargumente, die an den Connector übergeben werden sollen. Die Argumente liegen im JSON-Format vor:Bei Cloud Scheduler werden die doppelten Anführungszeichen innerhalb des Strings in Anführungszeichen mit Schrägstrichen (\) maskiert. Beispiel:
--message-body="{\"argument\": \"{\\\"key\\\": \\\"value\\\"}\"}"
.Ersetzen Sie Folgendes:
-
ENTRY_GROUP_ID
: die ID der zu importierenden Eintragsgruppe in die Metadaten. Die Eintragsgruppen-ID kann Kleinbuchstaben, Ziffern und Bindestriche verwenden.Der vollständige Ressourcenname dieser Eintragsgruppe lautet
projects/PROJECT_ID/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
-
CREATE_ENTRY_GROUP_BOOLEAN
: wenn die Pipeline Erstellen Sie die Eintragsgruppe, falls diese noch nicht in Ihrem Projekt vorhanden ist, legen Sie Folgendes fest: Wert auftrue
. -
BUCKET_ID
: der Name von Cloud Storage Bucket zum Speichern der vom Connector generierten Metadatenimportdatei. Für jede Workflowausführung wird ein neuer Ordner erstellt. -
ADDITIONAL_CONNECTOR_ARGUMENTS
: eine Liste mit zusätzlichen Argumenten, die an den Connector übergeben werden sollen. Beispiele finden Sie unter Benutzerdefinierten Connector für den Metadatenimport entwickeln. -
CONTAINER_IMAGE
ist das benutzerdefinierte Container-Image des in Artifact Registry gehosteter Connector. -
ENTRY_TYPES
: eine Liste der Eintragstypen, die einbezogen werden für den Import im Formatprojects/PROJECT_ID/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
.LOCATION_ID
muss entweder derselbe Google Cloud-Speicherort sein, in den Sie Metadaten importieren, oderglobal
. -
ASPECT_TYPES
: eine Liste der Aspekttypen, die in den Umfang fallen für den Import im Formatprojects/PROJECT_ID/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
. Das FeldLOCATION_ID
muss entweder gleich Google Cloud-Standort, in den Sie Metadaten importieren, oderglobal
. -
Optional: Geben Sie für das Argument
NETWORK_TAGS
eine Liste mit Netzwerk-Tags an. -
Optional: Geben Sie für das Argument
NETWORK_URI
den URI des VPC-Netzwerks an, das mit der Datenquelle verbunden ist. Wenn Sie ein Netzwerk angeben, lassen Sie Subnetzwerk-Arguments. -
Optional: Geben Sie für das Argument
SUBNETWORK_URI
den URI des Unternetzwerks an, das mit der Datenquelle verbunden ist. Wenn Sie ein Subnetz angeben, lassen Sie das Netzwerkargument weg.
-
CRON_SCHEDULE_EXPRESSION
: ein Cron-Ausdruck, der definiert den Zeitplan für die Ausführung der Pipeline. Um den Zeitplan beispielsweise jeden Tag um Mitternacht den Ausdruck0 0 * * *
.
-
Um die Pipeline on demand auszuführen, Workflow ausführen:
Die Workflowargumente liegen im JSON-Format vor, werden aber nicht maskiert.
Je nach Menge der importierten Metadaten kann der Workflow mehrere Minuten oder länger dauern. Weitere Informationen zum Aufrufen des Fortschritts finden Sie unter Auf Ergebnisse der Workflowausführung zugreifen.
Nachdem die Pipeline ausgeführt wurde, können Sie im Dataplex Catalog nach den importierten Metadaten suchen.
Terraform
Klonen Sie das
cloud-dataplex
-Repository.Das Repository enthält die folgenden Terraform-Dateien:
main.tf
: definiert die zu erstellenden Google Cloud-Ressourcen.variables.tf
: Hier werden die Variablen deklariert.byo-connector.tfvars
: definiert die Variablen für die verwaltete Verbindungspipeline.
Ersetzen Sie in der Datei
.tfvars
die Platzhalter durch die Informationen. für den Connector.Ersetzen Sie Folgendes:
-
PROJECT_ID
: der Name des Ziel-Google Cloud-Projekts, in das die Metadaten importiert werden sollen. -
LOCATION_ID
: der Google Cloud-Zielstandort in dem die serverlosen Dataproc- und Metadaten-Importjobs ausgeführt werden. und Metadaten importiert werden. -
SERVICE_ACCOUNT_ID
: das Dienstkonto, das Sie im Abschnitt Erforderliche Rollen dieses Dokuments konfiguriert haben. -
CRON_SCHEDULE_EXPRESSION
: Ein Cron-Ausdruck, der den Zeitplan für die Ausführung der Pipeline definiert. Um den Zeitplan beispielsweise jeden Tag um Mitternacht den Ausdruck0 0 * * *
. -
ENTRY_GROUP_ID
: die ID der Eintragsgruppe, in die Metadaten importiert werden sollen. Die ID der Eingangsgruppe kann Kleinbuchstaben, Ziffern und Bindestriche enthalten.Der vollständige Ressourcenname dieser Eintragsgruppe lautet
projects/PROJECT_ID/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
-
CREATE_ENTRY_GROUP_BOOLEAN
: wenn die Pipeline Erstellen Sie die Eintragsgruppe, falls diese noch nicht in Ihrem Projekt vorhanden ist, legen Sie Folgendes fest: Wert auftrue
. -
BUCKET_ID
: der Name von Cloud Storage Bucket zum Speichern der vom Connector generierten Metadatenimportdatei. Für jede Workflowausführung wird ein neuer Ordner erstellt. -
ADDITIONAL_CONNECTOR_ARGUMENTS
: eine Liste mit zusätzlichen Argumenten, die an den Connector übergeben werden sollen. Beispiele finden Sie unter Benutzerdefinierten Connector für den Metadatenimport entwickeln. Setzen Sie jedes Argument in doppelte und trennen Sie die Argumente durch Kommas. -
CONTAINER_IMAGE
ist das benutzerdefinierte Container-Image des in Artifact Registry gehosteter Connector. -
ENTRY_TYPES
: eine Liste der Eintragstypen, die einbezogen werden für den Import im Formatprojects/PROJECT_ID/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
.LOCATION_ID
muss entweder derselbe Google Cloud-Speicherort sein, in den Sie Metadaten importieren, oderglobal
. -
ASPECT_TYPES
: eine Liste der Aspekttypen, die in den Umfang fallen für den Import im Formatprojects/PROJECT_ID/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
. Das FeldLOCATION_ID
muss entweder gleich Google Cloud-Standort, in den Sie Metadaten importieren, oderglobal
. -
Optional: Geben Sie für das Argument
NETWORK_TAGS
eine Liste mit Netzwerk-Tags an. -
Optional: Geben Sie für das Argument
NETWORK_URI
den URI des VPC-Netzwerks an, das mit der Datenquelle verbunden ist. Wenn Sie ein Netzwerk angeben, lassen Sie Subnetzwerk-Arguments. -
Optional: Geben Sie für das Argument
SUBNETWORK_URI
den URI des Unternetzwerks an, das mit der Datenquelle verbunden ist. Wenn Sie ein Subnetz angeben, lassen Sie das Netzwerkargument weg.
-
Initialisieren Sie Terraform:
terraform init
Validieren Sie Terraform mit Ihrer
.tfvars
-Datei:terraform plan --var-file=CONNECTOR_VARIABLES_FILE.tfvars
Ersetzen Sie
CONNECTOR_VARIABLES_FILE
durch den Namen. Ihrer Variablendefinitionsdatei.Terraform mit der Datei
.tfvars
bereitstellen:terraform apply --var-file=CONNECTOR_VARIABLES_FILE.tfvars
Terraform erstellt einen Workflow und einen Cloud Scheduler-Job im angegebenen Projekt. Workflows führt die Pipeline an der den angegebenen Zeitplan.
Je nach Menge der importierten Metadaten kann der Workflow mehrere Minuten oder länger dauern. Weitere Informationen zur den Fortschritt anzeigen, sehen Sie, Auf Ergebnisse der Workflowausführung zugreifen
Nachdem die Pipeline ausgeführt wurde, können Sie im Dataplex Catalog nach den importierten Metadaten suchen.
Joblogs ansehen
Verwenden Sie Cloud Logging, um Logs für eine verwaltete Verbindungspipeline anzusehen. Das Protokoll enthält einen Link zu den Logs für Dataproc Serverless. Batchjob und Metadatenimportjob nach Bedarf. Weitere Informationen finden Sie unter Workflow-Logs ansehen.
Fehlerbehebung
Gehen Sie zur Fehlerbehebung folgendermaßen vor:
- Konfigurieren Sie die Protokollebene des Importjobs für den Metadatenjob so, dass Logging auf Debugebene anstelle von Logging auf Infoebene verwendet wird.
- Prüfen Sie die Logs für den serverlosen Dataproc-Batchjob (für Connectorausführungen) und den Metadatenimportjob. Weitere Informationen finden Sie unter Dataproc Serverless für Spark-Logs abfragen und Logs von Abfragemetadatenjobs.
- Wenn ein Eintrag nicht mit der Pipeline importiert werden kann und die Fehlermeldung sollten Sie einen benutzerdefinierten Eintrag mit denselben Details erstellen, in einer Testeintragsgruppe. Weitere Informationen finden Sie unter Benutzerdefinierten Eintrag erstellen.