Transformationen in BigQuery ausführen

Auf dieser Seite wird beschrieben, wie Sie in Cloud Data Fusion Transformationen in BigQuery statt in Spark ausführen.

Weitere Informationen finden Sie in der Übersicht über den Transformations-Push-down.

Hinweis

Transformations-Push-down ist in Version 6.5.0 und höher verfügbar. Wenn Ihre Pipeline in einer früheren Umgebung ausgeführt wird, können Sie ein Upgrade Ihrer Instanz auf die neueste Version durchführen.

Transformations-Push-down für die Pipeline aktivieren

Console

Führen Sie die folgenden Schritte aus, um den Transformations-Push-down für eine bereitgestellte Pipeline zu aktivieren: Folgendes:

  1. Rufen Sie Ihre Instanz auf:

    1. Rufen Sie in der Google Cloud Console die Seite „Cloud Data Fusion“ auf.

    2. Um die Instanz in Cloud Data Fusion Studio zu öffnen, Klicken Sie auf Instanzen und dann auf Instanz ansehen.

      Zur Seite „VM-Instanzen“

  2. Klicken Sie auf  Menü > Liste.

    Der Tab der bereitgestellten Pipeline wird geöffnet.

  3. Klicken Sie auf die gewünschte bereitgestellte Pipeline, um sie in der Pipeline zu öffnen. Studio verfügbar.

  4. Klicken Sie auf Konfigurieren > Transformations-Push-down.

    Aktivieren Sie „Transformations-Push-down“.

  5. Klicken Sie auf Transformations-Push-down aktivieren.

  6. Geben Sie im Feld Dataset den Namen eines BigQuery-Datasets ein.

    Optional: Wenn Sie ein Makro verwenden möchten, klicken Sie auf die Taste M. Weitere Informationen finden Sie unter Datasets.

  7. Optional: Konfigurieren Sie bei Bedarf die Optionen.

  8. Klicken Sie auf Speichern.

Optionale Konfigurationen

.
Attribut Unterstützt Makros Unterstützte Cloud Data Fusion-Versionen Beschreibung
Verbindung verwenden Nein 6.7.0 und höher Ob eine vorhandene Verbindung verwendet werden soll.
Verbindung Ja 6.7.0 und höher Der Name der Verbindung. Diese Verbindung enthält Informationen zum Projekt und zum Dienstkonto.
Optional: Verwenden Sie die Makrofunktion ${conn(connection_name)}.
Dataset-Projekt-ID Ja 6.5.0 Wenn sich das Dataset in einem anderen Projekt als dem befindet, in dem der BigQuery-Job ausgeführt wird, geben Sie die Projekt-ID des Datasets ein. Wenn kein Wert angegeben ist, wird standardmäßig die Projekt-ID verwendet, in der der Job ausgeführt wird.
Projekt-ID Ja 6.5.0 Die Google Cloud-Projekt-ID.
Dienstkontotyp Ja 6.5.0 Wählen Sie eine der folgenden Optionen aus:
  • File Path (Dateipfad): der Dateipfad zum Dienstkonto
  • JSON: der JSON-Inhalt des Dienstkontos.
Der Standardwert ist JSON.
Dateipfad des Dienstkontos Ja 6.5.0 Der Pfad im lokalen Dateisystem zum Dienstkontoschlüssel, der für die Autorisierung verwendet wird. Wenn die Ausführung in einem Dataproc-Cluster erfolgt, ist es auf auto-detect festgelegt. Bei der Ausführung in anderen Clustern Die Datei muss auf jedem Knoten im Cluster vorhanden sein. Der Standardwert ist auto-detect.
JSON-Dienstkonto Ja 6.5.0 Der Inhalt der JSON-Datei des Dienstkontos.
Name des temporären Buckets Ja 6.5.0 Der Cloud Storage-Bucket, in dem die temporären Daten gespeichert werden. Es wird automatisch erstellt, wenn es nicht vorhanden ist, aber nicht automatisch gelöscht. Die Cloud Storage-Daten werden gelöscht. nachdem es in BigQuery geladen wurde. Wenn dieser Wert nicht angegeben wird, wird ein eindeutiger Bucket erstellt und nach Abschluss der Pipelineausführung gelöscht. Das Dienstkonto muss die Berechtigung zum Erstellen von Buckets haben im konfigurierten Projekt.
Standort Ja 6.5.0 Der Speicherort, an dem das BigQuery-Dataset erstellt wird. Dieser Wert wird ignoriert, wenn das Dataset oder der temporäre Bucket bereits vorhanden ist. Standardmäßig ist der multiregionale Standort US festgelegt.
Name des Verschlüsselungsschlüssels Ja 6.5.1/0.18.1 Der vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Key, CMEK), mit dem Daten verschlüsselt werden, die in einen vom Plug-in erstellten Bucket, Dataset oder eine vom Plug-in erstellte Tabelle geschrieben werden. Wenn der Bucket, das Dataset oder die Tabelle bereits vorhanden ist, wird dieser Wert ignoriert.
BigQuery-Tabellen nach Abschluss aufbewahren Ja 6.5.0 Ob alle temporären BigQuery-Tabellen beibehalten werden sollen die während der Pipelineausführung zur Fehlerbehebung erstellt werden, Validierungszwecken. Der Standardwert ist Nein.
Temporäre Tabellen-TTL (in Stunden) Ja 6.5.0 Legen Sie die Tabellen-TTL für temporäre BigQuery-Tabellen in der Anzahl der Stunden fest. Dies ist als Sicherheitsmaßnahme nützlich, falls die Pipeline und der Bereinigungsprozess unterbrochen wird (z. B. Ausführungscluster abrupt heruntergefahren wird). Wenn Sie diesen Wert auf 0 setzen, wird die Tabellen-TTL deaktiviert. Der Standardwert ist 72 (3 Tage).
Priorität des Jobs Ja 6.5.0 Die Priorität, die für die Ausführung von BigQuery-Jobs verwendet wird. Auswählen eine der folgenden Optionen:
  1. Batch: Ein Batchjob wird in die Warteschlange gestellt und gestartet als sobald inaktive Ressourcen verfügbar sind, Minuten. Wenn der Job nicht innerhalb von drei Stunden gestartet wird, ist auf „Interaktiv“ gesetzt.
  2. Interaktiv: Ein interaktiver Job wird so schnell wie möglich ausgeführt und auf die gleichzeitige und tägliche Ratenbegrenzung angerechnet.
Der Standardwert ist Batch.
Phasen für erzwungenes Pushdown Ja 6.7.0 Unterstützte Phasen, die immer in BigQuery ausgeführt werden. Jeder Phasenname muss sich in einer separaten Zeile befinden.
Phasen, bei denen das Pushdown übersprungen werden soll Ja 6.7.0 Unterstützte Phasen, die niemals in BigQuery ausgeführt werden. Jeder Stufenname muss in einer separaten Zeile stehen.
BigQuery Storage Read API verwenden Ja 6.7.0 Gibt an, ob beim Extrahieren von Datensätzen die BigQuery Storage Read API verwendet werden soll während der Pipelineausführung aus BigQuery stammen. Diese Option die Leistung des Transformations-Push-downs verbessern kann, zusätzliche Kosten. Dazu muss Scala 2.12 im der Ausführungsumgebung.

Leistungsänderungen in den Logs überwachen

Die Laufzeitlogs der Pipeline enthalten Nachrichten, in denen die in BigQuery ausgeführten SQL-Abfragen angezeigt werden. Sie können kontrollieren, welche Phasen in der Pipeline per Push an BigQuery übertragen werden.

Das folgende Beispiel zeigt die Logeinträge zu Beginn der Pipelineausführung. Die Logs geben an, dass die JOIN-Vorgänge in Ihrer Pipeline zur Ausführung in BigQuery übertragen wurden:

  INFO  [Driver:i.c.p.g.b.s.BigQuerySQLEngine@190] - Validating join for stage 'Users' can be executed on BigQuery: true
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'UserProfile'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'UserDetails'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@292] - Starting join for dataset 'Users'
  INFO  [Driver:i.c.p.g.b.s.BigQuerySQLEngine@190] - Validating join for stage 'UserPurchases' can be executed on BigQuery: true
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'Purchases'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@292] - Starting join for dataset 'UserPurchases'
  INFO  [Driver:i.c.p.g.b.s.BigQuerySQLEngine@190] - Validating join for stage 'MostPopularNames' can be executed on BigQuery: true
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@131] - Starting push for dataset 'FirstNameCounts'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@292] - Starting join for dataset 'MostPopularNames'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@193] - Starting pull for dataset 'MostPopularNames'

Das folgende Beispiel zeigt die Tabellennamen, die jedem der Datasets, die an der Push-down-Ausführung beteiligt sind:

  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset Purchases stored in table <TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset UserDetails stored in table <TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset FirstNameCounts stored in table <TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@145] - Executing Push operation for dataset UserProfile stored in table <TABLE_ID>

Während die Ausführung fortgesetzt wird, zeigen die Logs den Abschluss der Push-Phasen und schließlich die Ausführung der JOIN-Vorgänge an. Beispiel:

  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@133] - Completed push for dataset 'UserProfile'
  DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@133] - Completed push for dataset 'UserDetails'
  DEBUG [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@235] - Executing join operation for dataset Users
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQueryJoinDataset@118] - Creating table `<TABLE_ID>` using job: <JOB_ID> with SQL statement: SELECT `UserDetails`.id AS `id` , `UserDetails`.first_name AS `first_name` , `UserDetails`.last_name AS `last_name` , `UserDetails`.email AS `email` , `UserProfile`.phone AS `phone` , `UserProfile`.profession AS `profession` , `UserProfile`.age AS `age` , `UserProfile`.address AS `address` , `UserProfile`.score AS `score` FROM `your_project.your_dataset.<DATASET_ID>` AS `UserProfile` LEFT JOIN `your_project.your_dataset.<DATASET_ID>` AS `UserDetails` ON `UserProfile`.id = `UserDetails`.id
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQueryJoinDataset@151] - Created BigQuery table `<TABLE_ID>
  INFO  [batch-sql-engine-adapter:i.c.p.g.b.s.BigQuerySQLEngine@245] - Executed join operation for dataset Users

Wenn alle Phasen abgeschlossen sind, wird in einer Meldung angezeigt, dass der Vorgang Pull abgeschlossen ist. Dies gibt an, dass der BigQuery-Exportprozess ausgelöst wurde und die Datensätze nach Beginn dieses Exportjobs in die Pipeline gelesen werden. Beispiel:

DEBUG [batch-sql-engine-adapter:i.c.c.e.s.b.BatchSQLEngineAdapter@196] - Completed pull for dataset 'MostPopularNames'

Wenn bei der Ausführung der Pipeline Fehler auftreten, werden diese in den Logs beschrieben.

Details zur Ausführung der BigQuery-JOIN-Vorgänge, z. B. Ressourcennutzung, Ausführungszeit und Fehlerursachen, finden Sie in den BigQuery-Jobdaten. Verwenden Sie dazu die Job-ID, die in den Jobprotokollen angezeigt wird.

Pipelinemesswerte überprüfen

Weitere Informationen zu den Messwerten, die Cloud Data Fusion für den Teil der Pipeline bereitstellt, der in BigQuery ausgeführt wird, finden Sie unter BigQuery-Pushdown-Pipeline-Messwerte.

Nächste Schritte