Von Dataflow verwaltete E/A für BigQuery

Verwaltete E/A unterstützt die folgenden Funktionen für BigQuery:

  • Dynamische Tabellen erstellen
  • Dynamische Ziele
  • Für Lesevorgänge verwendet der Connector die BigQuery Storage Read API.
  • Für Schreibvorgänge verwendet der Connector die folgenden BigQuery-Methoden:

    • Wenn die Quelle unbegrenzt ist, führt der Connector direkte Schreibvorgänge in BigQuery aus, indem er die BigQuery Storage Write API im genau einmal-Modus verwendet.
    • Wenn die Quelle begrenzt ist, verwendet der Connector BigQuery-Dateiuploads.

Voraussetzungen

Erfordert das Apache Beam SDK für Java Version 2.61.0 oder höher.

Konfiguration

Konfiguration lesen und schreiben Datentyp Beschreibung
table String Die BigQuery-Tabelle, aus der gelesen oder in die geschrieben werden soll. Formatieren Sie den Namen als "PROJECT.DATASET.TABLE". Beispiel: "my_project.dataset1.table1".
kms_key String Gibt einen Cloud KMS-Schlüssel (Cloud Key Management Service) an, um die BigQuery-Tabelle beim Schreiben oder alle temporären Tabellen zu verschlüsseln, die beim Lesen erstellt werden.
Lesekonfiguration Datentyp Beschreibung
fields Liste mit Strings Eine Liste der Spalten, die aus der Tabelle gelesen werden sollen. Mit diesem Parameter können Sie Daten effizienter lesen, wenn eine Tabelle viele Spalten enthält.
query String Eine SQL-Abfrage, aus der gelesen werden soll. Falls angegeben, führt der Connector die Abfrage in BigQuery aus und liest die Abfrageergebnisse.
row_restriction String Ein Prädikat, das Daten auf der Serverseite filtert. Beispiel: "age > 18".
Schreibkonfiguration Datentyp Beschreibung
triggering_frequency integer Gibt für unbegrenzte Quellen die Häufigkeit an, mit der Dateischreiben ausgelöst werden, in Sekunden.

Für Lesevorgänge müssen Sie entweder table oder query angeben. Für Schreibvorgänge müssen Sie table angeben.

Weitere Informationen finden Sie unter folgenden Links: