Wenn Sie mit dem BigLake REST Catalog aus Dataflow in Apache Iceberg schreiben möchten, verwenden Sie den verwalteten E/A-Connector.
Die verwaltete E/A unterstützt die folgenden Funktionen für Apache Iceberg:
Kataloge |
|
---|---|
Lesefunktionen | Batchlesevorgang |
Schreibfunktionen |
|
Verwenden Sie für BigQuery-Tabellen für Apache Iceberg den BigQueryIO
-Connector mit der BigQuery Storage API. Die Tabelle muss bereits vorhanden sein. Das dynamische Erstellen von Tabellen wird nicht unterstützt.
Vorbereitung
BigLake einrichten Konfigurieren Sie Ihr Google Cloud-Projekt mit den erforderlichen Berechtigungen. Folgen Sie dazu der Anleitung unter BigLake Metastore mit dem Iceberg REST-Katalog verwenden. Machen Sie sich mit den auf dieser Seite beschriebenen Einschränkungen des BigLake Iceberg REST-Katalogs vertraut.
Abhängigkeiten
Fügen Sie Ihrem Projekt die folgenden Abhängigkeiten hinzu:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
Beispiel
Im folgenden Beispiel wird eine Streamingpipeline gezeigt, die Daten in eine Apache Iceberg-Tabelle schreibt. Dabei wird der REST-Katalog verwendet, der vom BigLake Metastore unterstützt wird.
Java
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Dataflow zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Nächste Schritte
- CDC-Lesevorgang aus Apache Iceberg mit BigLake REST Catalog.
- Weitere Informationen zu Managed I/O
- Weitere Informationen zum BigLake REST Catalog