Untuk menulis dari Dataflow ke Apache Iceberg menggunakan BigLake REST Catalog, gunakan konektor I/O terkelola.
I/O Terkelola mendukung kemampuan berikut untuk Apache Iceberg:
Katalog |
|
---|---|
Kemampuan membaca | Baca batch |
Kemampuan menulis |
|
Untuk tabel BigQuery untuk Apache Iceberg,
gunakan
konektor BigQueryIO
dengan BigQuery Storage API. Tabel harus sudah ada; pembuatan tabel dinamis tidak didukung.
Prasyarat
Siapkan BigLake. Konfigurasi project Google Cloud Platform Anda dengan izin yang diperlukan dengan mengikuti Menggunakan BigLake Metastore dengan katalog REST Iceberg. Pastikan Anda memahami batasan Katalog REST Iceberg BigLake yang dijelaskan di halaman tersebut.
Dependensi
Tambahkan dependensi berikut ke project Anda:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
Contoh
Contoh berikut menunjukkan pipeline streaming yang menulis data ke tabel Apache Iceberg menggunakan katalog REST, yang didukung oleh BigLake Metastore.
Java
Untuk melakukan autentikasi ke Dataflow, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Langkah berikutnya
- CDC Membaca dari Apache Iceberg dengan BigLake REST Catalog.
- Pelajari lebih lanjut I/O Terkelola.
- Pelajari Katalog REST BigLake lebih lanjut.