如需使用 BigLake REST Catalog 从 Dataflow 写入 Apache Iceberg,请使用托管式 I/O 连接器。
托管式 I/O 支持 Apache Iceberg 的以下功能:
目录 |
|
---|---|
读取功能 | 批处理读取 |
写入功能 |
|
对于 Apache Iceberg 的 BigQuery 表,请将 BigQueryIO
连接器与 BigQuery Storage API 搭配使用。该表必须已经存在;不支持动态表格创建。
前提条件
设置 BigLake。按照将 BigLake Metastore 与 Iceberg REST 目录搭配使用中的说明,为您的 Google Cloud Platform 项目配置所需的权限。 请务必了解该页面上所述的 BigLake Iceberg REST 目录的限制。
依赖项
将以下依赖项添加到项目中:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
示例
以下示例演示了一个流处理流水线,该流水线使用由 BigLake Metastore 支持的 REST 目录将数据写入 Apache Iceberg 表。
Java
如需向 Dataflow 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。