Para leer de Apache Iceberg a Dataflow, usa el conector de E/S administrado.
La E/S administrada admite las siguientes capacidades para Apache Iceberg:
Catálogos |
|
---|---|
Capacidades de lectura | Lectura por lotes |
Capacidades de escritura |
|
Para las tablas de BigQuery para Apache Iceberg, usa el conector de BigQueryIO
con la API de BigQuery Storage. La tabla ya debe existir. No se admite la creación de tablas dinámicas.
Dependencias
Agrega las siguientes dependencias a tu proyecto:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
Ejemplo
En el siguiente ejemplo, se leen desde una tabla de Apache Iceberg y se escriben los datos en archivos de texto.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
¿Qué sigue?
- Escribe en Apache Iceberg.
- Escritura de transmisión en Apache Iceberg con el catálogo de BigLake REST.
- Obtén más información sobre E/S administradas.