Pour lire des données d'Apache Iceberg dans Dataflow, utilisez le connecteur d'E/S géré.
Les E/S gérées sont compatibles avec les fonctionnalités suivantes pour Apache Iceberg:
Catalogues |
|
---|---|
Fonctionnalités de lecture | Lecture par lots |
Capacités d'écriture |
|
Pour les tables BigQuery pour Apache Iceberg, utilisez le connecteur BigQueryIO
avec l'API BigQuery Storage. La table doit déjà exister. La création de tables dynamiques n'est pas prise en charge.
Dépendances
Ajoutez les dépendances suivantes au projet :
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
Exemple
L'exemple suivant lit une table Apache Iceberg et écrit les données dans des fichiers texte.
Java
Pour vous authentifier auprès de Dataflow, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Étape suivante
- Écrire dans Apache Iceberg
- En savoir plus sur les E/S gérées