Pour écrire depuis Dataflow vers Apache Iceberg, utilisez le connecteur d'E/S géré.
Les E/S gérées sont compatibles avec les fonctionnalités suivantes pour Apache Iceberg :
Catalogues |
|
---|---|
Fonctionnalités de lecture | Lecture par lots |
Fonctionnalités d'écriture |
|
Pour les tables BigQuery pour Apache Iceberg, utilisez le connecteur BigQueryIO
avec l'API BigQuery Storage. La table doit déjà exister. La création de tables dynamiques n'est pas prise en charge.
Dépendances
Ajoutez les dépendances suivantes au projet :
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
Destinations dynamiques
Les E/S gérées pour Apache Iceberg sont compatibles avec les destinations dynamiques. Au lieu d'écrire dans une seule table fixe, le connecteur peut sélectionner dynamiquement une table de destination en fonction des valeurs de champ dans les enregistrements entrants.
Pour utiliser des destinations dynamiques, fournissez un modèle pour le paramètre de configuration table
. Pour en savoir plus, consultez Destinations dynamiques.
Exemples
Les exemples suivants montrent comment utiliser les E/S gérées pour écrire dans Apache Iceberg.
Écrire dans une table Apache Iceberg
L'exemple suivant écrit des données JSON en mémoire dans une table Apache Iceberg.
Java
Pour vous authentifier auprès de Dataflow, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Écrire avec des destinations dynamiques
L'exemple suivant écrit dans différentes tables Apache Iceberg en fonction d'un champ des données d'entrée.
Java
Pour vous authentifier auprès de Dataflow, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Étapes suivantes
- Lire à partir d'Apache Iceberg
- Écriture en flux continu dans Apache Iceberg avec le catalogue REST BigLake
- En savoir plus sur les E/S gérées