Pour écrire depuis Dataflow vers Apache Iceberg, utilisez le connecteur d'E/S géré.
Dépendances
Ajoutez les dépendances suivantes au projet :
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
Configuration
Pour Apache Iceberg, les E/S gérées utilisent les paramètres de configuration suivants :Nom | Type de données | Description |
---|---|---|
table |
chaîne | Identifiant de la table Apache Iceberg. Exemple : "db.table1" . |
catalog_name |
chaîne | Nom du catalogue. Exemple : "local" . |
catalog_properties |
carte | Mappage des propriétés de configuration pour le catalogue Apache Iceberg. Les propriétés requises dépendent du catalogue. Pour en savoir plus, consultez CatalogUtil dans la documentation Apache Iceberg. |
config_properties |
carte | Ensemble facultatif de propriétés de configuration Hadoop. Pour en savoir plus, consultez la page CatalogUtil dans la documentation Apache Iceberg. |
triggering_frequency_seconds |
entier | Pour les pipelines d'écriture en streaming, fréquence à laquelle le récepteur tente de produire des instantanés, en secondes. |
Exemple
L'exemple suivant écrit des données JSON en mémoire dans une table Apache Iceberg.
Java
Pour vous authentifier auprès de Dataflow, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.