Dataflow est un service géré permettant d'exécuter une grande variété de schémas de traitement de données. La documentation sur ce site explique comment déployer les pipelines de traitement de données par lot et par flux à l'aide de Dataflow. Elle contient également des instructions concernant l'utilisation des fonctionnalités du service.

Le SDK Apache Beam est un modèle de programmation Open Source qui vous permet de développer des pipelines par lots et en flux continu. Vous créez des pipelines avec un programme Apache Beam, puis les exécutez sur le service Dataflow. La documentation Apache Beam fournit des informations conceptuelles détaillées et des documents de référence pour le modèle de programmation Apache Beam, les SDK et les autres exécuteurs.

Pour apprendre les concepts de base d'Apache Beam, consultez les pages Présentation de Beam et Beam Playground. Le dépôt Dataflow Cookbook fournit également des pipelines prêts à l'emploi et autonomes, ainsi que les cas d'utilisation les plus courants de Dataflow.

Apache, Apache Beam, Beam, le logo Beam et la mascotte de Beam sont des marques déposées d'Apache Software Foundation aux États-Unis et/ou dans d'autres pays.
Essai gratuit

Démarrez votre prochain projet avec 300 $ de crédits offerts

Créez et testez une démonstration de faisabilité avec les crédits d'essai offerts et l'utilisation mensuelle gratuite de plus de 20 produits.

Afficher les offres produit gratuites.

Continuez à explorer le monde avec plus de 20 produits toujours gratuits

Accédez à plus de 20 produits gratuits pour des cas d'utilisation courants, y compris des API d'IA, des VM, des entrepôts de données, et plus encore.

Explorez les auto-formations de Google Cloud Skills Boost, des cas d'utilisation, des architectures de référence et des exemples de code illustrant comment utiliser et se connecter à des services Google Cloud.

Vidéos similaires