Documentation de Dataflow
Dataflow est un service géré permettant d'exécuter une grande variété de schémas de traitement de données. La documentation sur ce site explique comment déployer les pipelines de traitement de données par lot et par flux à l'aide de Dataflow. Elle contient également des instructions concernant l'utilisation des fonctionnalités du service.
Le SDK Apache Beam est un modèle de programmation Open Source qui vous permet de développer des pipelines par lots et en flux continu. Vous créez des pipelines avec un programme Apache Beam, puis les exécutez sur le service Dataflow. La documentation Apache Beam fournit des informations conceptuelles détaillées et des documents de référence pour le modèle de programmation Apache Beam, les SDK et les autres exécuteurs.
Pour apprendre les concepts de base d'Apache Beam, consultez les pages Présentation de Beam et Beam Playground. Le dépôt Dataflow Cookbook fournit également des pipelines prêts à l'emploi et autonomes, ainsi que les cas d'utilisation les plus courants de Dataflow.
Ressources de documentation
Guides
-
Créer un pipeline Dataflow à l'aide de Java
-
Créer un pipeline Dataflow à l'aide de Python
-
Créer un pipeline Dataflow à l'aide de Go
-
Créer un pipeline de traitement par flux à l'aide d'un modèle Dataflow
-
Créer et exécuter un modèle Flex
-
Déployer des pipelines Dataflow
-
Développer avec les notebooks
-
Dépannage et débogage
-