Documentation de Dataflow
Dataflow est un service géré permettant d'exécuter une grande variété de schémas de traitement de données. La documentation sur ce site explique comment déployer les pipelines de traitement de données par lot et par flux à l'aide de Dataflow. Elle contient également des instructions concernant l'utilisation des fonctionnalités du service.
Le SDK Apache Beam est un modèle de programmation Open Source qui vous permet de développer des pipelines par lots et en flux continu. Vous créez des pipelines avec un programme Apache Beam, puis les exécutez sur le service Dataflow. La documentation Apache Beam fournit des informations conceptuelles détaillées et des documents de référence pour le modèle de programmation Apache Beam, les SDK et les autres exécuteurs.
Pour apprendre les concepts de base d'Apache Beam, consultez les pages Présentation de Beam et Beam Playground. Le dépôt Dataflow Cookbook fournit également des pipelines prêts à l'emploi et autonomes, ainsi que les cas d'utilisation les plus courants de Dataflow.
Démarrez votre prochain projet avec 300 $ de crédits offerts
Créez et testez une démonstration de faisabilité avec les crédits d'essai offerts et l'utilisation mensuelle gratuite de plus de 20 produits.
Continuez à explorer le monde avec plus de 20 produits toujours gratuits
Accédez à plus de 20 produits gratuits pour des cas d'utilisation courants, y compris des API d'IA, des VM, des entrepôts de données, et plus encore.
Ressources de documentation
Guides
-
Créer un pipeline Dataflow à l'aide de Java
-
Créer un pipeline Dataflow à l'aide de Python
-
Créer un pipeline Dataflow à l'aide de Go
-
Créer un pipeline de traitement en flux continu à l'aide d'un modèle Dataflow
-
Créer et exécuter un modèle Flex
-
Déployer des pipelines Dataflow
-
Développer avec les notebooks
-
Dépannage et débogage
-