-
Modèle de programmation Apache Beam
Présentation du modèle de programmation unifié Apache Beam pour le traitement de données par lots et par flux. Découvrez les principes de base du modèle de programmation, y compris les pipelines, les ensembles PCollections, les transformations et les E/S de pipeline.
-
Pipelines en streaming
Présentation de la manière dont Dataflow traite les flux de données.
-
Modèles Dataflow
Présentation de l'utilisation des modèles Dataflow pour organiser vos pipelines sur Google Cloud et les exécuter à l'aide de Google Cloud Console, de Google Cloud CLI ou des appels d'API REST.
-
Sécurité et autorisations
Présentation de la manière dont Dataflow gère la sécurité et les autorisations pour vos données et les ressources cloud gérées de votre pipeline.
-
Contrôle des accès avec IAM
Présentation de la manière dont Dataflow contrôle l'accès des utilisateurs de votre projet aux ressources spécifiques à Dataflow.
-
Dépendances des SDK et des nœuds de calcul
Présentation des informations concernant les dépendances et les packages de nœud de calcul pour les SDK Apache Beam et Dataflow.
-
Points de terminaison régionaux
Présentation des points de terminaison régionaux Dataflow, qui vous permettent de spécifier une région pour le déploiement de vos tâches Dataflow.
-
Streaming avec Pub/Sub
Présentation de l'intégration de Dataflow à Pub/Sub.
-
Compatibilité avec les GPU
Présentation du fonctionnement des GPU avec Dataflow.
-
Execution details
Présentation de l'onglet Détails d'exécution de l'interface utilisateur de surveillance Web.
-
Journaux d'audit
Présentation des journaux d'audit créés par Dataflow dans le cadre des journaux d'audit Cloud.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.