Présentation de Cloud Data Fusion

Cloud Data Fusion est une solution cloud native de données d'entreprise pour créer et gérer rapidement des pipelines de données. La L'interface Web de Cloud Data Fusion vous permet de créer une intégration de données évolutive de Google Cloud. Il vous permet de vous connecter à diverses sources de données, de les transformer et puis les transférer vers différents systèmes de destination, sans avoir à gérer de l'infrastructure.

Cloud Data Fusion s'appuie sur le projet Open Source CDAP.

Premiers pas avec Cloud Data Fusion

Vous pouvez commencer à explorer Cloud Data Fusion en quelques minutes.

Découvrir Cloud Data Fusion

Les principaux composants de Cloud Data Fusion sont décrits dans les sections suivantes .

Projet locataire

Ensemble des services requis pour créer et orchestrer Cloud Data Fusion les pipelines et les métadonnées de pipeline sont provisionnées dans un projet, dans une architecture de location bloc d'annonces. Un projet locataire distinct est créé pour chaque projet client dans lequel des instances Cloud Data Fusion sont provisionnées. Le projet locataire hérite toutes les configurations de réseau et de pare-feu du projet client.

Cloud Data Fusion : console

La console Cloud Data Fusion, également appelée plan de contrôle, est ensemble d'opérations d'API et une interface Web qui gère l'instance Cloud Data Fusion elle-même, telles que les créer, les supprimer, les redémarrer et les mettre à jour.

Cloud Data Fusion : Studio

Cloud Data Fusion Studio, également appelé plan de données, est un ensemble d'opérations d'API REST et d'interface Web qui gèrent la création, l'exécution et la gestion des pipelines et des artefacts associés.

Concepts

Cette section présente certains des concepts fondamentaux de Cloud Data Fusion.

Concept Description
Instance Cloud Data Fusion 
  • Une instance Cloud Data Fusion est un déploiement unique de Cloud Data Fusion. Pour commencer à utiliser Cloud Data Fusion, vous devez créer une instance Cloud Data Fusion via la console Google Cloud.
  • Vous pouvez créer plusieurs instances dans un même projet Google Cloud Console et spécifier la région Google Cloud dans laquelle créer vos instances Cloud Data Fusion.
  • En fonction de vos exigences et des contraintes de coûts, vous pouvez créer une instance Developer, Basic ou Enterprise.
  • Chaque instance Cloud Data Fusion contient un sous-réseau unique un déploiement Cloud Data Fusion contenant un ensemble de services, qui gèrent la gestion du cycle de vie, l'orchestration la coordination et la gestion des métadonnées. Ces services s'exécutent à l'aide de les ressources de longue durée projet locataire.
Espace de noms Un espace de noms est un regroupement logique d'applications, de données et des métadonnées associées dans une instance Cloud Data Fusion. Vous pouvez réfléchir d'espaces de noms en tant que partitionnement de l'instance. Dans une seule instance, un espace de noms stocke les données et les métadonnées d'une entité indépendamment d'un autre espace de noms.
Pipeline
  • Un pipeline est un moyen de concevoir visuellement les données et le contrôle pour extraire, transformer, combiner, agréger et charger des données à partir de de diverses sources de données sur site et dans le cloud.
  • La création de pipelines vous permet de créer des workflows de traitement de données complexes qui peuvent vous aider à résoudre les problèmes d'ingestion, d'intégration et de migration des données. Vous pouvez utiliser Cloud Data Fusion pour créer des pipelines par lot et en temps réel, en fonction de vos besoins.
  • Les pipelines vous permettent de représenter vos workflows de traitement de données à l'aide du flux logique de données, tandis que Cloud Data Fusion gère toutes les fonctionnalités requises pour s'exécuter physiquement dans un environnement d'exécution.
Nœud de pipeline
  • Sur la page Studio de l'interface Web Cloud Data Fusion, les pipelines sont représentés sous la forme d'une série de nœuds disposés dans un graphe orienté acyclique (DAG), sous forme unidirectionnelle.
  • Les nœuds représentent les différentes actions que vous pouvez effectuer tels que la lecture à partir de sources, l'exécution de les transformations et l'écriture de la sortie dans des récepteurs. Vous pouvez développer des pipelines de données dans l'interface Web de Cloud Data Fusion en connectant des sources, des transformations, des récepteurs et d'autres nœuds.
Plug-in 
  • Un plug-in est un module personnalisable qui peut être utilisé pour étendre les fonctionnalités de Cloud Data Fusion.
  • Cloud Data Fusion fournit des plug-ins pour les sources, les transformations, les agrégats, les récepteurs, les collecteurs d'erreurs, les éditeurs d'alerte, les actions et les actions post-exécution.
  • Un plug-in est parfois appelé "nœud", généralement dans le contexte de l'interface Web de Cloud Data Fusion.
  • Pour découvrir les plug-ins Cloud Data Fusion populaires, voir <ph type="x-smartling-placeholder"></ph> Plug-ins Cloud Data Fusion.
Hub  Dans l'interface Web de Cloud Data Fusion, cliquez sur Hub pour parcourir les plug-ins, les exemples de pipelines et d'autres intégrations. Lorsqu'une nouvelle version d'un plug-in est publiée, elle est visible dans le hub dans n'importe quelle instance compatible. Cela s'applique même si l'instance a été créée avant le plug-in a été publié.
Aperçu du pipeline
  • Cloud Data Fusion Studio vous permet de tester la précision de la conception du pipeline à l'aide de l'option Aperçu sur le sous-ensemble de données.
  • Un pipeline en version preview s'exécute dans le projet locataire.
Exécution du pipeline 
  • Cloud Data Fusion crée des environnements d'exécution éphémères pour exécuter des pipelines.
  • Cloud Data Fusion est compatible avec Dataproc en tant qu'environnement d'exécution.
  • Cloud Data Fusion provisionne un cluster Dataproc éphémère dans votre projet client au début de l'exécution d'un pipeline, exécute le pipeline avec Spark dans le cluster, puis le supprime une fois l'exécution du pipeline terminée.
  • Si vous gérez vos clusters Dataproc, dans des environnements contrôlés, grâce à des technologies comme Terraform, vous pouvez configurer Cloud Data Fusion pour qu'il ne provisionne pas de clusters. Dans dans ces environnements, vous pouvez exécuter des pipelines Clusters Dataproc.
Profil de calcul 
  • Un profil de calcul spécifie comment et où un pipeline est exécuté. Un profil encapsule toutes les informations requises pour configurer et supprimer l'environnement d'exécution physique d'un pipeline.
  • Par exemple, un profil de calcul comprend les éléments suivants :
    • Gestionnaire d'allocation d'exécution
    • Ressources (mémoire et processeur)
    • Nombre minimal et maximal de nœuds
    • Autres valeurs
  • Un profil est identifié par son nom et doit se voir attribuer un approvisionneur et la configuration associée. Un profil peut exister au niveau de l'instance Cloud Data Fusion ou au niveau de l'espace de noms.
  • Le profil de calcul par défaut de Cloud Data Fusion est Autoscaling.
Pipeline réutilisable 
  • Les pipelines de données réutilisables dans Cloud Data Fusion permettent de créer d'un pipeline unique, capable d'appliquer un modèle d'intégration de données de cas d'utilisation et d'ensembles de données.
  • Les pipelines réutilisables améliorent la gestion en définissant la plupart des la configuration d'un pipeline au moment de l'exécution, et non à les coder en dur au moment de la conception.
Déclencher
  • Cloud Data Fusion permet de créer un déclencheur sur un pipeline de données (appelé pipeline en aval) pour qu'il s'exécute à la fin d'un ou plusieurs pipelines différents (appelés pipelines en amont). Vous choisissez le moment d'exécution du pipeline en aval, par exemple en cas de réussite, d'échec, d'arrêt ou de toute combinaison de l'exécution du pipeline en amont.
  • Les déclencheurs sont utiles dans les cas suivants:
    • Nettoyer vos données une seule fois, puis les mettre à disposition de plusieurs pipelines en aval pour utilisation.
    • Partager des informations, telles que des arguments d'exécution et des configurations de plug-ins, entre les pipelines C'est ce qu'on appelle la configuration de la charge utile.
    • Il existe un ensemble de pipelines dynamiques qui peuvent s'exécuter à l'aide des données l'heure, le jour, la semaine ou le mois, au lieu d'utiliser un pipeline statique qui doit être mis à jour à chaque exécution.

Ressources Cloud Data Fusion

Découvrez les ressources Cloud Data Fusion :

Étape suivante