Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Cette page explique les types de plug-ins installés par défaut lorsque vous créez une instance Cloud Data Fusion. Ces plug-ins sont disponibles dans l'espace de noms par défaut de votre instance et dans tous les nouveaux espaces de noms que vous créez. Vous pouvez télécharger des plug-ins supplémentaires depuis Hub.
Les plug-ins sont répartis dans les catégories suivantes dans Cloud Data Fusion. Ils apparaissent dans le panneau de gauche de la page Studio de Cloud Data Fusion.
Source
Les plug-ins de source se connectent à des bases de données, des fichiers ou des flux en temps réel où votre pipeline lit les données. Vous configurez les sources d'un pipeline de données à l'aide de l'interface Web. Vous n'avez donc pas besoin d'utiliser de code pour configurer des connexions de bas niveau.
Transformer
Les plug-ins de transformation modifient les données après leur chargement à partir d'une source. Par exemple, vous pouvez utiliser ces plug-ins pour cloner un enregistrement, définir le format de fichier sur JSON ou créer une transformation personnalisée à l'aide de JavaScript.
Analytics
Les plug-ins d'analyse effectuent des agrégations, telles que la jointure de données provenant de différentes sources et l'exécution d'opérations d'analyse et de machine learning.
Sink
Les plug-ins de récepteur écrivent des données dans des ressources telles que Cloud Storage, BigQuery, Spanner, des bases de données relationnelles, des systèmes de fichiers et des mainframes. Vous pouvez interroger les données écrites dans le collecteur à l'aide de l'interface Web Cloud Data Fusion ou de l'API REST.
Conditions et actions
Les plug-ins de condition et d'action planifient les actions qui se déroulent pendant un workflow, mais ne manipulent pas directement les données de ce dernier.
Exemples de cas d'utilisation :
Planifiez l'exécution d'une commande de base de données à la fin de votre pipeline en ajoutant le plug-in d'action de base de données à votre pipeline.
Déclenchez une action qui déplace des fichiers dans Cloud Storage en ajoutant le plug-in de déplacement de fichiers à votre pipeline.
Gestionnaires d'erreurs et alertes
Lorsque les étapes du pipeline rencontrent des valeurs nulles, des erreurs logiques ou d'autres erreurs, les plug-ins de gestionnaire d'erreurs les interceptent. Utilisez ces plug-ins pour détecter les erreurs dans la sortie après un plug-in de transformation ou d'analyse dans votre pipeline. Vous pouvez écrire les erreurs dans une base de données à des fins d'analyse.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eCloud Data Fusion instances come with default plugins available across all namespaces.\u003c/p\u003e\n"],["\u003cp\u003ePlugins in Cloud Data Fusion are categorized into Source, Transform, Analytics, Sink, and Conditions/Actions.\u003c/p\u003e\n"],["\u003cp\u003eSource plugins are for reading data, Transform plugins are for changing data, Analytics plugins are for aggregations, and Sink plugins are for writing data to resources.\u003c/p\u003e\n"],["\u003cp\u003eCondition and action plugins are used for scheduling actions during a workflow, without directly manipulating the data.\u003c/p\u003e\n"],["\u003cp\u003eError handlers and alerts capture errors in pipelines, allowing for the errors to be written to a database for further analysis.\u003c/p\u003e\n"]]],[],null,["# Types of plugins\n\nThis page explains the types of plugins that are installed by default when you\ncreate a Cloud Data Fusion instance. These plugins are available in the\ndefault namespace in your instance, and any new namespaces that you create. You\ncan download additional plugins from [Hub](/data-fusion/docs/how-to/deploy-a-plugin).\n\nPlugins have the following categories in Cloud Data Fusion. They appear on\nthe left-hand panel in the Cloud Data Fusion **Studio** page.\n\nSource\n------\n\nSource plugins connect to databases, files, or real-time streams where your\npipeline reads data. You set up sources for a data pipeline using the web\ninterface, so you don't have to use code to configure low-level connections.\n\nTransform\n---------\n\nTransformation plugins change data after it's loaded from a source. For\nexample, you can use these plugins to clone a record, change the file format to\nJSON, or create a custom transformation using JavaScript.\n\nAnalytics\n---------\n\nAnalytics plugins perform aggregations, such as joining data from different\nsources and running analytics and machine learning operations.\n\nSink\n----\n\nSink plugins write data to resources, such as Cloud Storage,\nBigQuery, Spanner, relational databases, file systems, and\nmainframes. You can query the data that gets written to the sink using the\nCloud Data Fusion web interface or REST API.\n\nConditions and actions\n----------------------\n\nCondition and action plugins schedule actions that take place during a workflow,\nbut don't directly manipulate data in the workflow.\n\nExample use cases:\n\n- Schedule a database command to run at the end of your pipeline by adding the Database action plugin to your pipeline.\n- Trigger an action that moves files within Cloud Storage by adding the File Move plugin to your pipeline.\n\nError handlers and alerts\n-------------------------\n\nWhen stages of the pipeline encounter null values, logical errors, or other\nerrors, error handler plugins catch them. Use these plugins to find errors in\nthe output after a transform or analytics plugin in your pipeline. You can write\nthe errors to a database for analysis.\n\nWhat's next\n-----------\n\n- Learn how to [deploy a plugin from the Cloud Data Fusion Hub](/data-fusion/docs/how-to/deploy-a-plugin)."]]