이 페이지에서는 Cloud Data Fusion 인스턴스를 만들 때 기본적으로 설치되는 플러그인 유형에 대해 설명합니다. 이러한 플러그인은 인스턴스의 기본 네임스페이스와 새로 생성하는 모든 네임스페이스에서 사용할 수 있습니다. 허브에서 추가 플러그인을 다운로드할 수 있습니다.
Cloud Data Fusion에는 다음과 같은 카테고리의 플러그인이 있습니다. Cloud Data Fusion Studio 페이지의 왼쪽 패널에 표시됩니다.
소스
소스 플러그인은 파이프라인이 데이터를 읽는 데이터베이스, 파일 또는 실시간 스트림에 연결됩니다. 웹 인터페이스를 사용하여 데이터 파이프라인의 소스를 설정하므로 코드를 사용하여 하위 수준 연결을 구성할 필요가 없습니다.
변환
변환 플러그인은 소스에서 데이터를 로드한 후에 데이터를 변경합니다. 예를 들어 이러한 플러그인을 사용하여 레코드를 클론하거나, 파일 형식을 JSON으로 변경하거나, JavaScript를 사용하여 커스텀 변환을 만들 수 있습니다.
분석
분석 플러그인은 여러 소스의 데이터를 조인하고 분석 및 머신러닝 작업을 실행하는 등의 집계를 실행합니다.
싱크
싱크 플러그인은 Cloud Storage, BigQuery, Spanner, 관계형 데이터베이스, 파일 시스템, 메인프레임과 같은 리소스에 데이터를 씁니다. Cloud Data Fusion 웹 인터페이스 또는 REST API를 사용하여 싱크에 기록되는 데이터를 쿼리할 수 있습니다.
조건 및 작업
조건 및 작업 플러그인은 워크플로 중에 실행되는 작업을 예약하지만 워크플로의 데이터를 직접 조작하지는 않습니다.
사용 사례 예시
데이터베이스 작업 플러그인을 파이프라인에 추가하여 파이프라인 끝에 실행되도록 데이터베이스 명령어를 예약합니다.
파일 이동 플러그인을 파이프라인에 추가하여 Cloud Storage 내에서 파일을 이동하는 작업을 트리거합니다.
오류 핸들러 및 알림
파이프라인의 단계에서 null 값, 논리 오류 또는 기타 오류가 발생하면 오류 핸들러 플러그인이 이를 포착합니다. 이 플러그인을 사용하여 파이프라인의 변환 또는 분석 플러그인 뒤의 출력에서 오류를 찾습니다. 분석을 위해 오류를 데이터베이스에 기록할 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[[["\u003cp\u003eCloud Data Fusion instances come with default plugins available across all namespaces.\u003c/p\u003e\n"],["\u003cp\u003ePlugins in Cloud Data Fusion are categorized into Source, Transform, Analytics, Sink, and Conditions/Actions.\u003c/p\u003e\n"],["\u003cp\u003eSource plugins are for reading data, Transform plugins are for changing data, Analytics plugins are for aggregations, and Sink plugins are for writing data to resources.\u003c/p\u003e\n"],["\u003cp\u003eCondition and action plugins are used for scheduling actions during a workflow, without directly manipulating the data.\u003c/p\u003e\n"],["\u003cp\u003eError handlers and alerts capture errors in pipelines, allowing for the errors to be written to a database for further analysis.\u003c/p\u003e\n"]]],[],null,["# Types of plugins\n\nThis page explains the types of plugins that are installed by default when you\ncreate a Cloud Data Fusion instance. These plugins are available in the\ndefault namespace in your instance, and any new namespaces that you create. You\ncan download additional plugins from [Hub](/data-fusion/docs/how-to/deploy-a-plugin).\n\nPlugins have the following categories in Cloud Data Fusion. They appear on\nthe left-hand panel in the Cloud Data Fusion **Studio** page.\n\nSource\n------\n\nSource plugins connect to databases, files, or real-time streams where your\npipeline reads data. You set up sources for a data pipeline using the web\ninterface, so you don't have to use code to configure low-level connections.\n\nTransform\n---------\n\nTransformation plugins change data after it's loaded from a source. For\nexample, you can use these plugins to clone a record, change the file format to\nJSON, or create a custom transformation using JavaScript.\n\nAnalytics\n---------\n\nAnalytics plugins perform aggregations, such as joining data from different\nsources and running analytics and machine learning operations.\n\nSink\n----\n\nSink plugins write data to resources, such as Cloud Storage,\nBigQuery, Spanner, relational databases, file systems, and\nmainframes. You can query the data that gets written to the sink using the\nCloud Data Fusion web interface or REST API.\n\nConditions and actions\n----------------------\n\nCondition and action plugins schedule actions that take place during a workflow,\nbut don't directly manipulate data in the workflow.\n\nExample use cases:\n\n- Schedule a database command to run at the end of your pipeline by adding the Database action plugin to your pipeline.\n- Trigger an action that moves files within Cloud Storage by adding the File Move plugin to your pipeline.\n\nError handlers and alerts\n-------------------------\n\nWhen stages of the pipeline encounter null values, logical errors, or other\nerrors, error handler plugins catch them. Use these plugins to find errors in\nthe output after a transform or analytics plugin in your pipeline. You can write\nthe errors to a database for analysis.\n\nWhat's next\n-----------\n\n- Learn how to [deploy a plugin from the Cloud Data Fusion Hub](/data-fusion/docs/how-to/deploy-a-plugin)."]]