각 파이프라인에 대해 타이밍 측정항목과 같은 계측을 사용 설정하거나 중지할 수 있습니다. 기본적으로 계측은 사용 설정되어 있습니다. 계측이 사용 설정된 경우 파이프라인을 실행하면 Cloud Data Fusion에서 각 파이프라인 노드의 측정항목을 생성합니다. 다음 측정항목은 각 노드의 측정항목 탭에 표시됩니다. 소스, 변환, 싱크 측정항목은 약간 다릅니다.
발신 기록
수신 기록
총 오류 수
초당 발신 기록
최소 처리 시간(기록 1개)
최대 처리 시간(기록 1개)
표준 편차
평균 처리 시간
리소스가 부족한 환경이 아니라면 항상 계측을 사용 설정하는 것이 좋습니다.
스트리밍 파이프라인의 경우 스트리밍 데이터의 일괄 간격(초/분)을 설정할 수도 있습니다.
엔진 구성
Apache Spark가 기본 실행 엔진입니다. Spark에 커스텀 파라미터를 전달할 수 있습니다. 자세한 내용은 병렬 처리를 참고하세요.
리소스
Spark 드라이버 및 실행자의 메모리와 CPU 수를 지정할 수 있습니다. 드라이버는 Spark 작업을 조정합니다. 실행자는 Spark에서 데이터 처리를 처리합니다. 자세한 내용은 리소스 관리를 참조하세요.
파이프라인 알림
파이프라인 실행이 완료된 후 알림을 보내고 후처리 작업을 시작하도록 파이프라인을 구성할 수 있습니다. 파이프라인을 설계할 때 파이프라인 알림을 만듭니다. 파이프라인을 배포한 후 알림을 볼 수 있습니다. 파이프라인을 수정하여 알림 설정을 변경할 수 있습니다. 자세한 내용은 알림 만들기를 참고하세요.
변환 푸시다운
파이프라인이 BigQuery에서 특정 변환을 실행하도록 하려면 변환 푸시다운을 사용 설정할 수 있습니다. 자세한 내용은 변환 푸시다운 개요를 참조하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[[["\u003cp\u003eThis page provides guidance on managing configurations for deployed pipelines, including compute profiles, pipeline instrumentation, engine parameters, resource allocation, and alerts.\u003c/p\u003e\n"],["\u003cp\u003eYou can customize the compute profile that runs the pipeline and set parameters, with the option to manage profiles and view Dataproc provisioner properties.\u003c/p\u003e\n"],["\u003cp\u003eInstrumentation can be enabled or disabled to generate metrics for each pipeline node, which can help in performance monitoring, and is recommended unless resources are constrained.\u003c/p\u003e\n"],["\u003cp\u003eConfigurations can also be made to allow for custom Spark parameters, memory and CPU specifications for the driver and executor, and the setting of batch intervals for streaming data.\u003c/p\u003e\n"],["\u003cp\u003ePipeline alerts and post-processing tasks can be set up during pipeline design and viewed after deployment, with the flexibility to enable transformation pushdown for BigQuery execution.\u003c/p\u003e\n"]]],[],null,["# Manage pipeline configurations\n\nThis page describes ways you can manage configurations for deployed\npipelines.\n\nBefore you begin\n----------------\n\nThis page requires some background knowledge about [Compute profiles](/data-fusion/docs/how-to/manage-compute-profiles) and\n[pipeline performance](/data-fusion/docs/concepts/performance-tuning-overview).\n\nCompute profile configuration\n-----------------------------\n\nYou can change the compute profile or customize the parameters of the default\ncompute profile that runs the pipeline. For more information, see\n[Manage compute profiles](/data-fusion/docs/how-to/manage-compute-profiles) and [Dataproc provisioner properties](/data-fusion/docs/concepts/dataproc).\n\nPipeline configuration\n----------------------\n\nFor each pipeline, you can enable or disable instrumentation, such as timing\nmetrics. By default, instrumentation is on. If instrumentation is enabled, when\nyou run the pipeline, Cloud Data Fusion generates metrics for each pipeline\nnode. The following metrics display on the **Metrics** tab of each node. The\nsource, transformation, and sink metrics vary slightly.\n\n- Records out\n- Records in\n- Total number of errors\n- Records out per second\n- Min process time (one record)\n- Max process time (one record)\n- Standard deviation\n- Average processing time\n\nWe recommend you always turn on Instrumentation, unless the environment is short\non resources.\n\nFor streaming pipelines, you can also set the **Batch interval**\n(seconds/minutes) for streaming data.\n\nEngine configuration\n--------------------\n\nApache Spark is the default execution engine. You can pass custom parameters\nfor Spark. For more information, see [Parallel processing](/data-fusion/docs/concepts/parallel-processing).\n\nResources\n---------\n\nYou can specify the memory and number of CPUs for the Spark driver and\nexecutor. The driver orchestrates the Spark job. The executor handles the data\nprocessing in Spark. For more information, see [Resource management](/data-fusion/docs/concepts/resource-management).\n\nPipeline alert\n--------------\n\nYou can configure the pipeline to send alerts and start post processing tasks\nafter the pipeline run finishes. You create pipeline alerts when you design the\npipeline. After you deploy the pipeline, you can view the alerts. You can edit\nthe pipeline to change alert settings. For more information, see\n[Create alerts](/data-fusion/docs/how-to/create-alerts).\n\nTransformation pushdown\n-----------------------\n\nYou can enable Transformation pushdown if you want a pipeline to execute\ncertain transformations in BigQuery. For more information,\nsee the [Transformation Pushdown overview](/data-fusion/docs/concepts/transformation-pushdown).\n\nWhat's next\n-----------\n\n- Learn more about [viewing and downloading pipeline logs in Cloud Data Fusion](/data-fusion/docs/how-to/view-and-download-pipeline-logs)."]]