지연 가능한 연산자 사용

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

이 페이지에서는 사용자 환경에서 지연 가능한 연산자에 대한 지원을 사용 설정하고 DAG에서 지연 가능한 Google Cloud 연산자를 사용하는 방법을 설명합니다.

Cloud Composer의 지연 가능한 연산자 정보

트리거 인스턴스가 최소 하나 이상(또는 복원력이 우수한 환경에서는 최소 2개 이상) 있는 경우 DAG에서 지연 가능한 연산자와 트리거를 사용할 수 있습니다.

지연 가능한 연산자의 경우 Airflow는 태스크 실행을 다음 단계로 분할합니다.

  1. 연산을 시작합니다. 이 단계에서 태스크는 Airflow 작업자 슬롯을 점유합니다. 이 태스크는 연산을 다른 서비스에 위임하는 작업을 수행합니다.

    예를 들어 BigQuery 작업을 실행하는 데 몇 초에서 몇 시간까지 걸릴 수 있습니다. 작업을 만든 후 연산은 작업 식별자(BigQuery 작업 ID)를 Airflow 트리거에 전달합니다.

  2. 트리거는 작업이 완료될 때까지 작업을 모니터링합니다. 이 단계에서는 작업자 슬롯이 사용 중이 아닙니다. Airflow 트리거는 비동기 아키텍처를 사용하며 이러한 작업을 수백 개 처리할 수 있습니다. 트리거에서 작업 완료를 감지하면 마지막 단계를 트리거하는 이벤트를 전송합니다.

  3. 마지막 단계에서는 Airflow 작업자가 콜백을 실행합니다. 예를 들어 이 콜백은 태스크를 성공으로 표시하거나 다른 연산을 실행하고 트리거가 다시 모니터링할 작업을 설정할 수 있습니다.

트리거는 스테이트리스(Stateless)이므로 중단 또는 다시 시작에 대한 복원력이 우수합니다. 따라서 마지막 단계에 짧게 예상되는 다시 시작이 발생하지 않는 한 장기 실행 작업은 포드 재시작에 대해 복원력이 우수합니다.

시작하기 전에

  • 지연 가능한 연산자 및 센서는 Cloud Composer 2 환경에서 사용할 수 있으며 다음이 필요합니다.
    • Cloud Composer 2.0.31 이상 버전
    • Airflow 2.2.5, 2.3.3 이상 버전

지연 가능한 연산자 지원 사용 설정

Airflow 트리거라는 환경 구성요소는 환경에서 모든 지연된 태스크를 비동기식으로 모니터링합니다. 이러한 태스크의 지연된 연산이 완료되면 트리거가 태스크를 Airflow 작업자에게 전달합니다.

DAG에서 지연 가능한 모드를 사용하려면 환경에 트리거 인스턴스가 최소 하나 이상(또는 복원력이 우수한 환경에서는 최소 2개 이상) 필요합니다. 환경을 만들 때 트리거를 구성하거나 기존 환경의 트리거 및 성능 매개변수 수를 조정할 수 있습니다.

지연 모드를 지원하는 Google Cloud 연산자

일부 Airflow 연산자만 지연 가능한 모델을 지원하도록 확장되었습니다. 다음 목록은 지연 가능한 모드를 지원하는 airflow.providers.google.operators.cloud 패키지의 연산자에 대한 참조입니다. 최소 필수 airflow.providers.google.operators.cloud 패키지 버전이 있는 열은 해당 연산자가 지연 가능한 모드를 지원하는 가장 오래된 패키지 버전을 나타냅니다.

Cloud Composer 연산자

연산자 이름필수 apache-airflow-providers-google 버전
CloudComposerCreateEnvironmentOperator 6.4.0
CloudComposerDeleteEnvironmentOperator 6.4.0
CloudComposerUpdateEnvironmentOperator 6.4.0

BigQuery 연산자

연산자 이름필수 apache-airflow-providers-google 버전
BigQueryCheckOperator 8.4.0
BigQueryValueCheckOperator 8.4.0
BigQueryIntervalCheckOperator 8.4.0
BigQueryGetDataOperator 8.4.0
BigQueryInsertJobOperator 8.4.0

BigQuery Data Transfer Service 연산자

연산자 이름필수 apache-airflow-providers-google 버전
BigQueryDataTransferServiceStartTransferRunsOperator 8.9.0

Cloud Build 연산자

연산자 이름필수 apache-airflow-providers-google 버전
CloudBuildCreateBuildOperator 8.7.0

Cloud SQL 연산자

연산자 이름필수 apache-airflow-providers-google 버전
CloudSQLExportInstanceOperator 10.3.0

Dataflow 연산자

연산자 이름필수 apache-airflow-providers-google 버전
DataflowTemplatedJobStartOperator 8.9.0
DataflowStartFlexTemplateOperator 8.9.0

Cloud Data Fusion 연산자

연산자 이름필수 apache-airflow-providers-google 버전
CloudDataFusionStartPipelineOperator 8.9.0

Google Kubernetes Engine 연산자

연산자 이름필수 apache-airflow-providers-google 버전
GKEDeleteClusterOperator 9.0.0
GKECreateClusterOperator 9.0.0

AI Platform 연산자

연산자 이름필수 apache-airflow-providers-google 버전
MLEngineStartTrainingJobOperator 8.9.0

DAG에서 지연 가능한 연산자 사용

모든 Google Cloud 연산자의 일반적인 규칙은 deferrable 불리언 매개변수로 지연 가능 모드를 사용 설정하는 것입니다. Google Cloud 연산자에 이 매개변수가 없으면 지연 가능한 모드로 실행할 수 없습니다. 다른 연산자는 다른 규칙을 가질 수 있습니다. 예를 들어 일부 커뮤니티 연산자에는 이름에 Async 서픽스가 있는 별도의 클래스가 있습니다.

다음 DAG 예시는 지연 가능한 모드에서 DataprocSubmitJobOperator 연산자를 사용합니다.

PYSPARK_JOB = {
    "reference": { "project_id": "PROJECT_ID" },
    "placement": { "cluster_name": "PYSPARK_CLUSTER_NAME" },
    "pyspark_job": {
        "main_python_file_uri": "gs://dataproc-examples/pyspark/hello-world/hello-world.py"
    },
}

DataprocSubmitJobOperator(
        task_id="dataproc-deferrable-example",
        job=PYSPARK_JOB,
        deferrable=True,
    )

트리거 로그 보기

트리거는 다른 환경 구성요소의 로그와 함께 사용 가능한 로그를 생성합니다. 환경 로그 보기에 대한 자세한 내용은 로그 보기를 참조하세요.

트리거 모니터링

트리거 구성요소 모니터링에 대한 자세한 내용은 Airflow 측정항목을 참조하세요.

트리거를 모니터링하는 것 외에도 환경의 모니터링 대시보드에 있는 완료되지 않은 태스크 측정항목에서 지연된 태스크 수를 확인할 수 있습니다.

다음 단계