Menulis DAG Airflow

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Panduan ini menunjukkan cara menulis directed acyclic graph (DAG) Apache Airflow yang berjalan di lingkungan Cloud Composer.

Karena Apache Airflow tidak menyediakan isolasi tugas dan DAG yang kuat, sebaiknya Anda menggunakan lingkungan produksi dan pengujian terpisah untuk mencegah gangguan DAG. Untuk informasi selengkapnya, lihat Menguji DAG.

Membuat struktur DAG Airflow

DAG Airflow ditentukan dalam file Python dan terdiri dari komponen berikut:

  • Definisi DAG
  • Operator Airflow
  • Hubungan operator

Cuplikan kode berikut menunjukkan contoh setiap komponen di luar konteks.

Definisi DAG

Contoh berikut menunjukkan definisi DAG Alur Kerja:

Airflow 2

import datetime

from airflow import models

default_dag_args = {
    # The start_date describes when a DAG is valid / can be run. Set this to a
    # fixed point in time rather than dynamically, since it is evaluated every
    # time a DAG is parsed. See:
    # https://airflow.apache.org/faq.html#what-s-the-deal-with-start-date
    "start_date": datetime.datetime(2018, 1, 1),
}

# Define a DAG (directed acyclic graph) of tasks.
# Any task you create within the context manager is automatically added to the
# DAG object.
with models.DAG(
    "composer_sample_simple_greeting",
    schedule_interval=datetime.timedelta(days=1),
    default_args=default_dag_args,
) as dag:

Aliran udara 1

import datetime

from airflow import models

default_dag_args = {
    # The start_date describes when a DAG is valid / can be run. Set this to a
    # fixed point in time rather than dynamically, since it is evaluated every
    # time a DAG is parsed. See:
    # https://airflow.apache.org/faq.html#what-s-the-deal-with-start-date
    "start_date": datetime.datetime(2018, 1, 1),
}

# Define a DAG (directed acyclic graph) of tasks.
# Any task you create within the context manager is automatically added to the
# DAG object.
with models.DAG(
    "composer_sample_simple_greeting",
    schedule_interval=datetime.timedelta(days=1),
    default_args=default_dag_args,
) as dag:

Operator dan tugas

Operator Airflow menjelaskan pekerjaan yang akan dilakukan. Tugas tugas adalah instance operator tertentu.

Airflow 2

from airflow.operators.bash import BashOperator
from airflow.operators.python import PythonOperator

    def greeting():
        import logging

        logging.info("Hello World!")

    # An instance of an operator is called a task. In this case, the
    # hello_python task calls the "greeting" Python function.
    hello_python = PythonOperator(task_id="hello", python_callable=greeting)

    # Likewise, the goodbye_bash task calls a Bash script.
    goodbye_bash = BashOperator(task_id="bye", bash_command="echo Goodbye.")

Aliran udara 1

from airflow.operators import bash_operator
from airflow.operators import python_operator

    def greeting():
        import logging

        logging.info("Hello World!")

    # An instance of an operator is called a task. In this case, the
    # hello_python task calls the "greeting" Python function.
    hello_python = python_operator.PythonOperator(
        task_id="hello", python_callable=greeting
    )

    # Likewise, the goodbye_bash task calls a Bash script.
    goodbye_bash = bash_operator.BashOperator(
        task_id="bye", bash_command="echo Goodbye."
    )

Hubungan tugas

Hubungan tugas menjelaskan urutan pekerjaan yang harus diselesaikan.

Airflow 2

# Define the order in which the tasks complete by using the >> and <<
# operators. In this example, hello_python executes before goodbye_bash.
hello_python >> goodbye_bash

Aliran udara 1

# Define the order in which the tasks complete by using the >> and <<
# operators. In this example, hello_python executes before goodbye_bash.
hello_python >> goodbye_bash

Contoh alur kerja DAG lengkap di Python

Alur kerja berikut adalah template DAG lengkap yang berfungsi dan terdiri dari dua tugas: tugas hello_python dan tugas goodbye_bash:

Airflow 2


import datetime

from airflow import models

from airflow.operators.bash import BashOperator
from airflow.operators.python import PythonOperator



default_dag_args = {
    # The start_date describes when a DAG is valid / can be run. Set this to a
    # fixed point in time rather than dynamically, since it is evaluated every
    # time a DAG is parsed. See:
    # https://airflow.apache.org/faq.html#what-s-the-deal-with-start-date
    "start_date": datetime.datetime(2018, 1, 1),
}

# Define a DAG (directed acyclic graph) of tasks.
# Any task you create within the context manager is automatically added to the
# DAG object.
with models.DAG(
    "composer_sample_simple_greeting",
    schedule_interval=datetime.timedelta(days=1),
    default_args=default_dag_args,
) as dag:
    def greeting():
        import logging

        logging.info("Hello World!")

    # An instance of an operator is called a task. In this case, the
    # hello_python task calls the "greeting" Python function.
    hello_python = PythonOperator(task_id="hello", python_callable=greeting)

    # Likewise, the goodbye_bash task calls a Bash script.
    goodbye_bash = BashOperator(task_id="bye", bash_command="echo Goodbye.")

    # Define the order in which the tasks complete by using the >> and <<
    # operators. In this example, hello_python executes before goodbye_bash.
    hello_python >> goodbye_bash

Aliran udara 1


import datetime

from airflow import models

from airflow.operators import bash_operator
from airflow.operators import python_operator



default_dag_args = {
    # The start_date describes when a DAG is valid / can be run. Set this to a
    # fixed point in time rather than dynamically, since it is evaluated every
    # time a DAG is parsed. See:
    # https://airflow.apache.org/faq.html#what-s-the-deal-with-start-date
    "start_date": datetime.datetime(2018, 1, 1),
}

# Define a DAG (directed acyclic graph) of tasks.
# Any task you create within the context manager is automatically added to the
# DAG object.
with models.DAG(
    "composer_sample_simple_greeting",
    schedule_interval=datetime.timedelta(days=1),
    default_args=default_dag_args,
) as dag:
    def greeting():
        import logging

        logging.info("Hello World!")

    # An instance of an operator is called a task. In this case, the
    # hello_python task calls the "greeting" Python function.
    hello_python = python_operator.PythonOperator(
        task_id="hello", python_callable=greeting
    )

    # Likewise, the goodbye_bash task calls a Bash script.
    goodbye_bash = bash_operator.BashOperator(
        task_id="bye", bash_command="echo Goodbye."
    )

    # Define the order in which the tasks complete by using the >> and <<
    # operators. In this example, hello_python executes before goodbye_bash.
    hello_python >> goodbye_bash

Untuk informasi selengkapnya tentang menentukan DAG Airflow, lihat tutorial Airflow dan konsep Airflow.

Operator Airflow

Contoh berikut menunjukkan beberapa operator Airflow populer. Untuk referensi resmi operator Airflow, lihat Referensi Operator dan Hook dan Indeks penyedia.

BashOperator

Gunakan BashOperator untuk menjalankan program command line.

Airflow 2

from airflow.operators import bash

    # Create BigQuery output dataset.
    make_bq_dataset = bash.BashOperator(
        task_id="make_bq_dataset",
        # Executing 'bq' command requires Google Cloud SDK which comes
        # preinstalled in Cloud Composer.
        bash_command=f"bq ls {bq_dataset_name} || bq mk {bq_dataset_name}",
    )

Aliran udara 1

from airflow.operators import bash_operator

    # Create BigQuery output dataset.
    make_bq_dataset = bash_operator.BashOperator(
        task_id="make_bq_dataset",
        # Executing 'bq' command requires Google Cloud SDK which comes
        # preinstalled in Cloud Composer.
        bash_command=f"bq ls {bq_dataset_name} || bq mk {bq_dataset_name}",
    )

Cloud Composer menjalankan perintah yang disediakan dalam skrip Bash di pekerja Airflow. Pekerja adalah penampung Docker berbasis Debian dan menyertakan beberapa paket.

PythonOperator

Gunakan PythonOperator untuk menjalankan kode Python arbitrer.

Cloud Composer menjalankan kode Python dalam penampung yang menyertakan paket untuk versi image Cloud Composer yang digunakan di lingkungan Anda.

Untuk menginstal paket Python tambahan, lihat Menginstal Dependensi Python.

Operator Google Cloud

Untuk menjalankan tugas yang menggunakan produk Google Cloud, gunakan operator Google Cloud Airflow. Misalnya, operator BigQuery membuat kueri dan memproses data di BigQuery.

Ada banyak lagi operator Airflow untuk Google Cloud dan layanan individual yang disediakan oleh Google Cloud. Lihat Operator Google Cloud untuk mengetahui daftar lengkapnya.

Airflow 2

from airflow.providers.google.cloud.operators import bigquery
from airflow.providers.google.cloud.transfers import bigquery_to_gcs

    bq_recent_questions_query = bigquery.BigQueryInsertJobOperator(
        task_id="bq_recent_questions_query",
        configuration={
            "query": {
                "query": RECENT_QUESTIONS_QUERY,
                "useLegacySql": False,
                "destinationTable": {
                    "projectId": project_id,
                    "datasetId": bq_dataset_name,
                    "tableId": bq_recent_questions_table_id,
                },
            }
        },
        location=location,
    )

Aliran udara 1

from airflow.contrib.operators import bigquery_operator

    # Query recent StackOverflow questions.
    bq_recent_questions_query = bigquery_operator.BigQueryOperator(
        task_id="bq_recent_questions_query",
        sql="""
        SELECT owner_display_name, title, view_count
        FROM `bigquery-public-data.stackoverflow.posts_questions`
        WHERE creation_date < CAST('{max_date}' AS TIMESTAMP)
            AND creation_date >= CAST('{min_date}' AS TIMESTAMP)
        ORDER BY view_count DESC
        LIMIT 100
        """.format(
            max_date=max_query_date, min_date=min_query_date
        ),
        use_legacy_sql=False,
        destination_dataset_table=bq_recent_questions_table_id,
    )

EmailOperator

Gunakan EmailOperator untuk mengirim email dari DAG. Untuk mengirim email dari lingkungan Cloud Composer, konfigurasi lingkungan Anda untuk menggunakan SendGrid.

Airflow 2

from airflow.operators import email

    # Send email confirmation (you will need to set up the email operator
    # See https://cloud.google.com/composer/docs/how-to/managing/creating#notification
    # for more info on configuring the email operator in Cloud Composer)
    email_summary = email.EmailOperator(
        task_id="email_summary",
        to="{{var.value.email}}",
        subject="Sample BigQuery notify data ready",
        html_content="""
        Analyzed Stack Overflow posts data from {min_date} 12AM to {max_date}
        12AM. The most popular question was '{question_title}' with
        {view_count} views. Top 100 questions asked are now available at:
        {export_location}.
        """.format(
            min_date=min_query_date,
            max_date=max_query_date,
            question_title=(
                "{{ ti.xcom_pull(task_ids='bq_read_most_popular', "
                "key='return_value')[0][0] }}"
            ),
            view_count=(
                "{{ ti.xcom_pull(task_ids='bq_read_most_popular', "
                "key='return_value')[0][1] }}"
            ),
            export_location=output_file,
        ),
    )

Aliran udara 1

from airflow.operators import email_operator

    # Send email confirmation
    email_summary = email_operator.EmailOperator(
        task_id="email_summary",
        to="{{var.value.email}}",
        subject="Sample BigQuery notify data ready",
        html_content="""
        Analyzed Stack Overflow posts data from {min_date} 12AM to {max_date}
        12AM. The most popular question was '{question_title}' with
        {view_count} views. Top 100 questions asked are now available at:
        {export_location}.
        """.format(
            min_date=min_query_date,
            max_date=max_query_date,
            question_title=(
                "{{ ti.xcom_pull(task_ids='bq_read_most_popular', "
                "key='return_value')[0][0] }}"
            ),
            view_count=(
                "{{ ti.xcom_pull(task_ids='bq_read_most_popular', "
                "key='return_value')[0][1] }}"
            ),
            export_location=output_file,
        ),
    )

Notifikasi tentang kegagalan operator

Tetapkan email_on_failure ke True untuk mengirim notifikasi email saat operator dalam DAG gagal. Untuk mengirim notifikasi email dari lingkungan Cloud Composer, Anda harus mengonfigurasi lingkungan untuk menggunakan SendGrid.

Airflow 2

from airflow import models

default_dag_args = {
    "start_date": yesterday,
    # Email whenever an Operator in the DAG fails.
    "email": "{{var.value.email}}",
    "email_on_failure": True,
    "email_on_retry": False,
    "retries": 1,
    "retry_delay": datetime.timedelta(minutes=5),
    "project_id": project_id,
}

with models.DAG(
    "composer_sample_bq_notify",
    schedule_interval=datetime.timedelta(weeks=4),
    default_args=default_dag_args,
) as dag:

Aliran udara 1

from airflow import models

default_dag_args = {
    "start_date": yesterday,
    # Email whenever an Operator in the DAG fails.
    "email": "{{var.value.email}}",
    "email_on_failure": True,
    "email_on_retry": False,
    "retries": 1,
    "retry_delay": datetime.timedelta(minutes=5),
    "project_id": "{{var.value.gcp_project}}",
}

with models.DAG(
    "composer_sample_bq_notify",
    schedule_interval=datetime.timedelta(weeks=4),
    default_args=default_dag_args,
) as dag:

Panduan alur kerja DAG

  • Tempatkan library Python kustom di arsip ZIP DAG dalam direktori bertingkat. Jangan menempatkan library di tingkat teratas direktori DAG.

    Saat memindai folder dags/, Airflow hanya memeriksa DAG di modul Python yang berada di tingkat atas folder DAG dan di tingkat atas arsip ZIP yang juga terletak di folder dags/ tingkat atas. Jika Airflow menemukan modul Python dalam arsip ZIP yang tidak berisi substring airflow dan DAG, Airflow akan berhenti memproses arsip ZIP. Airflow hanya menampilkan DAG yang ditemukan hingga titik tersebut.

  • Gunakan Airflow 2, bukan Airflow 1.

    Komunitas Airflow tidak lagi memublikasikan rilis minor atau patch baru untuk Airflow 1.

  • Untuk toleransi error, jangan tentukan beberapa objek DAG dalam modul Python yang sama.

  • Jangan gunakan SubDAG. Sebagai gantinya, kelompokkan tugas di dalam DAG.

  • Tempatkan file yang diperlukan pada waktu penguraian DAG ke folder dags/, bukan di folder data/.

  • Terapkan pengujian unit untuk DAG Anda.

  • Uji DAG yang dikembangkan atau diubah seperti yang direkomendasikan dalam petunjuk untuk menguji DAG.

  • Pastikan DAG yang dikembangkan tidak terlalu meningkatkan waktu penguraian DAG.

  • Tugas Airflow dapat gagal karena beberapa alasan. Untuk menghindari kegagalan seluruh DAG yang berjalan, sebaiknya aktifkan percobaan ulang tugas. Menetapkan percobaan ulang maksimum ke 0 berarti tidak ada percobaan ulang yang dilakukan.

    Sebaiknya ganti opsi default_task_retries dengan nilai untuk percobaan ulang tugas selain 0. Selain itu, Anda dapat menetapkan parameter retries di tingkat tugas.

  • Jika Anda ingin menggunakan GPU dalam tugas Airflow, buat cluster GKE terpisah berdasarkan node yang menggunakan mesin dengan GPU. Gunakan GKEStartPodOperator untuk menjalankan tugas Anda.

  • Hindari menjalankan tugas yang menggunakan banyak CPU dan memori di node pool cluster tempat komponen Airflow lainnya (penjadwal, pekerja, server web) berjalan. Sebagai gantinya, gunakan KubernetesPodOperator atau GKEStartPodOperator.

  • Saat men-deploy DAG ke lingkungan, hanya upload file yang benar-benar diperlukan untuk menafsirkan dan mengeksekusi DAG ke folder /dags.

  • Batasi jumlah file DAG di folder /dags.

    Airflow terus mengurai DAG di folder /dags. Mengurai adalah proses yang melakukan loop melalui folder DAG dan jumlah file yang perlu dimuat (dengan dependensinya) akan memengaruhi performa penguraian DAG dan penjadwalan tugas. Sebaiknya gunakan 100 file dengan masing-masing 100 DAG daripada 10.000 file dengan masing-masing 1 DAG karena pengoptimalan tersebut jauh lebih efisien. Pengoptimalan ini adalah keseimbangan antara waktu penguraian dan efisiensi pembuatan serta pengelolaan DAG.

    Anda juga dapat mempertimbangkan, misalnya, untuk men-deploy 10.000 file DAG, Anda dapat membuat 100 file ZIP yang masing-masing berisi 100 file DAG.

    Selain petunjuk di atas, jika Anda memiliki lebih dari 10.000 file DAG, membuat DAG secara terprogram mungkin merupakan opsi yang baik. Misalnya, Anda dapat menerapkan satu file DAG Python yang menghasilkan sejumlah objek DAG (misalnya, 20, 100 objek DAG).

  • Hindari penggunaan operator Airflow yang tidak digunakan lagi. Sebagai gantinya, gunakan alternatif terbarunya.

FAQ untuk menulis DAG

Bagaimana cara meminimalkan pengulangan kode jika saya ingin menjalankan tugas yang sama atau serupa di beberapa DAG?

Sebaiknya tentukan library dan wrapper untuk meminimalkan pengulangan kode.

Bagaimana cara menggunakan kembali kode di antara file DAG?

Masukkan fungsi utilitas Anda di library Python lokal dan impor fungsi tersebut. Anda dapat mereferensikan fungsi dalam DAG apa pun yang terletak di folder dags/ di bucket lingkungan Anda.

Bagaimana cara meminimalkan risiko munculnya definisi yang berbeda?

Misalnya, Anda memiliki dua tim yang ingin menggabungkan data mentah menjadi metrik pendapatan. Tim menulis dua tugas yang sedikit berbeda yang mencapai hal yang sama. Menentukan library untuk menggunakan data pendapatan sehingga pengimplementasi DAG harus mengklarifikasi definisi pendapatan yang digabungkan.

Bagaimana cara menetapkan dependensi antar-DAG?

Hal ini bergantung pada cara Anda ingin menentukan dependensi.

Jika memiliki dua DAG (DAG A dan DAG B) dan ingin DAG B dipicu setelah DAG A, Anda dapat menempatkan TriggerDagRunOperator di akhir DAG A.

Jika DAG B hanya bergantung pada artefak yang dihasilkan DAG A, seperti pesan Pub/Sub, sensor mungkin akan berfungsi lebih baik.

Jika DAG B terintegrasi erat dengan DAG A, Anda mungkin dapat menggabungkan kedua DAG menjadi satu DAG.

Bagaimana cara meneruskan ID run unik ke DAG dan tugasnya?

Misalnya, Anda ingin meneruskan nama cluster dan jalur file Dataproc.

Anda dapat membuat ID unik acak dengan menampilkan str(uuid.uuid4()) dalam PythonOperator. Tindakan ini akan menempatkan ID ke dalam XComs sehingga Anda dapat merujuk ke ID di operator lain melalui kolom template.

Sebelum membuat uuid, pertimbangkan apakah ID khusus DagRun akan lebih bernilai. Anda juga dapat mereferensikan ID ini dalam penggantian Jinja dengan menggunakan makro.

Bagaimana cara memisahkan tugas dalam DAG?

Setiap tugas harus berupa unit pekerjaan idempoten. Oleh karena itu, Anda harus menghindari enkapsulasi alur kerja multi-langkah dalam satu tugas, seperti program kompleks yang berjalan di PythonOperator.

Haruskah saya menentukan beberapa tugas dalam satu DAG untuk menggabungkan data dari beberapa sumber?

Misalnya, Anda memiliki beberapa tabel dengan data mentah dan ingin membuat agregat harian untuk setiap tabel. Tugas-tugas tersebut tidak saling bergantung. Haruskah Anda membuat satu tugas dan DAG untuk setiap tabel atau membuat satu DAG umum?

Jika Anda tidak keberatan jika setiap tugas memiliki properti tingkat DAG yang sama, seperti schedule_interval, sebaiknya tentukan beberapa tugas dalam satu DAG. Atau, untuk meminimalkan pengulangan kode, beberapa DAG dapat dihasilkan dari satu modul Python dengan menempatkannya ke dalam globals() modul.

Bagaimana cara membatasi jumlah tugas serentak yang berjalan di DAG?

Misalnya, Anda ingin menghindari melampaui batas/kuota penggunaan API atau menghindari menjalankan terlalu banyak proses serentak.

Anda dapat menentukan kumpulan Airflow di UI web Airflow dan mengaitkan tugas dengan kumpulan yang ada di DAG.

FAQ untuk menggunakan operator

Haruskah saya menggunakan DockerOperator?

Sebaiknya jangan gunakan DockerOperator, kecuali jika digunakan untuk meluncurkan penampung di penginstalan Docker jarak jauh (bukan dalam cluster lingkungan). Di lingkungan Cloud Composer, operator tidak memiliki akses ke daemon Docker.

Sebagai gantinya, gunakan KubernetesPodOperator atau GKEStartPodOperator. Operator ini meluncurkan pod Kubernetes ke dalam cluster Kubernetes atau GKE. Perhatikan bahwa kami tidak menyarankan untuk meluncurkan pod ke cluster lingkungan, karena hal ini dapat menyebabkan persaingan resource.

Haruskah saya menggunakan SubDagOperator?

Sebaiknya jangan gunakan SubDagOperator.

Gunakan alternatif seperti yang disarankan di Mengelompokkan tugas.

Haruskah saya menjalankan kode Python hanya di PythonOperators untuk memisahkan operator Python sepenuhnya?

Bergantung pada sasaran Anda, Anda memiliki beberapa opsi.

Jika satu-satunya masalah Anda adalah mempertahankan dependensi Python terpisah, Anda dapat menggunakan PythonVirtualenvOperator.

Pertimbangkan untuk menggunakan KubernetesPodOperator. Operator ini memungkinkan Anda menentukan pod Kubernetes dan menjalankan pod di cluster lain.

Bagaimana cara menambahkan paket biner kustom atau non-PyPI?

Anda dapat menginstal paket yang dihosting di repositori paket pribadi.

Bagaimana cara meneruskan argumen secara seragam ke DAG dan tugasnya?

Anda dapat menggunakan dukungan bawaan Airflow untuk template Jinja guna meneruskan argumen yang dapat digunakan di kolom template.

Kapan penggantian template terjadi?

Penggantian template terjadi pada pekerja Airflow tepat sebelum fungsi pre_execute operator dipanggil. Dalam praktiknya, ini berarti template tidak diganti hingga tepat sebelum tugas berjalan.

Bagaimana cara mengetahui argumen operator yang mendukung penggantian template?

Argumen operator yang mendukung penggantian template Jinja2 ditandai secara eksplisit sebagai argumen tersebut.

Cari kolom template_fields dalam definisi Operator, yang berisi daftar nama argumen yang mengalami penggantian template.

Misalnya, lihat BashOperator, yang mendukung pembuatan template untuk argumen bash_command dan env.

Operator Airflow yang tidak digunakan lagi dan dihapus

Operator Airflow yang tercantum dalam tabel berikut tidak digunakan lagi:

  • Hindari penggunaan operator ini di DAG Anda. Sebagai gantinya, gunakan operator pengganti terbaru yang disediakan.

  • Jika operator tercantum sebagai tersedia, artinya rilis pemeliharaan terbaru Cloud Composer (1.20.12) masih menyediakan operator ini.

  • Beberapa operator pengganti tidak didukung di versi Cloud Composer 1 apa pun. Untuk menggunakannya, pertimbangkan untuk mengupgrade ke Cloud Composer 3 atau Cloud Composer 2.

Operator yang tidak digunakan lagi Status Operator pengganti Penggantian tersedia dari
CreateAutoMLTextTrainingJobOperator Tersedia di 1.20.12 SupervisedFineTuningTrainOperator Operator pengganti tidak tersedia
GKEDeploymentHook Tersedia di 1.20.12 GKEKubernetesHook Operator pengganti tidak tersedia
GKECustomResourceHook Tersedia di 1.20.12 GKEKubernetesHook Operator pengganti tidak tersedia
GKEPodHook Tersedia di 1.20.12 GKEKubernetesHook Operator pengganti tidak tersedia
GKEJobHook Tersedia di 1.20.12 GKEKubernetesHook Operator pengganti tidak tersedia
GKEPodAsyncHook Tersedia di 1.20.12 GKEKubernetesAsyncHook Operator pengganti tidak tersedia
SecretsManagerHook Tersedia di 1.20.12 GoogleCloudSecretManagerHook Operator pengganti tidak tersedia
BigQueryExecuteQueryOperator Tersedia di 1.20.12 BigQueryInsertJobOperator Tersedia di 1.20.12
BigQueryPatchDatasetOperator Tersedia di 1.20.12 BigQueryUpdateDatasetOperator Tersedia di 1.20.12
DataflowCreateJavaJobOperator Tersedia di 1.20.12 beam.BeamRunJavaPipelineOperator Tersedia di 1.20.12
DataflowCreatePythonJobOperator Tersedia di 1.20.12 beam.BeamRunPythonPipelineOperator Tersedia di 1.20.12
DataprocSubmitPigJobOperator Tersedia di 1.20.12 DataprocSubmitJobOperator Tersedia di 1.20.12
DataprocSubmitHiveJobOperator Tersedia di 1.20.12 DataprocSubmitJobOperator Tersedia di 1.20.12
DataprocSubmitSparkSqlJobOperator Tersedia di 1.20.12 DataprocSubmitJobOperator Tersedia di 1.20.12
DataprocSubmitSparkJobOperator Tersedia di 1.20.12 DataprocSubmitJobOperator Tersedia di 1.20.12
DataprocSubmitHadoopJobOperator Tersedia di 1.20.12 DataprocSubmitJobOperator Tersedia di 1.20.12
DataprocSubmitPySparkJobOperator Tersedia di 1.20.12 DataprocSubmitJobOperator Tersedia di 1.20.12
BigQueryTableExistenceAsyncSensor Tersedia di 1.20.12 BigQueryTableExistenceSensor Operator pengganti tidak tersedia
BigQueryTableExistencePartitionAsyncSensor Tersedia di 1.20.12 BigQueryTablePartitionExistenceSensor Operator pengganti tidak tersedia
CloudComposerEnvironmentSensor Tersedia di 1.20.12 CloudComposerCreateEnvironmentOperator, CloudComposerDeleteEnvironmentOperator, CloudComposerUpdateEnvironmentOperator Operator pengganti tidak tersedia
GCSObjectExistenceAsyncSensor Tersedia di 1.20.12 GCSObjectExistenceSensor Operator pengganti tidak tersedia
GoogleAnalyticsHook Tersedia di 1.20.12 GoogleAnalyticsAdminHook Operator pengganti tidak tersedia
GoogleAnalyticsListAccountsOperator Tersedia di 1.20.12 GoogleAnalyticsAdminListAccountsOperator Operator pengganti tidak tersedia
GoogleAnalyticsGetAdsLinkOperator Tersedia di 1.20.12 GoogleAnalyticsAdminGetGoogleAdsLinkOperator Operator pengganti tidak tersedia
GoogleAnalyticsRetrieveAdsLinksListOperator Tersedia di 1.20.12 GoogleAnalyticsAdminListGoogleAdsLinksOperator Operator pengganti tidak tersedia
GoogleAnalyticsDataImportUploadOperator Tersedia di 1.20.12 GoogleAnalyticsAdminCreateDataStreamOperator Operator pengganti tidak tersedia
GoogleAnalyticsDeletePreviousDataUploadsOperator Tersedia di 1.20.12 GoogleAnalyticsAdminDeleteDataStreamOperator Operator pengganti tidak tersedia
DataPipelineHook Tersedia di 1.20.12 DataflowHook Belum diumumkan
CreateDataPipelineOperator Tersedia di 1.20.12 DataflowCreatePipelineOperator Belum diumumkan
RunDataPipelineOperator Tersedia di 1.20.12 DataflowRunPipelineOperator Belum diumumkan
AutoMLDatasetLink Tersedia di 1.20.12 TranslationLegacyDatasetLink Belum diumumkan
AutoMLDatasetListLink Tersedia di 1.20.12 TranslationDatasetListLink Belum diumumkan
AutoMLModelLink Tersedia di 1.20.12 TranslationLegacyModelLink Belum diumumkan
AutoMLModelTrainLink Tersedia di 1.20.12 TranslationLegacyModelTrainLink Belum diumumkan
AutoMLModelPredictLink Tersedia di 1.20.12 TranslationLegacyModelPredictLink Belum diumumkan
AutoMLBatchPredictOperator Tersedia di 1.20.12 vertex_ai.batch_prediction_job Belum diumumkan
AutoMLPredictOperator Tersedia di 1.20.12 vertex_aigenerative_model. TextGenerationModelPredictOperator, translate.TranslateTextOperator Belum diumumkan
PromptLanguageModelOperator Tersedia di 1.20.12 TextGenerationModelPredictOperator Belum diumumkan
GenerateTextEmbeddingsOperator Tersedia di 1.20.12 TextEmbeddingModelGetEmbeddingsOperator Belum diumumkan
PromptMultimodalModelOperator Tersedia di 1.20.12 GenerativeModelGenerateContentOperator Belum diumumkan
PromptMultimodalModelWithMediaOperator Tersedia di 1.20.12 GenerativeModelGenerateContentOperator Belum diumumkan
DataflowStartSqlJobOperator Tersedia di 1.20.12 DataflowStartYamlJobOperator Belum diumumkan
LifeSciencesHook Tersedia di 1.20.12 Hook Operator Batch Google Cloud Belum diumumkan
DataprocScaleClusterOperator Tersedia di 1.20.12 DataprocUpdateClusterOperator Belum diumumkan
MLEngineStartBatchPredictionJobOperator Tersedia di 1.20.12 CreateBatchPredictionJobOperator Belum diumumkan
MLEngineManageModelOperator Tersedia di 1.20.12 MLEngineCreateModelOperator, MLEngineGetModelOperator Belum diumumkan
MLEngineGetModelOperator Tersedia di 1.20.12 GetModelOperator Belum diumumkan
MLEngineDeleteModelOperator Tersedia di 1.20.12 DeleteModelOperator Belum diumumkan
MLEngineManageVersionOperator Tersedia di 1.20.12 MLEngineCreateVersion, MLEngineSetDefaultVersion, MLEngineListVersions, MLEngineDeleteVersion Belum diumumkan
MLEngineCreateVersionOperator Tersedia di 1.20.12 Parameter parent_model untuk operator VertexAI Belum diumumkan
MLEngineSetDefaultVersionOperator Tersedia di 1.20.12 SetDefaultVersionOnModelOperator Belum diumumkan
MLEngineListVersionsOperator Tersedia di 1.20.12 ListModelVersionsOperator Belum diumumkan
MLEngineDeleteVersionOperator Tersedia di 1.20.12 DeleteModelVersionOperator Belum diumumkan
MLEngineStartTrainingJobOperator Tersedia di 1.20.12 CreateCustomPythonPackageTrainingJobOperator Belum diumumkan
MLEngineTrainingCancelJobOperator Tersedia di 1.20.12 CancelCustomTrainingJobOperator Belum diumumkan
LifeSciencesRunPipelineOperator Tersedia di 1.20.12 Operator Batch Google Cloud Belum diumumkan
MLEngineCreateModelOperator Tersedia di 1.20.12 operator VertexAI yang sesuai Belum diumumkan

Langkah selanjutnya