执行一项 print_dag_run_conf 任务。该任务使用 bash 运算符输出 DAG 运行的配置。
在本地机器上保存 quickstart.py 文件的副本:
import datetime
from airflow import models
from airflow.operators import bash
# If you are running Airflow in more than one time zone
# see https://airflow.apache.org/docs/apache-airflow/stable/timezone.html
# for best practices
YESTERDAY = datetime.datetime.now() - datetime.timedelta(days=1)
default_args = {
"owner": "Composer Example",
"depends_on_past": False,
"email": [""],
"email_on_failure": False,
"email_on_retry": False,
"retries": 1,
"retry_delay": datetime.timedelta(minutes=5),
"start_date": YESTERDAY,
}
with models.DAG(
"composer_quickstart",
catchup=False,
default_args=default_args,
schedule_interval=datetime.timedelta(days=1),
) as dag:
# Print the dag_run id from the Airflow logs
print_dag_run_conf = bash.BashOperator(
task_id="print_dag_run_conf", bash_command="echo {{ dag_run.id }}"
)
检查您的 DAG 是否得到处理且没有任何错误,以及是否通过
在 DAG 界面中查看它。DAG 界面是 Cloud Composer 界面,可用于查看
Google Cloud 控制台中的 DAG 信息。Cloud Composer 还提供
访问 Airflow 界面,它是原生 Airflow Web 应用
界面。
等待大约 5 分钟,让 Airflow 有时间处理 DAG 文件
完成第一次 DAG 运行
(稍后介绍)。