Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Nesta página, explicamos como a programação e o acionamento de DAG funcionam no Airflow, como definir uma programação para um DAG e como acioná-lo manualmente ou pausá-lo.
Sobre os DAGs do Airflow no Cloud Composer
Os DAGs do Airflow no Cloud Composer são executados um ou mais ambientes do Cloud Composer na sua projeto. Você faz upload de arquivos de origem dos DAGs do Airflow para um bucket do Cloud Storage associado a um ambiente. A do Airflow, analisa esses arquivos e programa execuções do DAG, conforme definido de acordo com a programação de cada DAG. Durante uma execução do DAG, o Airflow programa e executa tarefas individuais que compõem um DAG em uma sequência definida por ele.
Para saber mais sobre os conceitos básicos do Airflow, como DAGs, execuções de DAG, tarefas ou operadores, consulte a página Conceitos básicos na documentação do Airflow.
Sobre a programação de DAGs no Airflow
O Airflow fornece os seguintes conceitos para o mecanismo de programação:
- Data lógica
Representa uma data em que uma determinada execução de DAG é executada.
Essa não é a data real em que o Airflow executa um DAG, mas um período de tempo que uma execução específica do DAG precisa processar. Por exemplo, para um DAG que é programado para ser executado todos os dias às 12h, a data lógica também será 12h em um dia específico. Como ele é executado duas vezes por dia, o período de tempo é das últimas 12 horas. Ao mesmo tempo, a lógica definida no O próprio DAG pode não usar a data lógica ou o intervalo de tempo. Por exemplo, um DAG pode executar o mesmo script uma vez por dia sem usar o valor da data lógica.
Nas versões anteriores do Airflow, essa data é chamada de data de execução.
- Data de execução
Representa uma data em que uma execução de DAG específica é executada.
Por exemplo, para um DAG programado para ser executado todos os dias às 12h, o a execução real do DAG pode acontecer às 12h05, algum tempo após de datas lógicos.
- Intervalo da programação
Representa quando e com que frequência um DAG precisa ser executado, em termos de datas lógicas.
Por exemplo, uma programação diária significa que um DAG é executado uma vez por dia, e as datas lógicas das execuções do DAG têm intervalos de 24 horas.
- Data de início
Especifica quando você quer que o Airflow comece a programar o DAG.
As tarefas no DAG podem ter datas de início individuais ou você pode especificar uma única data de início para todas as tarefas. Com base na data de início mínima das tarefas no DAG e no intervalo da programação, o Airflow programa execuções do DAG.
- Atualização, preenchimento e novas tentativas
Mecanismos para executar execuções de DAGs em datas passadas.
O ajuste defasagem executa execuções de DAG que ainda não foram realizadas, por exemplo, se o DAG foi pausado por um longo período e depois desativado. É possível usar o preenchimento para executar execuções de DAG em um determinado período. Novas tentativas especificar quantas tentativas o Airflow precisa fazer ao executar tarefas de um DAG.
A programação funciona da seguinte maneira:
Após a data de início, o Airflow aguarda a próxima ocorrência do do intervalo de programação.
O Airflow programa a primeira execução do DAG para acontecer no final desse intervalo de programação.
Por exemplo, se um DAG estiver programado para ser executado a cada hora e a data de início for às 12h de hoje, a primeira execução do DAG ocorrerá às 13h de hoje.
A seção Programar um DAG do Airflow neste documento descreve como configurar a programação dos seus DAGs usando esses conceitos. Para mais informações sobre execuções e programação de DAGs, consulte Execuções DAG na documentação do Airflow.
Sobre as maneiras de acionar um DAG
O Airflow fornece as seguintes maneiras de acionar um DAG:
Acionar com base em uma programação. O Airflow aciona o DAG automaticamente com base na programação especificada para ela no arquivo DAG.
Acionar manualmente. É possível acionar um DAG manualmente no console do Google Cloud, na interface do Airflow ou executando um comando da CLI do Airflow na CLI do Google Cloud.
Acionar em resposta a eventos. A maneira padrão de acionar um DAG resposta a eventos é usar um sensor.
Outras maneiras de acionar DAGs:
Acionar de maneira programática. É possível acionar um DAG usando a API REST do Airflow. Por exemplo, em um script em Python.
Acionar de maneira programática em resposta a eventos. É possível acionar DAGs em resposta a eventos usando Funções do Cloud Run e a API REST do Airflow.
Antes de começar
- Verifique se sua conta tem um papel que pode gerenciar objetos no buckets do ambiente e visualizar e acionar DAGs. Para mais informações, consulte Controle de acesso.
Programar um DAG do Airflow
Você define uma programação para um DAG no arquivo DAG. Edite a definição do DAG em da seguinte forma:
Localize e edite o arquivo DAG no computador. Se você não tiver o DAG faça o download da cópia dele do bucket do ambiente. Para um novo DAG, é preciso pode definir todos os parâmetros ao criar o arquivo DAG.
No parâmetro
schedule_interval
, defina a programação. Você pode usar um Expressão cron, como0 0 * * *
, ou uma predefinição, como@daily
. Para mais informações, consulte Cron e intervalos de tempo na documentação do Airflow.O Airflow determina datas lógicas para execuções de DAG com base na programação que você definiu.
No parâmetro
start_date
, defina a data de início.O Airflow determina a data lógica da primeira execução do DAG usando esse parâmetro.
(Opcional) No parâmetro
catchup
, defina se o Airflow precisa ser executado todas as execuções anteriores deste DAG desde a data de início até a data atual que ainda não foram executadas.As execuções de DAG executadas durante a atualização terão a data lógica no passado e a data de execução vai refletir o momento em que a execução de DAG foi realmente realizada.
(Opcional) No parâmetro
retries
, defina quantas vezes o Airflow precisa repetir as tarefas com falha. Cada DAG consiste em uma ou mais tarefas individuais. Por padrão, as tarefas no Cloud Composer são repetidas duas vezes.Faça o upload da nova versão do DAG para o do Google Cloud.
Aguarde até que o Airflow analise o DAG. Por exemplo, é possível verificar a lista de DAGs no seu ambiente no Console do Google Cloud ou na interface do Airflow.
O exemplo de definição de DAG a seguir é executado duas vezes por dia, às 00h00 e 12h00. Seu a data de início está definida como 1o de janeiro de 2024, mas o Airflow não a executa para datas passadas depois de fazer o upload ou pausar porque a atualização foi desativada.
O DAG contém uma tarefa chamada insert_query_job
, que insere uma linha em uma
tabela com o operador BigQueryInsertJobOperator
. Esse operador é um dos
Operadores do BigQuery no Google Cloud,
que você pode usar para gerenciar conjuntos de dados e tabelas, executar consultas e validar dados.
Se uma execução específica dessa tarefa falhar, o Airflow vai tentar novamente quatro vezes
com o intervalo padrão. A data lógica dessas novas tentativas
continua a mesma.
A consulta SQL para essa linha usa modelos do Airflow para gravar a data lógica e o nome da DAG na linha.
import datetime
from airflow.models.dag import DAG
from airflow.providers.google.cloud.operators.bigquery import BigQueryInsertJobOperator
with DAG(
"bq_example_scheduling_dag",
start_date=datetime.datetime(2024, 1, 1),
schedule_interval='0 */12 * * *',
catchup=False
) as dag:
insert_query_job = BigQueryInsertJobOperator(
task_id="insert_query_job",
retries=4,
configuration={
"query": {
# schema: date (string), description (string)
# example row: "20240101T120000", "DAG run: <DAG: bq_example_scheduling_dag>"
"query": "INSERT example_dataset.example_table VALUES ('{{ ts_nodash }}', 'DAG run: {{ dag }}' )",
"useLegacySql": False,
"priority": "BATCH",
}
},
location="us-central1"
)
insert_query_job
Para testar esse DAG, é possível acioná-lo manualmente e Em seguida, confira os registros de execução da tarefa.
Mais exemplos de parâmetros de programação
Confira a seguir exemplos de como funciona a programação com diferentes combinações de parâmetros:
Se
start_date
fordatetime(2024, 4, 4, 16, 25)
eschedule_interval
for30 16 * * *
, a primeira execução do DAG vai acontecer às 16h30 do dia 5 de abril de 2024.Se
start_date
fordatetime(2024, 4, 4, 16, 35)
eschedule_interval
for30 16 * * *
, a primeira execução do DAG vai acontecer às 16h30 do dia 6 de abril de 2024. Como a data de início é posterior ao intervalo de programação em 4 de abril de 2024, a execução do DAG não vai acontecer em 5 de abril de 2024. Em vez disso, o intervalo da programação termina às 16h35 do dia 5 de abril de 2024. Portanto, a próxima execução do DAG é programada para às 16h30 do dia seguinte.Se
start_date
fordatetime(2024, 4, 4)
eschedule_interval
for@daily
, a primeira execução do DAG será programada para a meia-noite do dia 5 de abril de 2024.Se
start_date
fordatetime(2024, 4, 4, 16, 30)
eschedule_interval
for0 * * * *
, a primeira execução do DAG será programada para 18h do dia 4 de abril de 2024. Após a data e hora especificadas, o Airflow programa uma execução do DAG para ocorrer no minuto 0 de cada hora. O momento mais próximo em que isso acontece é 17h. Nesse momento, o Airflow programa uma execução do DAG para acontecer no final do intervalo da programação, ou seja, às 18h.
Acionar um DAG manualmente
Quando você aciona manualmente um DAG do Airflow, ele executa o DAG uma vez, independentemente da programação especificada no arquivo DAG.
Console
Para acionar um DAG no console do Google Cloud:
No console do Google Cloud, acesse a página Ambientes.
Selecione um ambiente para ver os detalhes.
Na página Detalhes do ambiente, acesse a guia DAGs.
Clique no nome de um DAG.
Na página Detalhes do DAG, clique em Acionar DAG. Uma nova execução do DAG é criada.
IU do Airflow
Para acionar um DAG na interface do Airflow:
No console do Google Cloud, acesse a página Ambientes.
Na coluna Servidor da Web do Airflow, siga o link Airflow do ambiente.
Faça login com a Conta do Google que tem as permissões apropriadas.
Na interface da Web do Airflow, na página DAGs, na coluna Links do DAG, clique no botão Acionar DAG.
(Opcional) Especifique a configuração de execução do DAG.
Clique em Gatilho.
gcloud
Execute o comando dags trigger
da CLI do Airflow:
gcloud composer environments run ENVIRONMENT_NAME \
--location LOCATION \
dags trigger -- DAG_ID
Substitua:
ENVIRONMENT_NAME
: o nome do ambiente;LOCATION
: a região em que o ambiente está localizado.DAG_ID
: o nome do DAG.
Para mais informações sobre como executar comandos da CLI do Airflow em ambientes do Cloud Composer, consulte Como executar comandos da CLI do Airflow.
Para mais informações sobre os comandos da CLI do Airflow disponíveis, consulte
a referência do comando gcloud composer environments run
.
Visualizar detalhes e registros de execução do DAG
No console do Google Cloud, é possível:
- Veja o status das execuções anteriores do DAG e os detalhes do DAG.
- Acesse registros detalhados de todas as execuções de DAG e tarefas dessas DAGs.
- Veja as estatísticas do DAG.
Além disso, o Cloud Composer fornece acesso ao A IU do Airflow, que é a interface da Web do próprio Airflow.
Pausar um DAG
Console
Para pausar um DAG no console do Google Cloud:
No console do Google Cloud, acesse a página Ambientes.
Selecione um ambiente para ver os detalhes.
Na página Detalhes do ambiente, acesse a guia DAGs.
Clique no nome de um DAG.
Na página Detalhes do DAG, clique em Pausar DAG.
IU do Airflow
Para pausar um DAG na interface do Airflow:
- No console do Google Cloud, acesse a página Ambientes.
Na coluna Servidor da Web do Airflow, siga o link Airflow do ambiente.
Faça login com a Conta do Google que tem as permissões apropriadas.
Na interface da Web do Airflow, na página DAGs, clique em ao lado do nome do DAG.
gcloud
Execute o comando dags pause
da CLI do Airflow:
gcloud composer environments run ENVIRONMENT_NAME \
--location LOCATION \
dags pause -- DAG_ID
Substitua:
ENVIRONMENT_NAME
: o nome do ambiente;LOCATION
: a região em que o ambiente está localizado.DAG_ID
: o nome do DAG.
Para mais informações sobre como executar comandos da CLI do Airflow em ambientes do Cloud Composer, consulte Como executar comandos da CLI do Airflow.
Para mais informações sobre os comandos da CLI do Airflow disponíveis, consulte
a referência do comando gcloud composer environments run
.