Acionar DAGs usando o Cloud Functions e as mensagens do Pub/Sub

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Esta página o orienta na criação de uma arquitetura de envio baseada em eventos por como acionar DAGs do Cloud Composer em resposta ao Pub/Sub mudanças de tópico. Os exemplos neste tutorial demonstram como lidar com o ciclo completo do gerenciamento do Pub/Sub, incluindo o gerenciamento de assinaturas, do processo do DAG. É adequado para alguns dos casos de uso comuns quando você precisa acionar DAGs, mas não quer configurar permissões de acesso extras.

Por exemplo, as mensagens enviadas pelo Pub/Sub podem ser usadas se você não quiser dar acesso direto a um bucket do Cloud Composer, por motivos de segurança. É possível configurar um função do Cloud Run que cria mensagens do Pub/Sub e e as publica em um tópico do Pub/Sub. Em seguida, é possível criar um DAG extrai mensagens do Pub/Sub e as processa.

Neste exemplo específico, você cria uma função do Cloud Run e implanta dois DAGs. O primeiro DAG extrai mensagens do Pub/Sub e aciona o segundo DAG de acordo com o conteúdo da mensagem do Pub/Sub.

Neste tutorial, você precisa conhecer o Python e o console do Google Cloud.

Objetivos

Custos

Neste tutorial, usamos o seguinte componente faturável do Google Cloud:

Ao concluir este tutorial, exclua os recursos criados para evitar a continuidade no faturamento. Consulte Limpeza para mais detalhes.

Antes de começar

Para este tutorial, você precisa de um projeto do Google Cloud. Configure o projeto da seguinte maneira:

  1. No console do Google Cloud, selecione ou crie um projeto:

    Acesse o seletor de projetos

  2. Verifique se o faturamento foi ativado para o projeto. Saiba como verificar se o faturamento está ativado em um projeto.

  3. Verifique se o usuário do projeto do Google Cloud tem os seguintes papéis para criar os recursos necessários:

    • Usuário da conta de serviço (roles/iam.serviceAccountUser)
    • Editor do Pub/Sub (roles/pubsub.editor)
    • Administrador de ambiente e de objetos do Storage (roles/composer.environmentAndStorageObjectAdmin)
    • Administrador de funções do Cloud Run (roles/cloudfunctions.admin)
    • Visualizador de registros (roles/logging.viewer)
  4. Verifique se a conta de serviço que executa a função do Cloud Run tem permissões suficientes no projeto para acessar o Pub/Sub. Por padrão, as funções do Cloud Run usam a conta de serviço padrão do App Engine. Essa conta de serviço tem o papel de editor, que tem permissões suficientes para este tutorial.

Ativar as APIs do projeto

Console

Enable the Cloud Composer, Cloud Run functions, and Pub/Sub APIs.

Enable the APIs

gcloud

Enable the Cloud Composer, Cloud Run functions, and Pub/Sub APIs:

gcloud services enable composer.googleapis.com cloudfunctions.googleapis.com pubsub.googleapis.com

Terraform

Ative a API Cloud Composer no seu projeto adicionando o seguinte definições de recursos ao script do Terraform:

resource "google_project_service" "composer_api" {
  project = "<PROJECT_ID>"
  service = "composer.googleapis.com"
  // Disabling Cloud Composer API might irreversibly break all other
  // environments in your project.
  // This parameter prevents automatic disabling
  // of the API when the resource is destroyed.
  // We recommend to disable the API only after all environments are deleted.
  disable_on_destroy = false
// this flag is introduced in 5.39.0 version of Terraform. If set to true it will
//prevent you from disabling composer_api through Terraform if any environment was
//there in the last 30 days
  check_if_service_has_usage_on_destroy = true
}

resource "google_project_service" "pubsub_api" {
  project = "<PROJECT_ID>"
  service = "pubsub.googleapis.com"
  disable_on_destroy = false
}

resource "google_project_service" "functions_api" {
  project = "<PROJECT_ID>"
  service = "cloudfunctions.googleapis.com"
  disable_on_destroy = false
}

Substitua <PROJECT_ID> pelo ID do projeto do seu projeto. Por exemplo, example-project.

Criar seu ambiente do Cloud Composer

Crie um ambiente do Cloud Composer 2.

Como parte desse procedimento, você concede a extensão do agente de serviço da API Cloud Composer v2 (roles/composer.ServiceAgentV2Ext) para o agente de serviço do Composer do Compute Engine. O Cloud Composer usa essa conta para realizar operações no projeto do Google Cloud.

Criar um tópico do Pub/Sub

Este exemplo aciona um DAG em resposta a uma mensagem enviada para um tópico do Pub/Sub. Crie um tópico do Pub/Sub para usar neste exemplo:

Console

  1. No console do Google Cloud, acesse a página Tópicos do Pub/Sub.

    Acessar os tópicos do Pub/Sub

  2. Clique em Criar tópico.

  3. No campo ID do tópico, insira dag-topic-trigger como o ID da sua tópico.

  4. Deixe as outras opções com os valores padrão.

  5. Clique em Criar tópico.

gcloud

Para criar um tópico, execute o gcloud pubsub topics create na Google Cloud CLI:

gcloud pubsub topics create dag-topic-trigger

Terraform

Adicione as seguintes definições de recursos ao seu script do Terraform:

resource "google_pubsub_topic" "trigger" {
  project                    = "<PROJECT_ID>"
  name                       = "dag-topic-trigger"
  message_retention_duration = "86600s"
}

Substitua <PROJECT_ID> pelo ID do projeto. do seu projeto. Por exemplo, example-project.

Fazer upload dos seus DAGs

Faça upload de DAGs para o ambiente:

  1. Salve o seguinte arquivo DAG no seu computador local.
  2. Substitua <PROJECT_ID> pelo ID do projeto. do seu projeto. Por exemplo, example-project.
  3. Faça upload do arquivo DAG editado para seu ambiente.
from __future__ import annotations

from datetime import datetime
import time

from airflow import DAG
from airflow import XComArg
from airflow.operators.python import PythonOperator
from airflow.operators.trigger_dagrun import TriggerDagRunOperator
from airflow.providers.google.cloud.operators.pubsub import (
    PubSubCreateSubscriptionOperator,
    PubSubPullOperator,
)

PROJECT_ID = "<PROJECT_ID>"
TOPIC_ID = "dag-topic-trigger"
SUBSCRIPTION = "trigger_dag_subscription"


def handle_messages(pulled_messages, context):
    dag_ids = list()
    for idx, m in enumerate(pulled_messages):
        data = m.message.data.decode("utf-8")
        print(f"message {idx} data is {data}")
        dag_ids.append(data)
    return dag_ids


# This DAG will run minutely and handle pub/sub messages by triggering target DAG
with DAG(
    "trigger_dag",
    start_date=datetime(2021, 1, 1),
    schedule_interval="* * * * *",
    max_active_runs=1,
    catchup=False,
) as trigger_dag:
    # If subscription exists, we will use it. If not - create new one
    subscribe_task = PubSubCreateSubscriptionOperator(
        task_id="subscribe_task",
        project_id=PROJECT_ID,
        topic=TOPIC_ID,
        subscription=SUBSCRIPTION,
    )

    subscription = subscribe_task.output

    # Proceed maximum 50 messages in callback function handle_messages
    # Here we acknowledge messages automatically. You can use PubSubHook.acknowledge to acknowledge in downstream tasks
    # https://airflow.apache.org/docs/apache-airflow-providers-google/stable/_api/airflow/providers/google/cloud/hooks/pubsub/index.html#airflow.providers.google.cloud.hooks.pubsub.PubSubHook.acknowledge
    pull_messages_operator = PubSubPullOperator(
        task_id="pull_messages_operator",
        project_id=PROJECT_ID,
        ack_messages=True,
        messages_callback=handle_messages,
        subscription=subscription,
        max_messages=50,
    )

    # Here we use Dynamic Task Mapping to trigger DAGs according to messages content
    # https://airflow.apache.org/docs/apache-airflow/2.3.0/concepts/dynamic-task-mapping.html
    trigger_target_dag = TriggerDagRunOperator.partial(task_id="trigger_target").expand(
        trigger_dag_id=XComArg(pull_messages_operator)
    )

    (subscribe_task >> pull_messages_operator >> trigger_target_dag)


def _some_heavy_task():
    print("Do some operation...")
    time.sleep(1)
    print("Done!")


# Simple target DAG
with DAG(
    "target_dag",
    start_date=datetime(2022, 1, 1),
    # Not scheduled, trigger only
    schedule_interval=None,
    catchup=False,
) as target_dag:
    some_heavy_task = PythonOperator(
        task_id="some_heavy_task", python_callable=_some_heavy_task
    )

    (some_heavy_task)

O código de exemplo contém dois DAGs: trigger_dag e target_dag.

O DAG trigger_dag se inscreve em um tópico do Pub/Sub, extrai mensagens do Pub/Sub e aciona outro DAG especificado no ID do DAG dos dados da mensagem do Pub/Sub. Neste exemplo, trigger_dag aciona o DAG target_dag, que gera mensagens para os registros de tarefas.

O DAG trigger_dag contém as seguintes tarefas:

  • subscribe_task: inscreva-se em um tópico do Pub/Sub.
  • pull_messages_operator: leia os dados de uma mensagem do Pub/Sub com PubSubPullOperator.
  • trigger_target_dag: aciona outro DAG (neste exemplo, target_dag) de acordo com os dados nas mensagens extraídas do tópico do Pub/Sub.

O DAG target_dag contém apenas uma tarefa: output_to_logs. Esta tarefa imprime mensagens no registro de tarefas com um segundo de atraso.

Implantar uma função do Cloud Run que publica mensagens em um tópico do Pub/Sub

Nesta seção, você implanta uma função do Cloud Run que publica mensagens em um tópico do Pub/Sub.

Criar uma função do Cloud Run e especificar a configuração dela

Console

  1. No console do Google Cloud, acesse a página das funções do Cloud Run.

    Acessar as funções do Cloud Run

  2. Clique em Criar função.

  3. No campo Ambiente, selecione 1ª geração.

  4. No campo Nome da função, insira o nome da sua função: pubsub-publisher

  5. No campo Tipo de gatilho, selecione HTTP.

  6. Na seção Autenticação, selecione Permitir invocações não autenticadas. Essa opção permite que usuários não autenticados invoquem uma função HTTP.

  7. Clique em "Salvar".

  8. Clique em Próximo para acessar a etapa Código.

Terraform

Considere usar o console do Google Cloud nesta etapa, porque não há maneira simples de gerenciar o código-fonte da função no Terraform.

Este exemplo demonstra como fazer upload de uma função do Cloud Run de um arquivo de arquivamento ZIP local criando um bucket do Cloud Storage, armazenando o arquivo nesse bucket e usando o arquivo do bucket como uma fonte para a função do Cloud Run. Se você usar essa abordagem, o Terraform não vai atualizar automaticamente o código-fonte da função, mesmo que você crie um novo arquivo. Para fazer o upload do código da função novamente, mude o nome do arquivo.

  1. Faça o download dos arquivos pubsub_publisher.py e requirements.txt.
  2. No arquivo pubsub_publisher.py, substitua <PROJECT_ID> pelo ID do projeto. Por exemplo, example-project.
  3. Crie um arquivo ZIP chamado pubsub_function.zip com o pbusub_publisner.py e o arquivo requirements.txt.
  4. Salve o arquivo ZIP em um diretório onde o script do Terraform esteja armazenado.
  5. Adicione as seguintes definições de recursos ao script do Terraform e substitua <PROJECT_ID> pelo ID do projeto.
resource "google_storage_bucket" "cloud_function_bucket" {
  project        = <PROJECT_ID>
  name           = "<PROJECT_ID>-cloud-function-source-code"
  location       = "US"
  force_destroy  = true
  uniform_bucket_level_access = true
}

resource "google_storage_bucket_object" "cloud_function_source" {
  name   = "pubsub_function.zip"
  bucket = google_storage_bucket.cloud_function_bucket.name
  source = "./pubsub_function.zip"
}

resource "google_cloudfunctions_function" "pubsub_function" {
  project = <PROJECT_ID>
  name    = "pubsub-publisher"
  runtime = "python310"
  region  = "us-central1"

  available_memory_mb   = 128
  source_archive_bucket = google_storage_bucket.cloud_function_bucket.name
  source_archive_object = "pubsub_function.zip"
  timeout               = 60
  entry_point           = "pubsub_publisher"
  trigger_http          = true
}

Especificar parâmetros do código da função do Cloud Run

Console

  1. Na etapa Código, no campo Ambiente de execução, selecione o idioma o ambiente de execução usado pela função. Neste exemplo, selecione Python 3.10.

  2. No campo Ponto de entrada, digite pubsub_publisher. Este é o código que é executado quando a função do Cloud Run é executada. O valor de essa sinalização deve ser um nome de função ou um nome de classe totalmente qualificado que no código-fonte.

Terraform

Pule esta etapa. Os parâmetros da função do Cloud Run já estão definidos o recurso google_cloudfunctions_function.

Fazer upload do código da função do Cloud Run

Console

No campo Código-fonte, selecione a opção adequada para saber como fornecer o código-fonte da função. Neste tutorial, adicione o código da função usando o editor inline das funções do Cloud Run. Como alternativa, você pode fazer upload de um arquivo ZIP ou usar Cloud Source Repositories.

  1. Coloque o exemplo de código abaixo no arquivo main.py.
  2. Substitua <PROJECT_ID> pelo ID do projeto. do seu projeto. Por exemplo, example-project.
from google.cloud import pubsub_v1

project = "<PROJECT_ID>"
topic = "dag-topic-trigger"


def pubsub_publisher(request):
    """Publish message from HTTP request to Pub/Sub topic.
    Args:
        request (flask.Request): HTTP request object.
    Returns:
        The response text with message published into Pub/Sub topic
        Response object using
        `make_response <http://flask.pocoo.org/docs/1.0/api/#flask.Flask.make_response>`.
    """
    request_json = request.get_json()
    print(request_json)
    if request.args and "message" in request.args:
        data_str = request.args.get("message")
    elif request_json and "message" in request_json:
        data_str = request_json["message"]
    else:
        return "Message content not found! Use 'message' key to specify"

    publisher = pubsub_v1.PublisherClient()
    # The `topic_path` method creates a fully qualified identifier
    # in the form `projects/{project_id}/topics/{topic_id}`
    topic_path = publisher.topic_path(project, topic)

    # The required data format is a bytestring
    data = data_str.encode("utf-8")
    # When you publish a message, the client returns a future.
    message_length = len(data_str)
    future = publisher.publish(topic_path, data, message_length=str(message_length))
    print(future.result())

    return f"Message {data} with message_length {message_length} published to {topic_path}."

Terraform

Pule esta etapa. Os parâmetros da função do Cloud Run já estão definidos o recurso google_cloudfunctions_function.

Especificar as dependências da função do Cloud Run

Console

Especifique as dependências da função no arquivo de metadados requirements.txt:

requests-toolbelt==1.0.0
google-auth==2.19.1
google-cloud-pubsub==2.21.5

Quando você implanta sua função, as funções do Cloud Run fazem o download e instalam as dependências declaradas no arquivo requirements.txt, uma linha por pacote. Esse arquivo precisa estar no mesmo diretório do arquivo main.py que contém o código da função. Para mais detalhes, consulte Arquivos de requisitos na documentação do pip.

Terraform

Pule esta etapa. As dependências da função do Cloud Run são definidas em requirements.txt no arquivo pubsub_function.zip.

Implantar a função do Cloud Run

Console

Clique em Implantar. Quando a implantação for concluída, a função vai aparecer com uma marca de seleção verde na página Funções do Cloud Run no console do Google Cloud.

Verifique se a conta de serviço que executa a função do Cloud Run tem permissões suficientes no seu projeto para acessar o Pub/Sub.

Terraform

  1. Inicialize o Terraform:

    terraform init
    
  2. Revise a configuração e verifique se os recursos que o Terraform está criar ou atualizar correspondem às suas expectativas:

    terraform plan
    
  3. Para verificar se a configuração é válida, execute o seguinte comando:

    terraform validate
    
  4. Para aplicar a configuração do Terraform, execute o comando a seguir e digite "yes" no prompt:

    terraform apply
    

Aguarde até que o Terraform exiba a mensagem "Apply complete!".

No console do Google Cloud, navegue até seus recursos na IU para verificar se foram criados ou atualizados pelo Terraform.

Testar a função do Cloud Run

Para verificar se a função publica uma mensagem em um tópico do Pub/Sub e se os DAGs de exemplo funcionam conforme o esperado:

  1. Verifique se os DAGs estão ativos:

    1. No console do Google Cloud, acesse a página Ambientes.

      Acessar "Ambientes"

    2. Na lista de ambientes, clique no nome do ambiente. A página Detalhes do ambiente é aberta.

    3. Acesse a guia DAGs.

    4. Verifique os valores na coluna Estado para DAGs com os nomes trigger_dag e target_dag. Os dois DAGs precisam estar no estado Active.

  2. Envie uma mensagem de teste do Pub/Sub. É possível fazer isso no Cloud Shell:

    1. No console do Google Cloud, acesse a página Funções.

      Acessar as funções do Cloud Run

    2. Clique no nome da função, pubsub-publisher.

    3. Acesse a guia Testes.

    4. Na seção Configurar evento acionador, insira o seguinte valor de chave JSON: {"message": "target_dag"}. Não modifique o par de chave-valor, porque essa mensagem aciona o DAG de teste mais tarde.

    5. Na seção Comando de teste, clique em Testar no Cloud Shell.

    6. No terminal do Cloud Shell, aguarde até que um comando apareça automaticamente. Execute este comando pressionando Enter.

    7. Se a mensagem Autorizar o Cloud Shell aparecer, clique em Autorizar.

    8. Confira se o conteúdo da mensagem corresponde à mensagem do Pub/Sub. Neste exemplo, a mensagem de saída precisa começar com Message b'target_dag' with message_length 10 published to como resposta da sua função.

  3. Verifique se target_dag foi acionado:

    1. Aguarde pelo menos um minuto para que uma nova execução de DAG de trigger_dag seja concluída.

    2. No console do Google Cloud, acesse a página Ambientes.

      Acessar "Ambientes"

    3. Na lista de ambientes, clique no nome do seu ambiente. A página Detalhes do ambiente é aberta.

    4. Acesse a guia DAGs.

    5. Clique em trigger_dag para acessar a página Detalhes do DAG. Na guia Execuções, uma lista de execuções de DAG para o DAG trigger_dag é mostrada.

      Esse DAG é executado a cada minuto e processa todos os dados do Pub/Sub mensagens enviadas pela função. Se nenhuma mensagem for enviada, a tarefa trigger_target será marcada como Skipped nos registros de execução do DAG. Se os DAGs forem acionados, a tarefa trigger_target será marcada como Success.

    6. Analise várias execuções recentes de DAGs para localizar uma execução em que todos três tarefas (subscribe_task, pull_messages_operator e trigger_target) estão em status Success.

    7. Volte para a guia DAGs e verifique se a página Successful run (Execuções bem-sucedidas) do DAG target_dag lista uma execução bem-sucedida.

Resumo

Neste tutorial, você aprendeu a usar as funções do Cloud Run para publicar mensagens em um tópico do Pub/Sub e implantar um DAG que assina um Pub/Sub, extrai mensagens e gatilhos do Pub/Sub outro DAG especificado no ID do DAG dos dados da mensagem.

Há também formas alternativas de Como criar e gerenciar assinaturas do Pub/Sub e acionar DAGs que estão fora do escopo deste tutorial. Por exemplo, é possível usar funções do Cloud Run para acionar DAGs do Airflow quando ocorre um evento especificado. Confira nossos tutoriais para testar os outros recursos do Google Cloud.

Limpar

Para evitar cobranças dos recursos na sua conta do Google Cloud usados neste tutorial, exclua o projeto que contém os recursos ou manter o projeto e excluir os recursos individuais.

Exclua o projeto

    Delete a Google Cloud project:

    gcloud projects delete PROJECT_ID

Excluir recursos individuais

Se você planeja ver vários tutoriais e guias de início rápido, a reutilização de projetos pode evitar que você exceda os limites da cota do projeto.

Console

  1. Exclua o ambiente do Cloud Composer. Você também excluir o bucket do ambiente durante este procedimento.
  2. Exclua o tópico do Pub/Sub, dag-topic-trigger.
  3. Exclua a função do Cloud Run.

    1. No console do Google Cloud, acesse as funções do Cloud Run.

      Acessar as funções do Cloud Run

    2. Clique na caixa de seleção da função que você quer excluir, pubsub-publisher.

    3. Clique em Excluir e siga as instruções.

Terraform

  1. Verifique se o script do Terraform não contém entradas para recursos que ainda são necessários para o projeto. Por exemplo, talvez você queira manter algumas APIs ativadas e as permissões do IAM ainda atribuídas (se você adicionou essas definições ao script do Terraform).
  2. Execute terraform destroy.
  3. Exclua manualmente o bucket do ambiente. O Cloud Composer não exclui automaticamente. É possível fazer isso no console do Google Cloud ou na CLI do Google Cloud.

A seguir