Acione DAGs com o Cloud Functions e as mensagens do Pub/Sub

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Esta página o orienta na criação de uma arquitetura de envio baseada em eventos por como acionar DAGs do Cloud Composer em resposta ao Pub/Sub mudanças de tópico. Os exemplos neste tutorial demonstram o processamento do ciclo completo de gerenciamento do Pub/Sub, incluindo o gerenciamento de assinaturas, como parte do processo de DAG. Ele é adequado para alguns dos casos de uso comuns quando você precisa acionar DAGs, mas não quer configurar permissões de acesso extras.

Por exemplo, as mensagens enviadas pelo Pub/Sub podem ser usadas como uma solução se você não quiser fornecer acesso direto a um ambiente do Cloud Composer por motivos de segurança. É possível configurar um função do Cloud Run que cria mensagens do Pub/Sub e e as publica em um tópico do Pub/Sub. Em seguida, é possível criar um DAG extrai mensagens do Pub/Sub e as processa.

Neste exemplo específico, você cria uma função do Cloud Run e implanta dois DAGs. O primeiro DAG extrai mensagens do Pub/Sub e aciona o segundo DAG de acordo com o conteúdo da mensagem do Pub/Sub.

Neste tutorial, consideramos que você já conhece o Python e o console do Google Cloud.

Objetivos

Custos

Neste tutorial, usamos o seguinte componente faturável do Google Cloud:

Depois de concluir este tutorial, para evitar o faturamento contínuo, exclua nos recursos criados. Consulte Limpeza para mais detalhes.

Antes de começar

Para este tutorial, você precisa ter uma conta do Google Cloud projeto. Configure o projeto da seguinte maneira:

  1. No console do Google Cloud, selecione ou crie um projeto:

    Acessar o seletor de projetos

  2. Verifique se o faturamento foi ativado para o projeto. Saiba como verificar se o faturamento está ativado em um projeto.

  3. Verifique se o usuário do projeto do Google Cloud tem os seguintes papéis para criar os recursos necessários:

    • Usuário da conta de serviço (roles/iam.serviceAccountUser)
    • Editor do Pub/Sub (roles/pubsub.editor)
    • Administrador de ambiente e de objetos do Storage (roles/composer.environmentAndStorageObjectAdmin)
    • Administrador de funções do Cloud Run (roles/cloudfunctions.admin)
    • Visualizador de registros (roles/logging.viewer)
  4. Certifique-se de que o conta de serviço que executa a função do Cloud Run tem permissões suficientes no projeto para acessar o Pub/Sub. Por padrão, as funções do Cloud Run usam a conta de serviço padrão do App Engine. Essa conta de serviço tem o papel Editor, que tem permissões para este tutorial.

Ativar as APIs do projeto

Console

Enable the Cloud Composer, Cloud Run functions, and Pub/Sub APIs.

Enable the APIs

gcloud

Enable the Cloud Composer, Cloud Run functions, and Pub/Sub APIs:

gcloud services enable composer.googleapis.com cloudfunctions.googleapis.com pubsub.googleapis.com

Terraform

Ative a API Cloud Composer no seu projeto adicionando as seguintes definições de recursos ao script do Terraform:

resource "google_project_service" "composer_api" {
  project = "<PROJECT_ID>"
  service = "composer.googleapis.com"
  // Disabling Cloud Composer API might irreversibly break all other
  // environments in your project.
  // This parameter prevents automatic disabling
  // of the API when the resource is destroyed.
  // We recommend to disable the API only after all environments are deleted.
  disable_on_destroy = false
// this flag is introduced in 5.39.0 version of Terraform. If set to true it will
//prevent you from disabling composer_api through Terraform if any environment was
//there in the last 30 days
  check_if_service_has_usage_on_destroy = true
}

resource "google_project_service" "pubsub_api" {
  project = "<PROJECT_ID>"
  service = "pubsub.googleapis.com"
  disable_on_destroy = false
}

resource "google_project_service" "functions_api" {
  project = "<PROJECT_ID>"
  service = "cloudfunctions.googleapis.com"
  disable_on_destroy = false
}

Substitua <PROJECT_ID> pelo ID do projeto. do seu projeto. Por exemplo, example-project.

criar o ambiente do Cloud Composer

Crie um ambiente do Cloud Composer 2.

Como parte deste procedimento, você concede o papel Extensão do agente de serviço da API Cloud Composer v2 (roles/composer.ServiceAgentV2Ext) à conta do agente de serviço do Composer. O Cloud Composer usa essa conta para realizar operações no seu projeto do Google Cloud.

Criar um tópico do Pub/Sub

Este exemplo aciona um DAG em resposta a uma mensagem enviada para um tópico do Pub/Sub. Crie um tópico do Pub/Sub para usar neste exemplo:

Console

  1. No console do Google Cloud, acesse a página Tópicos do Pub/Sub.

    Acessar os tópicos do Pub/Sub

  2. Clique em Criar tópico.

  3. No campo ID do tópico, insira dag-topic-trigger como um ID para o tópico.

  4. Não altere as outras opções.

  5. Clique em Criar tópico.

gcloud

Para criar um tópico, execute o gcloud pubsub topics create na Google Cloud CLI:

gcloud pubsub topics create dag-topic-trigger

Terraform

Adicione as seguintes definições de recursos ao seu script do Terraform:

resource "google_pubsub_topic" "trigger" {
  project                    = "<PROJECT_ID>"
  name                       = "dag-topic-trigger"
  message_retention_duration = "86600s"
}

Substitua <PROJECT_ID> pelo ID do projeto do seu projeto. Por exemplo, example-project.

Fazer upload dos seus DAGs

Faça upload dos DAGs para seu ambiente:

  1. Salve o seguinte arquivo DAG no seu computador local.
  2. Substitua <PROJECT_ID> pelo ID do projeto. do seu projeto. Por exemplo, example-project.
  3. Faça upload do arquivo DAG editado para seu ambiente.
from __future__ import annotations

from datetime import datetime
import time

from airflow import DAG
from airflow import XComArg
from airflow.operators.python import PythonOperator
from airflow.operators.trigger_dagrun import TriggerDagRunOperator
from airflow.providers.google.cloud.operators.pubsub import (
    PubSubCreateSubscriptionOperator,
    PubSubPullOperator,
)

PROJECT_ID = "<PROJECT_ID>"
TOPIC_ID = "dag-topic-trigger"
SUBSCRIPTION = "trigger_dag_subscription"


def handle_messages(pulled_messages, context):
    dag_ids = list()
    for idx, m in enumerate(pulled_messages):
        data = m.message.data.decode("utf-8")
        print(f"message {idx} data is {data}")
        dag_ids.append(data)
    return dag_ids


# This DAG will run minutely and handle pub/sub messages by triggering target DAG
with DAG(
    "trigger_dag",
    start_date=datetime(2021, 1, 1),
    schedule_interval="* * * * *",
    max_active_runs=1,
    catchup=False,
) as trigger_dag:
    # If subscription exists, we will use it. If not - create new one
    subscribe_task = PubSubCreateSubscriptionOperator(
        task_id="subscribe_task",
        project_id=PROJECT_ID,
        topic=TOPIC_ID,
        subscription=SUBSCRIPTION,
    )

    subscription = subscribe_task.output

    # Proceed maximum 50 messages in callback function handle_messages
    # Here we acknowledge messages automatically. You can use PubSubHook.acknowledge to acknowledge in downstream tasks
    # https://airflow.apache.org/docs/apache-airflow-providers-google/stable/_api/airflow/providers/google/cloud/hooks/pubsub/index.html#airflow.providers.google.cloud.hooks.pubsub.PubSubHook.acknowledge
    pull_messages_operator = PubSubPullOperator(
        task_id="pull_messages_operator",
        project_id=PROJECT_ID,
        ack_messages=True,
        messages_callback=handle_messages,
        subscription=subscription,
        max_messages=50,
    )

    # Here we use Dynamic Task Mapping to trigger DAGs according to messages content
    # https://airflow.apache.org/docs/apache-airflow/2.3.0/concepts/dynamic-task-mapping.html
    trigger_target_dag = TriggerDagRunOperator.partial(task_id="trigger_target").expand(
        trigger_dag_id=XComArg(pull_messages_operator)
    )

    (subscribe_task >> pull_messages_operator >> trigger_target_dag)


def _some_heavy_task():
    print("Do some operation...")
    time.sleep(1)
    print("Done!")


# Simple target DAG
with DAG(
    "target_dag",
    start_date=datetime(2022, 1, 1),
    # Not scheduled, trigger only
    schedule_interval=None,
    catchup=False,
) as target_dag:
    some_heavy_task = PythonOperator(
        task_id="some_heavy_task", python_callable=_some_heavy_task
    )

    (some_heavy_task)

O exemplo de código contém dois DAGs: trigger_dag e target_dag.

O DAG trigger_dag se inscreve em um tópico do Pub/Sub, extrai mensagens do Pub/Sub e aciona outro DAG especificado no ID dele dos dados das mensagens do Pub/Sub. Neste exemplo, trigger_dag aciona o DAG target_dag, que gera mensagens para os registros de tarefas.

O DAG trigger_dag contém as seguintes tarefas:

  • subscribe_task: inscreva-se em um tópico do Pub/Sub.
  • pull_messages_operator: lê os dados de uma mensagem do Pub/Sub com PubSubPullOperator.
  • trigger_target_dag: acionar outro DAG (neste exemplo, target_dag) de acordo com os dados nas mensagens extraídas do Pub/Sub tópico.

O DAG target_dag contém apenas uma tarefa: output_to_logs. Esta tarefa imprime mensagens no registro de tarefas com um segundo de atraso.

Implantar uma função do Cloud Run que publique mensagens em um tópico do Pub/Sub

Nesta seção, você implantará uma função do Cloud Run que publica mensagens em um tópico do Pub/Sub.

Criar uma função do Cloud Run e especificar a configuração dela

Console

  1. No console do Google Cloud, acesse a página das funções do Cloud Run.

    Acessar as funções do Cloud Run

  2. Clique em Criar função.

  3. No campo Ambiente, selecione 1ª geração.

  4. No campo Nome da função, insira o nome da sua função: pubsub-publisher

  5. No campo Tipo de gatilho, selecione HTTP.

  6. Na seção Autenticação, selecione Permitir invocações não autenticadas. Essa opção concede usuários não autenticados invocar uma função HTTP.

  7. Clique em "Salvar".

  8. Clique em Próximo para acessar a etapa Código.

Terraform

Considere usar o console do Google Cloud nesta etapa, porque não há maneira simples de gerenciar o código-fonte da função no Terraform.

Este exemplo demonstra como fazer upload de uma função do Cloud Run de um arquivo de arquivamento ZIP local criando um bucket do Cloud Storage, armazenando o arquivo nesse bucket e usando o arquivo do bucket como uma fonte para a função do Cloud Run. Se você usar essa abordagem, o Terraform não vai atualizar automaticamente o código-fonte da função, mesmo que você crie um novo arquivo. Para fazer o upload do código da função novamente, mude o nome do arquivo.

  1. Faça o download dos arquivos pubsub_publisher.py e requirements.txt.
  2. No arquivo pubsub_publisher.py, substitua <PROJECT_ID> pelo ID do projeto. Por exemplo, example-project.
  3. Crie um arquivo ZIP chamado pubsub_function.zip com o pbusub_publisner.py e o arquivo requirements.txt.
  4. Salve o arquivo ZIP em um diretório onde o script do Terraform esteja armazenado.
  5. Adicione as seguintes definições de recursos ao script do Terraform e substitua <PROJECT_ID> pelo ID do projeto.
resource "google_storage_bucket" "cloud_function_bucket" {
  project        = <PROJECT_ID>
  name           = "<PROJECT_ID>-cloud-function-source-code"
  location       = "US"
  force_destroy  = true
  uniform_bucket_level_access = true
}

resource "google_storage_bucket_object" "cloud_function_source" {
  name   = "pubsub_function.zip"
  bucket = google_storage_bucket.cloud_function_bucket.name
  source = "./pubsub_function.zip"
}

resource "google_cloudfunctions_function" "pubsub_function" {
  project = <PROJECT_ID>
  name    = "pubsub-publisher"
  runtime = "python310"
  region  = "us-central1"

  available_memory_mb   = 128
  source_archive_bucket = google_storage_bucket.cloud_function_bucket.name
  source_archive_object = "pubsub_function.zip"
  timeout               = 60
  entry_point           = "pubsub_publisher"
  trigger_http          = true
}

Especificar parâmetros do código da função do Cloud Run

Console

  1. Na etapa Código, no campo Ambiente de execução, selecione o idioma o ambiente de execução usado pela função. Neste exemplo, selecione Python 3.10.

  2. No campo Ponto de entrada, digite pubsub_publisher. Esse é o código que é executado quando a função do Cloud Run é executada. O valor dessa flag precisa ser um nome de função ou de classe totalmente qualificado que exista no código-fonte.

Terraform

Pule esta etapa. Os parâmetros da função do Cloud Run já estão definidos no recurso google_cloudfunctions_function.

Fazer upload do código da função do Cloud Run

Console

No campo Código-fonte, selecione a opção adequada para saber como fornecer o código-fonte da função. Neste tutorial, adicione o código da função usando as funções do Cloud Run Editor in-line. Como alternativa, você pode fazer upload de um arquivo ZIP ou usar o Cloud Source Repositories.

  1. Coloque o exemplo de código a seguir no arquivo main.py.
  2. Substitua <PROJECT_ID> pelo ID do projeto do seu projeto. Por exemplo, example-project.
from google.cloud import pubsub_v1

project = "<PROJECT_ID>"
topic = "dag-topic-trigger"


def pubsub_publisher(request):
    """Publish message from HTTP request to Pub/Sub topic.
    Args:
        request (flask.Request): HTTP request object.
    Returns:
        The response text with message published into Pub/Sub topic
        Response object using
        `make_response <http://flask.pocoo.org/docs/1.0/api/#flask.Flask.make_response>`.
    """
    request_json = request.get_json()
    print(request_json)
    if request.args and "message" in request.args:
        data_str = request.args.get("message")
    elif request_json and "message" in request_json:
        data_str = request_json["message"]
    else:
        return "Message content not found! Use 'message' key to specify"

    publisher = pubsub_v1.PublisherClient()
    # The `topic_path` method creates a fully qualified identifier
    # in the form `projects/{project_id}/topics/{topic_id}`
    topic_path = publisher.topic_path(project, topic)

    # The required data format is a bytestring
    data = data_str.encode("utf-8")
    # When you publish a message, the client returns a future.
    message_length = len(data_str)
    future = publisher.publish(topic_path, data, message_length=str(message_length))
    print(future.result())

    return f"Message {data} with message_length {message_length} published to {topic_path}."

Terraform

Pule esta etapa. Os parâmetros da função do Cloud Run já estão definidos o recurso google_cloudfunctions_function.

Especificar as dependências da função do Cloud Run

Console

Especifique as dependências da função no arquivo de metadados requirements.txt:

requests-toolbelt==1.0.0
google-auth==2.19.1
google-cloud-pubsub==2.21.5

Quando você implanta sua função, as funções do Cloud Run fazem o download e instalam as dependências declaradas no arquivo requirements.txt, uma linha por pacote. Esse arquivo deve estar no mesmo diretório que o arquivo main.py que contém o código da função. Para mais detalhes, consulte Arquivos de requisitos na documentação do pip.

Terraform

Pule esta etapa. As dependências de função do Cloud Run são definidas no arquivo requirements.txt no arquivo pubsub_function.zip.

Implantar a função do Cloud Run

Console

Clique em Implantar. Quando a implantação é concluída, a função é exibida com uma marca de seleção verde na página Funções do Cloud Run na console do Google Cloud.

Verifique se a conta de serviço que executa a função do Cloud Run tem permissões suficientes no seu projeto para acessar o Pub/Sub.

Terraform

  1. Inicialize o Terraform:

    terraform init
    
  2. Revise a configuração e verifique se os recursos que o Terraform está criar ou atualizar correspondem às suas expectativas:

    terraform plan
    
  3. Para verificar se a configuração é válida, execute o seguinte comando:

    terraform validate
    
  4. Para aplicar a configuração do Terraform, execute o comando a seguir e digite "yes" no prompt:

    terraform apply
    

Aguarde até que o Terraform exiba a mensagem "Apply complete!".

No console do Google Cloud, navegue até os recursos na UI para fazer que o Terraform tenha criado ou atualizado essas informações.

Testar a função do Cloud Run

Para verificar se a função publica uma mensagem em um tópico do Pub/Sub e que os DAGs de exemplo funcionam conforme o esperado:

  1. Verifique se os DAGs estão ativos:

    1. No console do Google Cloud, acesse a página Ambientes.

      Acessar "Ambientes"

    2. Na lista de ambientes, clique no nome do ambiente. A página Detalhes do ambiente é aberta.

    3. Acesse a guia DAGs.

    4. Verifique os valores na coluna State para DAGs com os nomes trigger_dag e target_dag. Os dois DAGs precisam estar no estado Active.

  2. Envie uma mensagem de teste do Pub/Sub. É possível fazer isso no Cloud Shell:

    1. No console do Google Cloud, acesse a página Funções.

      Acessar as funções do Cloud Run

    2. Clique no nome da função, pubsub-publisher.

    3. Acesse a guia Testes.

    4. Na seção Configurar evento acionador, insira o seguinte valor de chave JSON: {"message": "target_dag"}. Não modifique a chave-valor porque essa mensagem aciona o DAG de teste mais tarde.

    5. Na seção Testar comando, clique em Testar no Cloud Shell.

    6. No terminal do Cloud Shell, aguarde até que um comando apareça automaticamente. Execute este comando pressionando Enter.

    7. Se a mensagem Autorizar o Cloud Shell for exibida, Clique em Autorizar.

    8. Confira se o conteúdo da mensagem corresponde à mensagem do Pub/Sub. Neste exemplo, a mensagem de saída precisa começar com Message b'target_dag' with message_length 10 published to como resposta da sua função.

  3. Verifique se target_dag foi acionado:

    1. Aguarde pelo menos um minuto para que uma nova execução do DAG de trigger_dag seja concluída é concluída.

    2. No console do Google Cloud, acesse a página Ambientes.

      Acessar "Ambientes"

    3. Na lista de ambientes, clique no nome do ambiente. A página Detalhes do ambiente é aberta.

    4. Acesse a guia DAGs.

    5. Clique em trigger_dag para acessar a página de detalhes do DAG. Na guia Execuções será exibida uma lista de execuções do DAG para o DAG trigger_dag.

      Esse DAG é executado a cada minuto e processa todas as mensagens do Pub/Sub enviadas pela função. Se nenhuma mensagem foi enviada, o A tarefa trigger_target está marcada como Skipped nos registros de execução do DAG. Se os DAGs foram acionados, e a tarefa trigger_target foi marcada como Success.

    6. Procure várias execuções de DAG recentes para localizar uma em que as três tarefas (subscribe_task, pull_messages_operator e trigger_target) estejam nos status Success.

    7. Volte para a guia DAGs e verifique se a página Successful run (Execuções bem-sucedidas) do DAG target_dag lista uma execução bem-sucedida.

Resumo

Neste tutorial, você aprendeu a usar o Cloud Run functions para publicar mensagens em um tópico do Pub/Sub e implantar um DAG que se inscreve em um tópico do Pub/Sub, extrai mensagens do Pub/Sub e aciona outro DAG especificado no ID do DAG dos dados da mensagem.

Há também formas alternativas de Como criar e gerenciar assinaturas do Pub/Sub e acionar DAGs que estão fora do escopo deste tutorial. Por exemplo, é possível usar funções do Cloud Run para acionar DAGs do Airflow quando ocorre um evento especificado. Confira nossos tutoriais para testar os outros recursos do Google Cloud.

Limpar

Para evitar cobranças na sua conta do Google Cloud pelos recursos usados neste tutorial, exclua o projeto que os contém ou mantenha o projeto e exclua os recursos individuais.

Exclua o projeto

    Delete a Google Cloud project:

    gcloud projects delete PROJECT_ID

Excluir recursos individuais

Se você planeja ver vários tutoriais e guias de início rápido, a reutilização de projetos pode evitar que você exceda os limites da cota do projeto.

Console

  1. Exclua o ambiente do Cloud Composer. Você também excluir o bucket do ambiente durante este procedimento.
  2. Exclua o tópico do Pub/Sub, dag-topic-trigger.
  3. Exclua a função do Cloud Run.

    1. No console do Google Cloud, acesse as funções do Cloud Run.

      Acessar as funções do Cloud Run

    2. Clique na caixa de seleção da função que você quer excluir, pubsub-publisher.

    3. Clique em Excluir e siga as instruções.

Terraform

  1. Confirme que o script do Terraform não contém entradas para recursos que ainda são exigidos pelo seu projeto. Por exemplo, manter algumas APIs ativadas e o IAM permissões ainda atribuídas (se você adicionou essas definições ao seu script do Terraform).
  2. Execute terraform destroy.
  3. Exclua manualmente o bucket do ambiente. O Cloud Composer não exclui automaticamente. Você pode fazer isso console ou Google Cloud CLI.

A seguir