Activa DAG con Cloud Functions y mensajes de Pub/Sub

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se te guía para crear una arquitectura de envío basada en eventos activando DAG de Cloud Composer en respuesta a cambios de tema de Pub/Sub. En los ejemplos de este instructivo, se muestra cómo controlar el ciclo completo de la administración de Pub/Sub, incluida la administración de suscripciones, como parte del proceso de DAG. Es adecuada para algunos de los casos de uso comunes cuando necesitas activar DAG, pero no quieres configurar permisos de acceso adicionales.

Por ejemplo, los mensajes enviados a través de Pub/Sub pueden usarse como una solución si no quieres proporcionar acceso directo a un Cloud Composer el entorno por motivos de seguridad. Puedes configurar un función de Cloud Run que crea mensajes de Pub/Sub y y las publica en un tema de Pub/Sub. Luego, puedes crear un DAG que recupere los mensajes de Pub/Sub y, luego, los controle.

En este ejemplo específico, creas una función de Cloud Run y, luego, implementas dos DAG. El primer DAG extrae mensajes de Pub/Sub y activa segundo DAG según el contenido del mensaje de Pub/Sub.

En este instructivo, se supone que conoces Python y la consola de Google Cloud.

Objetivos

Costos

En este instructivo, se usan los siguientes componentes facturables de Google Cloud:

Después de completar este instructivo, puedes borrar los recursos creados para evitar que se te siga facturando. Consulta la sección Limpieza para obtener más detalles.

Antes de comenzar

Para este instructivo, necesitas Google Cloud proyecto. Configura el proyecto de la siguiente manera:

  1. En la consola de Google Cloud, selecciona o crea un proyecto:

    Ir al Selector de proyectos

  2. Asegúrate de tener habilitada la facturación para tu proyecto. Obtén información para verificar si la facturación está habilitada en un proyecto.

  3. Asegúrate de que el usuario de tu proyecto de Google Cloud tenga los siguientes roles para crear los recursos necesarios:

    • Usuario de cuenta de servicio (roles/iam.serviceAccountUser)
    • Editor de Pub/Sub (roles/pubsub.editor)
    • Administrador de objetos de almacenamiento y entorno (roles/composer.environmentAndStorageObjectAdmin)
    • Administrador de funciones de Cloud Run (roles/cloudfunctions.admin)
    • Visualizador de registros (roles/logging.viewer)
  4. Asegúrate de que la cuenta de servicio que ejecuta tu función de Cloud Run tenga permisos suficientes en tu proyecto para acceder a Pub/Sub. De de forma predeterminada, las funciones de Cloud Run usan el Cuenta de servicio predeterminada de App Engine. Esta cuenta de servicio tiene el rol de Editor, que es suficiente permisos para este instructivo.

Habilita las API para tu proyecto.

Console

Enable the Cloud Composer, Cloud Run functions, and Pub/Sub APIs.

Enable the APIs

gcloud

Enable the Cloud Composer, Cloud Run functions, and Pub/Sub APIs:

gcloud services enable composer.googleapis.com cloudfunctions.googleapis.com pubsub.googleapis.com

Terraform

Para habilitar la API de Cloud Composer en tu proyecto, agrega las siguientes definiciones de recursos a tu secuencia de comandos de Terraform:

resource "google_project_service" "composer_api" {
  project = "<PROJECT_ID>"
  service = "composer.googleapis.com"
  // Disabling Cloud Composer API might irreversibly break all other
  // environments in your project.
  // This parameter prevents automatic disabling
  // of the API when the resource is destroyed.
  // We recommend to disable the API only after all environments are deleted.
  disable_on_destroy = false
// this flag is introduced in 5.39.0 version of Terraform. If set to true it will
//prevent you from disabling composer_api through Terraform if any environment was
//there in the last 30 days
  check_if_service_has_usage_on_destroy = true
}

resource "google_project_service" "pubsub_api" {
  project = "<PROJECT_ID>"
  service = "pubsub.googleapis.com"
  disable_on_destroy = false
}

resource "google_project_service" "functions_api" {
  project = "<PROJECT_ID>"
  service = "cloudfunctions.googleapis.com"
  disable_on_destroy = false
}

Reemplaza <PROJECT_ID> por el ID del proyecto de tu proyecto. Por ejemplo, example-project.

Crea tu entorno de Cloud Composer

Crea un entorno de Cloud Composer 2.

Como parte de este procedimiento, otorgas el rol de Extensión del agente de servicio de la API de Cloud Composer v2 (roles/composer.ServiceAgentV2Ext) a la cuenta del agente de servicio de Composer. Cloud Composer usa esta cuenta para realizar operaciones en tu proyecto de Google Cloud.

Crea un tema de Pub/Sub

En este ejemplo, se activa un DAG en respuesta a un mensaje enviado a un tema de Pub/Sub. Crea un tema de Pub/Sub para usarlo en este ejemplo:

Console

  1. En la consola de Google Cloud, ve a la página Temas de Pub/Sub.

    Ir a Temas de Pub/Sub

  2. Haz clic en Crear tema.

  3. En el campo ID del tema, ingresa dag-topic-trigger como un ID para tu en este tema.

  4. Deja las demás opciones en sus valores predeterminados.

  5. Haz clic en Crear tema.

gcloud

Para crear un tema, ejecuta gcloud pubsub topics create en Google Cloud CLI:

gcloud pubsub topics create dag-topic-trigger

Terraform

Agrega las siguientes definiciones de recursos a tu secuencia de comandos de Terraform:

resource "google_pubsub_topic" "trigger" {
  project                    = "<PROJECT_ID>"
  name                       = "dag-topic-trigger"
  message_retention_duration = "86600s"
}

Reemplaza <PROJECT_ID> por el ID del proyecto de tu proyecto. Por ejemplo, example-project.

Sube tus DAG

Sube DAGs a tu entorno:

  1. Guarda el siguiente archivo de DAG en tu computadora local.
  2. Reemplaza <PROJECT_ID> por Project ID. de tu proyecto. Por ejemplo, example-project.
  3. Sube el archivo DAG editado a tu entorno.
from __future__ import annotations

from datetime import datetime
import time

from airflow import DAG
from airflow import XComArg
from airflow.operators.python import PythonOperator
from airflow.operators.trigger_dagrun import TriggerDagRunOperator
from airflow.providers.google.cloud.operators.pubsub import (
    PubSubCreateSubscriptionOperator,
    PubSubPullOperator,
)

PROJECT_ID = "<PROJECT_ID>"
TOPIC_ID = "dag-topic-trigger"
SUBSCRIPTION = "trigger_dag_subscription"


def handle_messages(pulled_messages, context):
    dag_ids = list()
    for idx, m in enumerate(pulled_messages):
        data = m.message.data.decode("utf-8")
        print(f"message {idx} data is {data}")
        dag_ids.append(data)
    return dag_ids


# This DAG will run minutely and handle pub/sub messages by triggering target DAG
with DAG(
    "trigger_dag",
    start_date=datetime(2021, 1, 1),
    schedule_interval="* * * * *",
    max_active_runs=1,
    catchup=False,
) as trigger_dag:
    # If subscription exists, we will use it. If not - create new one
    subscribe_task = PubSubCreateSubscriptionOperator(
        task_id="subscribe_task",
        project_id=PROJECT_ID,
        topic=TOPIC_ID,
        subscription=SUBSCRIPTION,
    )

    subscription = subscribe_task.output

    # Proceed maximum 50 messages in callback function handle_messages
    # Here we acknowledge messages automatically. You can use PubSubHook.acknowledge to acknowledge in downstream tasks
    # https://airflow.apache.org/docs/apache-airflow-providers-google/stable/_api/airflow/providers/google/cloud/hooks/pubsub/index.html#airflow.providers.google.cloud.hooks.pubsub.PubSubHook.acknowledge
    pull_messages_operator = PubSubPullOperator(
        task_id="pull_messages_operator",
        project_id=PROJECT_ID,
        ack_messages=True,
        messages_callback=handle_messages,
        subscription=subscription,
        max_messages=50,
    )

    # Here we use Dynamic Task Mapping to trigger DAGs according to messages content
    # https://airflow.apache.org/docs/apache-airflow/2.3.0/concepts/dynamic-task-mapping.html
    trigger_target_dag = TriggerDagRunOperator.partial(task_id="trigger_target").expand(
        trigger_dag_id=XComArg(pull_messages_operator)
    )

    (subscribe_task >> pull_messages_operator >> trigger_target_dag)


def _some_heavy_task():
    print("Do some operation...")
    time.sleep(1)
    print("Done!")


# Simple target DAG
with DAG(
    "target_dag",
    start_date=datetime(2022, 1, 1),
    # Not scheduled, trigger only
    schedule_interval=None,
    catchup=False,
) as target_dag:
    some_heavy_task = PythonOperator(
        task_id="some_heavy_task", python_callable=_some_heavy_task
    )

    (some_heavy_task)

El código de muestra contiene dos DAG: trigger_dag y target_dag.

El DAG de trigger_dag se suscribe a un tema de Pub/Sub, extrae mensajes de Pub/Sub y activa otro DAG especificado en el ID de DAG de los datos de mensajes de Pub/Sub. En este ejemplo, trigger_dag activa el DAG target_dag, que genera mensajes en los registros de tareas.

El DAG de trigger_dag contiene las siguientes tareas:

  • subscribe_task: Suscríbete a un tema de Pub/Sub.
  • pull_messages_operator: Lee los datos de un mensaje de Pub/Sub con PubSubPullOperator.
  • trigger_target_dag: Activa otro DAG (en este ejemplo, target_dag) según los datos de los mensajes extraídos del tema de Pub/Sub.

El DAG de target_dag contiene solo una tarea: output_to_logs. Esta tarea imprime mensajes en el registro de tareas con una demora de un segundo.

Implementa una función de Cloud Run que publique mensajes en un tema de Pub/Sub

En esta sección, implementarás una función de Cloud Run que publique mensajes en un tema de Pub/Sub.

Crea una función de Cloud Run y especifica su configuración

Console

  1. En la consola de Google Cloud, ve a la página Funciones de Cloud Run.

    Ve a las funciones de Cloud Run

  2. Haz clic en Crear función.

  3. En el campo Entorno, selecciona 1st gen.

  4. En el campo Nombre de la función, ingresa el nombre de tu función: pubsub-publisher

  5. En el campo Activador, selecciona HTTP.

  6. En la sección Autenticación, selecciona Permitir invocaciones no autenticadas. Esta opción otorga usuarios no autenticados la capacidad de invocar una función de HTTP.

  7. Haz clic en Guardar.

  8. Haz clic en Siguiente para avanzar al paso Código.

Terraform

Considera usar la consola de Google Cloud para este paso, y directa de administrar el código fuente de la función desde Terraform.

En este ejemplo, se muestra cómo subir una función de Cloud Run desde un archivo ZIP local creando un bucket de Cloud Storage. almacenar el archivo en este bucket y, luego, usar el archivo del bucket como fuente de la función de Cloud Run. Si usas este enfoque, Terraform no actualiza automáticamente el código fuente de tu función, incluso si creas un nuevo archivo. Para volver a subir el código de la función, puede cambiar el nombre del archivo.

  1. Descarga los archivos pubsub_publisher.py y requirements.txt.
  2. En el archivo pubsub_publisher.py, reemplaza <PROJECT_ID> por el ID de proyecto de tu proyecto. Por ejemplo, example-project.
  3. Crea un archivo ZIP llamado pubsub_function.zip con los archivos pbusub_publisner.py y requirements.txt.
  4. Guarda el archivo ZIP en un directorio donde esté almacenada la secuencia de comandos de Terraform.
  5. Agrega las siguientes definiciones de recursos a tu secuencia de comandos de Terraform y Reemplaza <PROJECT_ID> por el ID de tu proyecto.
resource "google_storage_bucket" "cloud_function_bucket" {
  project        = <PROJECT_ID>
  name           = "<PROJECT_ID>-cloud-function-source-code"
  location       = "US"
  force_destroy  = true
  uniform_bucket_level_access = true
}

resource "google_storage_bucket_object" "cloud_function_source" {
  name   = "pubsub_function.zip"
  bucket = google_storage_bucket.cloud_function_bucket.name
  source = "./pubsub_function.zip"
}

resource "google_cloudfunctions_function" "pubsub_function" {
  project = <PROJECT_ID>
  name    = "pubsub-publisher"
  runtime = "python310"
  region  = "us-central1"

  available_memory_mb   = 128
  source_archive_bucket = google_storage_bucket.cloud_function_bucket.name
  source_archive_object = "pubsub_function.zip"
  timeout               = 60
  entry_point           = "pubsub_publisher"
  trigger_http          = true
}

Especifica los parámetros del código de la función de Cloud Run

Console

  1. En el paso Código, en el campo Entorno de ejecución, selecciona el lenguaje. el entorno de ejecución que usa tu función. En este ejemplo, selecciona Python 3.10.

  2. En el campo Punto de entrada, ingresa pubsub_publisher. Este es el código cuando se ejecuta la función de Cloud Run. El valor de este marcador debe ser un nombre de función o un nombre de clase completamente calificado que que existe en tu código fuente.

Terraform

Omite este paso. Los parámetros de la función de Cloud Run ya están definidos en el recurso google_cloudfunctions_function

Sube el código de tu función de Cloud Run

Console

En el campo Código fuente, selecciona la opción adecuada para el modo en que proporcionas el código fuente de la función. En este instructivo, agrega el código de tu función con las funciones de Cloud Run Editor intercalado. Como alternativa, puedes subir un archivo ZIP o usar Cloud Source Repositories.

  1. Coloca el siguiente ejemplo de código en el archivo main.py.
  2. Reemplaza <PROJECT_ID> por Project ID. de tu proyecto. Por ejemplo, example-project.
from google.cloud import pubsub_v1

project = "<PROJECT_ID>"
topic = "dag-topic-trigger"


def pubsub_publisher(request):
    """Publish message from HTTP request to Pub/Sub topic.
    Args:
        request (flask.Request): HTTP request object.
    Returns:
        The response text with message published into Pub/Sub topic
        Response object using
        `make_response <http://flask.pocoo.org/docs/1.0/api/#flask.Flask.make_response>`.
    """
    request_json = request.get_json()
    print(request_json)
    if request.args and "message" in request.args:
        data_str = request.args.get("message")
    elif request_json and "message" in request_json:
        data_str = request_json["message"]
    else:
        return "Message content not found! Use 'message' key to specify"

    publisher = pubsub_v1.PublisherClient()
    # The `topic_path` method creates a fully qualified identifier
    # in the form `projects/{project_id}/topics/{topic_id}`
    topic_path = publisher.topic_path(project, topic)

    # The required data format is a bytestring
    data = data_str.encode("utf-8")
    # When you publish a message, the client returns a future.
    message_length = len(data_str)
    future = publisher.publish(topic_path, data, message_length=str(message_length))
    print(future.result())

    return f"Message {data} with message_length {message_length} published to {topic_path}."

Terraform

Omite este paso. Los parámetros de la función de Cloud Run ya están definidos en el recurso google_cloudfunctions_function

Especifica las dependencias de la función de Cloud Run

Console

Especifica las dependencias de la función en el archivo de metadatos requirements.txt:

requests-toolbelt==1.0.0
google-auth==2.19.1
google-cloud-pubsub==2.21.5

Cuando implementas tu función, las funciones de Cloud Run descargan e instalan dependencias declaradas en el archivo requirements.txt, una línea por paquete. Este archivo debe estar en el mismo directorio que el archivo main.py que contiene el código de tu función. Para obtener más detalles, consulta Archivos de requisitos en la documentación de pip.

Terraform

Omite este paso. Las dependencias de las funciones de Cloud Run se definen en el archivo requirements.txt en el archivo pubsub_function.zip.

Implementa tu función de Cloud Run

Console

Haz clic en Implementar. Cuando la implementación finaliza correctamente, la función aparece con una marca de verificación verde en la página Funciones de Cloud Run de la consola de Google Cloud.

Asegúrate de que la cuenta de servicio que ejecuta tu función de Cloud Run tenga suficientes permisos en tu proyecto para acceder a Pub/Sub.

Terraform

  1. Inicializa Terraform mediante este comando:

    terraform init
    
  2. Revisa la configuración y verifica que los recursos que creará o actualizará Terraform coincidan con tus expectativas:

    terraform plan
    
  3. Para verificar si tu configuración es válida, ejecuta el siguiente comando:

    terraform validate
    
  4. Para aplicar la configuración de Terraform, ejecuta el siguiente comando: ingresando “yes” en el prompt:

    terraform apply
    

Espera hasta que Terraform muestre el mensaje “¡Aplicación completa!”.

En la consola de Google Cloud, navega a tus recursos en la IU para asegurarte de que Terraform los haya creado o actualizado.

Prueba tu función de Cloud Run

Para verificar que tu función publique un mensaje en un tema de Pub/Sub y que los DAG de ejemplo funcionan según lo previsto:

  1. Verifica que los DAG estén activos:

    1. En la consola de Google Cloud, ve a la página Entornos.

      Ir a Entornos

    2. En la lista de entornos, haz clic en el nombre de tu entorno. Se abrirá la página Detalles del entorno.

    3. Ve a la pestaña DAG.

    4. Verifica los valores de la columna Estado para los DAGs llamados trigger_dag y target_dag. Ambos DAG deben tener el estado Active.

  2. Envía un mensaje de prueba de Pub/Sub. Puedes hacerlo en Cloud Shell:

    1. En la consola de Google Cloud, ve a la página Funciones.

      Ve a las funciones de Cloud Run

    2. Haz clic en el nombre de tu función, pubsub-publisher.

    3. Ve a la pestaña Pruebas.

    4. En la sección Configurar evento de activación, ingresa el siguiente valor clave-JSON: {"message": "target_dag"}. No modifiques el par clave-valor porque este mensaje activa el DAG de prueba más tarde.

    5. En la sección Comando de prueba, haz clic en Probar en Cloud Shell.

    6. En la terminal de Cloud Shell, espera a que aparezca un comando automáticamente. Para ejecutar este comando, presiona Enter.

    7. Si aparece el mensaje Autoriza Cloud Shell, Haz clic en Autorizar.

    8. Verifica que el contenido del mensaje coincida con el mensaje de Pub/Sub. En este ejemplo, el mensaje de salida debe comenzar con Message b'target_dag' with message_length 10 published to como respuesta de tu función.

  3. Verifica que se haya activado target_dag:

    1. Espera al menos un minuto para que se complete una nueva ejecución de DAG de trigger_dag.

    2. En la consola de Google Cloud, ve a la página Entornos.

      Ir a Entornos

    3. En la lista de entornos, haz clic en el nombre de tu entorno. Se abrirá la página Detalles del entorno.

    4. Ve a la pestaña DAG.

    5. Haz clic en trigger_dag para ir a la página Detalles de DAG. En la pestaña Ejecuciones, se muestra una lista de ejecuciones de DAG para el DAG trigger_dag.

      Este DAG se ejecuta cada minuto y procesa todos los datos de Pub/Sub mensajes enviados desde la función. Si no se enviaron mensajes, el La tarea trigger_target está marcada como Skipped en los registros de ejecución del DAG. Si Se activaron los DAG, luego, la tarea trigger_target se marcó como Success

    6. Revisa varias ejecuciones recientes de DAG para ubicar una ejecución de DAG en la que tres tareas (subscribe_task, pull_messages_operator y trigger_target) están en el estado Success.

    7. Regresa a la pestaña DAGs y verifica que la columna Ejecuciones correctas del DAG target_dag muestre una ejecución correcta.

Resumen

En este instructivo, aprendiste a usar funciones de Cloud Run para publicar mensajes en un tema de Pub/Sub y, luego, implementar un DAG que se suscriba a un tema de Pub/Sub, extraiga mensajes de Pub/Sub y active otro DAG especificado en el ID de DAG de los datos del mensaje.

También existen formas alternativas de crear y administrar suscripciones de Pub/Sub y activar DAG que están fuera del alcance de este instructivo. Por ejemplo, puedes Usar funciones de Cloud Run para activar los DAG de Airflow cuando ocurre un evento específico. Consulta nuestros instructivos para probar las otras funciones funciones de Google Cloud para ti mismo.

Limpia

Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.

Borra el proyecto

    Borra un proyecto de Google Cloud:

    gcloud projects delete PROJECT_ID

Borra los recursos individuales

Si planeas explorar varios instructivos y guías de inicio rápido, la reutilización de proyectos puede ayudarte a evitar exceder los límites de las cuotas del proyecto.

Console

  1. Borra el entorno de Cloud Composer. También borrar el bucket del entorno durante el procedimiento.
  2. Borra el tema de Pub/Sub, dag-topic-trigger.
  3. Borra la función de Cloud Run.

    1. En la consola de Google Cloud, ve a las funciones de Cloud Run.

      Ve a las funciones de Cloud Run

    2. Haz clic en la casilla de verificación de la función que deseas borrar pubsub-publisher

    3. Haz clic en Borrar y, luego, sigue las instrucciones.

Terraform

  1. Asegúrate de que tu secuencia de comandos de Terraform no contenga entradas para los recursos que tu proyecto aún necesita. Por ejemplo, es posible que desees mantener algunas APIs habilitadas y los permisos de IAM asignados (si agregaste esas definiciones a tu secuencia de comandos de Terraform).
  2. Ejecuta terraform destroy.
  3. Borra el bucket del entorno de forma manual. Cloud Composer no lo borra automáticamente. Puedes hacerlo desde la consola de Google Cloud o Google Cloud CLI.

¿Qué sigue?