Administrar conexiones de Airflow

Cloud Composer 1 | Cloud Composer 2

En esta página, se describe cómo administrar las conexiones de Airflow en tu entorno y acceder a ellas desde tus DAG.

Acerca de las conexiones de Airflow

Las conexiones de Aiflow almacenan credenciales y otra información de conexión, como nombres de usuario, cadenas de conexiones y contraseñas. Los DAG usan conexiones para comunicarse y acceder a recursos en Google Cloud y otros servicios desde tus DAG.

Los operadores de Airflow en tus DAG usan una conexión predeterminada para el operador o puedes especificar un nombre de conexión personalizado.

Información acerca de la seguridad de la conexión

La mayoría de los operadores de Airflow no aceptan credenciales de forma directa. En su lugar, usan conexiones de Airflow.

Cuando creas un entorno nuevo, Cloud Composer genera una clave de fernet única y permanente para el entorno y protege los extras de conexión de forma predeterminada. Puedes ver el fernet_key en la página Configuración de la IU de Airflow.

Si deseas obtener más información sobre cómo se protegen las conexiones y contraseñas en Airflow, consulta Protege las conexiones y Enmascara datos sensibles.

Información acerca de los tipos de conexión

Airflow usa conexiones de diferentes tipos para conectarse a servicios específicos. Por ejemplo, el tipo de conexión de Google Cloud se conecta a otros servicios en Google Cloud. Otro ejemplo es el tipo de conexión S3 se conecta a un bucket de Amazon S3.

Para agregar un tipo de conexión a Airflow, instala un paquete de PyPI con ese tipo de conexión. Algunos paquetes están preinstalados en tu entorno. Por ejemplo, puedes usar la conexión desde el paquete apache-airflow-providers-google sin instalar paquetes de PyPI personalizados.

Conexiones previamente configuradas

Cloud Composer configura las siguientes conexiones predeterminadas en tu entorno. Puedes usar estas conexiones para acceder a los recursos de tu proyecto sin configurarlas.

  • google_cloud_default
  • bigquery_default
  • google_cloud_datastore_default
  • google_cloud_storage_default

Agrega una conexión en Secret Manager

Puedes almacenar una conexión en Secret Manager sin agregarla a Airflow. Recomendamos usar este enfoque cuando almacenes credenciales y otra información sensible.

Para agregar una conexión en Secret Manager, haz lo siguiente:

  1. Configura Secret Manager para tu entorno.

  2. Agrega un secreto con el nombre que coincida con el patrón de las conexiones.

    Por ejemplo: airflow-connections-example_connection. En tus DAG, usa el nombre de la conexión sin el prefijo: example_connection.

  3. Agrega parámetros para la conexión:

    Formato JSON

    Agrega la representación JSON de tu conexión como el valor del secreto. Por ejemplo:

    {
      "conn_type": "mysql",
      "host": "example.com",
      "login": "login",
      "password": "password",
      "port": "9000"
    }
    

    Para obtener más información sobre el formato de conexión JSON, consulta la documentación de Airflow.

    Formato de URI

    Agrega la representación del URI de tu conexión como el valor del secreto:

    • El secreto debe almacenar una representación URI de la conexión. Por ejemplo, mysql://login:password@example.com:9000

    • El URI debe estar codificado como URL. Por ejemplo, una contraseña que tiene un símbolo de espacio debe estar codificada para URL de la siguiente manera: mysql://login:secret%20password@example.com:9000.

    Airflow tiene un método conveniente para generar los URI de conexión. En la documentación de Airflow, puedes encontrar un ejemplo de cómo codificar una URL compleja con extras de JSON.

  4. Comprueba que todos los parámetros de conexión se lean de forma correcta desde Secret Manager.

Agrega una conexión en Airflow

Como alternativa al almacenamiento de tus conexiones en Secret Manager, puedes almacenarlas en Airflow.

Para agregar una conexión en Airflow, sigue estos pasos:

CLI de Airflow

Ejecuta el comando connections add de la CLI de Airflow a través de Google Cloud CLI. Por ejemplo:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-type "mysql" \
    --conn-host "example.com" \
    --conn-port "9000" \
    --conn-login "login" \
    --conn-password "password" \
    example_connection

También puedes usar el argumento --conn-uri:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-uri "mysql://login:password@example.com:9000" \
    example_connection

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME: Es el nombre de tu entorno.
  • LOCATION: Es la región en la que se encuentra el entorno.

IU de Airflow

Sigue la documentación de Airflow sobre cómo crear conexiones.

Comprueba que Airflow lea una conexión de forma correcta

Puedes ejecutar el comando connections get de la CLI de Airflow a través de Google Cloud CLI para verificar que una conexión se lea de forma correcta. Por ejemplo, si almacenas una conexión en Secret Manager, esto proporciona una manera de verificar si Airflow lee todos los parámetros de una conexión desde un secreto.

gcloud composer environments run ENVIRONMENT_NAME \
    --location LOCATION \
    connections get \
    -- CONNECTION_NAME

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno
  • CONNECTION_NAME por el nombre de la conexión Si tu conexión se almacena en Secret Manager, usa el nombre de la conexión sin el prefijo de conexión. Por ejemplo, especifica example_connection en lugar de airflow-connections-example_connection_json.

Ejemplo:

gcloud composer environments run example-environment \
    --location us-central1 \
    connections get \
    -- example_connection -o json

Usa conexiones de Airflow en tus DAG

En esta sección, se muestra cómo acceder a tu conexión desde un DAG.

Usa una conexión de Secret Manager

Usa el nombre de la conexión sin el prefijo. Por ejemplo, si tu secreto se llama airflow-connections-aws_s3, especifica aws_s3.

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si almacenas una conexión predeterminada en Secret Manager, puedes omitir el nombre de la conexión. Consulta la documentación de Airflow para conocer un operador específico a fin de obtener el nombre de conexión predeterminado que usa un operador. Por ejemplo, el operador S3ToGCSOperator de Airflow usa la conexión aws_default de forma predeterminada. Puedes almacenar esta conexión predeterminada en un secreto llamado airflow-connections-aws_default.

Usar una conexión almacenada en Airflow

Usa el nombre de la conexión, como se define en Airflow:

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si quieres usar la conexión predeterminada para un operador, omite el nombre de la conexión. Consulta la documentación de Airflow para obtener información sobre un operador específico a fin de obtener el nombre de conexión predeterminado que usa un operador. Por ejemplo, el operador S3ToGCSOperator de Airflow usa la conexión aws_default de forma predeterminada.

Soluciona problemas

Si tu entorno no puede acceder al Secret almacenado en Secret Manager, haz lo siguiente:

  1. Asegúrate de que Secret Manager esté configurado en tu entorno.

  2. Comprueba que el nombre de esa conexión en Secret Manager coincida con el que usa Airflow. Por ejemplo, para una conexión llamada example_connection, el nombre del secreto es airflow-connections-example_connection.

  3. Comprueba que Airflow lea una conexión de forma correcta.

¿Qué sigue?