Administrar conexiones de Airflow

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se describe cómo administrar las conexiones de Airflow en tu entorno y acceder a ellas desde tus DAG.

Acerca de las conexiones de Airflow

Las conexiones de AIflow almacenan credenciales y otra información de conexión, como nombres de usuario, cadenas de conexiones y contraseñas. Los DAG usan conexiones para comunicarse y acceder a recursos en Google Cloud y otros servicios de tus DAG.

Los operadores de Airflow en tus DAG usan una conexión predeterminada para el o puedes especificar un nombre de conexión personalizado.

Información acerca de la seguridad de la conexión

La mayoría de los operadores de Airflow no aceptan credenciales de forma directa. En cambio, usan Conexiones de Airflow.

Cuando creas un entorno nuevo, Cloud Composer genera una clave fernet única y permanente para el entorno y protege los extras de conexión de forma predeterminada. Puedes ver fernet_key en la página Configuración, en IU de Airflow.

Para obtener más información sobre cómo se protegen las conexiones y las contraseñas en Airflow, consulta Protege las conexiones y Enmascara datos sensibles.

Acerca de los tipos de conexión

Airflow usa conexiones de diferentes tipos para conectarse a servicios específicos. Por ejemplo, el Tipo de conexión de Google Cloud se conecta a otros servicios en Google Cloud. Como otro ejemplo, la conexión S3 se conecta a un bucket de Amazon S3.

Para agregar un tipo de conexión a Airflow, Instalar un paquete de PyPI con ese tipo de conexión Algunos paquetes están preinstalados en tu entorno. Para Por ejemplo, puedes usar la conexión desde apache-airflow-providers-google sin instalar paquetes de PyPI personalizados.

Conexiones preconfiguradas

Cloud Composer configura las siguientes conexiones predeterminadas en tu en un entorno de nube. Puedes usar estas conexiones para acceder a los recursos de tu proyecto sin configurarlos.

  • google_cloud_default
  • bigquery_default
  • google_cloud_datastore_default
  • google_cloud_storage_default

Agrega una conexión en Secret Manager

Puedes almacenar una conexión en Secret Manager sin agregarla a Airflow. Te recomendamos que uses este enfoque cuando almacenes credenciales y otra información sensible.

Para agregar una conexión en Secret Manager, sigue estos pasos:

  1. Configura Secret Manager para tu entorno.

  2. Agrega un secreto con el nombre que coincida con el patrón de las conexiones.

    Por ejemplo: airflow-connections-example_connection. En tus DAG, usa el nombre de la conexión sin el prefijo: example_connection.

  3. Agrega parámetros para la conexión:

    Formato JSON

    Agrega la representación JSON de tu conexión como el valor del Secret. Por ejemplo:

    {
      "conn_type": "mysql",
      "host": "example.com",
      "login": "login",
      "password": "password",
      "port": "9000"
    }
    

    Para obtener más información sobre el formato de conexión JSON, consulta la documentación de Airflow.

    Formato de URI

    Agrega la representación de URI de tu conexión como el valor del secreto:

    • El secreto debe almacenar una representación de URI de la conexión. Por ejemplo, mysql://login:password@example.com:9000

    • El URI debe estar codificado como URL. Para Por ejemplo, una contraseña que tiene un símbolo de espacio debe estar codificada para una URL de la siguiente manera: mysql://login:secret%20password@example.com:9000

    Airflow tiene un método útil para generar el URI de conexión. Puedes encontrar un ejemplo de cómo codificar un URL complejo con elementos JSON adicionales en la documentación de Airflow.

  4. Comprueba que todos los parámetros de conexión estén Leer correctamente desde Secret Manager.

Cómo agregar una conexión en Airflow

Como alternativa a almacenar tus conexiones en Secret Manager, puedes almacenarlas en Airflow.

Para agregar una conexión en Airflow, sigue estos pasos:

CLI de Airflow

Ejecuta el comando connections add de la CLI de Airflow a través de Google Cloud CLI. Por ejemplo:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-type "mysql" \
    --conn-host "example.com" \
    --conn-port "9000" \
    --conn-login "login" \
    --conn-password "password" \
    example_connection

También puedes usar el argumento --conn-uri:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-uri "mysql://login:password@example.com:9000" \
    example_connection

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME: Es el nombre de tu entorno.
  • LOCATION: Es la región en la que se encuentra el entorno.

IU de Airflow

Sigue la documentación de Airflow sobre cómo crear conexiones.

Verifica que Airflow lea correctamente una conexión

Puedes ejecutar el comando connections get de la CLI de Airflow mediante Google Cloud CLI para comprobar que una conexión se lea correctamente. Por ejemplo, si almacenas una conexión en Secret Manager, esto proporciona una forma de verificar si Airflow lee todos los parámetros de una conexión desde un secreto.

gcloud composer environments run ENVIRONMENT_NAME \
    --location LOCATION \
    connections get \
    -- CONNECTION_NAME

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno
  • CONNECTION_NAME por el nombre de la conexión Si tu conexión se almacena en Secret Manager, usa el nombre de la conexión sin el prefijo de conexión. Por ejemplo, especifica example_connection en lugar de airflow-connections-example_connection_json

Ejemplo:

gcloud composer environments run example-environment \
    --location us-central1 \
    connections get \
    -- example_connection -o json

Usa conexiones de Airflow en tus DAG

En esta sección, se muestra cómo acceder a tu conexión desde un DAG.

Usa una conexión de Secret Manager

Usa el nombre de la conexión sin el prefijo. Por ejemplo, si tu secreto se llama airflow-connections-aws_s3, especifica aws_s3

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si almacenas una conexión predeterminada en Secret Manager, puedes el nombre de la conexión. Consulta la documentación de Airflow para obtener información de un operador específico el nombre de conexión predeterminado que usa un operador. Por ejemplo, el S3ToGCSOperator El operador de Airflow usa la conexión aws_default por de forma predeterminada. Puedes almacenar esta conexión predeterminada en un Secret llamado airflow-connections-aws_default

Usar una conexión almacenada en Airflow

Usa el nombre de la conexión, como se define en Airflow:

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Para usar la conexión predeterminada de un operador, omite el nombre de la conexión. Consulta Documentación de Airflow para que un operador específico obtenga la conexión predeterminada nombre que usa un operador. Por ejemplo, el operador de Airflow S3ToGCSOperator usa la conexión aws_default de forma predeterminada.

Soluciona problemas

Si tu entorno no puede acceder al secreto almacenado en Secret Manager, haz lo siguiente:

  1. Asegúrate de que Secret Manager esté configurado en tu en un entorno de nube.

  2. Comprueba que el nombre de la conexión en Secret Manager coincida a la conexión que usa Airflow. Por ejemplo, para una conexión llamada example_connection, el nombre del Secret es airflow-connections-example_connection

  3. Verifica que Airflow lea correctamente una conexión.

¿Qué sigue?