Administrar conexiones de Airflow

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se describe cómo administrar Las conexiones de Airflow en tu y accede a ellos desde tus DAG.

Acerca de las conexiones de Airflow

Las conexiones de Airflow almacenan credenciales y otra información de conexión, como nombres de usuario, cadenas de conexión y contraseñas. Tus DAG usan conexiones para comunicarse y acceder a recursos en Google Cloud y otros servicios desde tus DAG.

Los operadores de Airflow en tus DAG usan una conexión predeterminada para el o puedes especificar un nombre de conexión personalizado.

Información acerca de la seguridad de la conexión

La mayoría de los operadores de Airflow no aceptan credenciales de forma directa. En su lugar, usan conexiones de Airflow.

Cuando creas un entorno nuevo, Cloud Composer genera una clave fernet única y permanente para el entorno y protege los extras de conexión de forma predeterminada. Puedes ver el fernet_key en la página Configuración de la IU de Airflow.

Para obtener más información sobre cómo se protegen las conexiones y contraseñas en Airflow, consulta Cómo proteger las conexiones y Enmascara datos sensibles.

Información acerca de los tipos de conexión

Airflow usa conexiones de diferentes tipos para conectarse a servicios específicos. Por ejemplo, el Tipo de conexión de Google Cloud se conecta a otros servicios en Google Cloud. Como otro ejemplo, la conexión S3 se conecta a un bucket de Amazon S3.

Para agregar un tipo de conexión a Airflow, Instalar un paquete de PyPI con ese tipo de conexión Algunos paquetes están preinstalados en tu entorno. Para Por ejemplo, puedes usar la conexión desde apache-airflow-providers-google sin instalar paquetes de PyPI personalizados.

Conexiones previamente configuradas

Cloud Composer configura las siguientes conexiones predeterminadas en tu entorno. Puedes usar estas conexiones para acceder a los recursos de tu proyecto sin configurarlos.

  • google_cloud_default
  • bigquery_default
  • google_cloud_datastore_default
  • google_cloud_storage_default

Agrega una conexión en Secret Manager

Puedes almacenar una conexión en Secret Manager sin agregar a Airflow. Te recomendamos que uses este enfoque cuando almacenes credenciales y otra información sensible.

Para agregar una conexión en Secret Manager, sigue estos pasos:

  1. Configura Secret Manager para tu entorno.

  2. Agrega un Secret con el nombre que coincide con el patrón de conexiones.

    Por ejemplo: airflow-connections-example_connection. En tus DAG, usa el nombre de la conexión sin el prefijo: example_connection.

  3. Agrega parámetros para la conexión:

    Formato JSON

    Agrega la representación JSON de tu conexión como el valor del Secret. Por ejemplo:

    {
      "conn_type": "mysql",
      "host": "example.com",
      "login": "login",
      "password": "password",
      "port": "9000"
    }
    

    Para obtener más información sobre el formato de conexión JSON, consulta la documentación de Airflow.

    Formato del URI

    Agrega la representación de URI de tu conexión como el valor del secreto:

    • El Secret debe almacenar un Representación del URI de la conexión. Por ejemplo, mysql://login:password@example.com:9000

    • El URI debe estar codificado como URL. Por ejemplo, una contraseña que tiene un símbolo de espacio debe estar codificada como URL de la siguiente manera: mysql://login:secret%20password@example.com:9000.

    Airflow dispone de un método de conveniencia para generar URI de conexión. Ejemplo de cómo codificar una URL compleja con extras de JSON está disponible en la Documentación de Airflow.

  4. Comprueba que todos los parámetros de conexión estén Leer correctamente desde Secret Manager.

Agrega una conexión en Airflow

Como alternativa al almacenamiento de tus conexiones en Secret Manager, puedes almacenarlos en Airflow.

Para agregar una conexión en Airflow, sigue estos pasos:

CLI de Airflow

Ejecuta el connections add CLI de Airflow comando a través de Google Cloud CLI. Por ejemplo:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-type "mysql" \
    --conn-host "example.com" \
    --conn-port "9000" \
    --conn-login "login" \
    --conn-password "password" \
    example_connection

También puedes usar el argumento --conn-uri:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-uri "mysql://login:password@example.com:9000" \
    example_connection

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME: Es el nombre de tu entorno.
  • LOCATION: Es la región en la que se encuentra el entorno.

IU de Airflow

Sigue la documentación de Airflow sobre cómo crear conexiones.

Comprueba que Airflow lea una conexión de forma correcta

Puedes ejecutar el comando connections get de la CLI de Airflow a través de Google Cloud CLI para verificar que una conexión se lea correctamente. Por ejemplo, si almacenas una conexión en Secret Manager, esta es una forma de verificar si de una conexión son leídos por Airflow desde un secreto.

gcloud composer environments run ENVIRONMENT_NAME \
    --location LOCATION \
    connections get \
    -- CONNECTION_NAME

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno
  • CONNECTION_NAME por el nombre de la conexión. Si la conexión es almacenado en Secret Manager, usa el nombre de la conexión sin el prefijo de conexión. Por ejemplo, especifica example_connection en lugar de airflow-connections-example_connection_json.

Ejemplo:

gcloud composer environments run example-environment \
    --location us-central1 \
    connections get \
    -- example_connection -o json

Usa conexiones de Airflow en tus DAG

En esta sección, se muestra cómo acceder a tu conexión desde un DAG.

Usa una conexión de Secret Manager

Usa el nombre de la conexión sin el prefijo. Por ejemplo, si tu secreto se llama airflow-connections-aws_s3, especifica aws_s3.

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si almacenas una conexión predeterminada en Secret Manager, puedes omitir el nombre de la conexión. Consulta la documentación de Airflow para un operador específico y obtener el nombre de conexión predeterminado que usa un operador. Por ejemplo, el operador de Airflow S3ToGCSOperator usa la conexión aws_default de forma predeterminada. Puedes almacenar esta conexión predeterminada en un Secret llamado airflow-connections-aws_default

Usar una conexión almacenada en Airflow

Usa el nombre de la conexión, como se define en Airflow:

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si quieres usar la conexión predeterminada para un operador, omite el nombre de la conexión. Consulta la documentación de Airflow para un operador específico y obtén el nombre de conexión predeterminado que usa un operador. Por ejemplo, el operador de Airflow S3ToGCSOperator usa la conexión aws_default de forma predeterminada.

Soluciona problemas

Si tu entorno no puede acceder al secreto almacenado en Secret Manager, haz lo siguiente:

  1. Asegúrate de que Secret Manager esté configurado en tu en un entorno de nube.

  2. Verifica que el nombre de la conexión en Secret Manager corresponda a la conexión que usa Airflow. Por ejemplo, para una conexión llamada example_connection, el nombre del secreto es airflow-connections-example_connection.

  3. Verifica que Airflow lea correctamente una conexión.

¿Qué sigue?