Administrar conexiones de Airflow

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se describe cómo administrar Conexiones de Airflow en tu y accede a ellos desde tus DAG.

Acerca de las conexiones de Airflow

Las conexiones de AIflow almacenan credenciales y otra información de conexión, como nombres de usuario, cadenas de conexiones y contraseñas. Los DAG usan conexiones para comunicarse y acceder a recursos en Google Cloud y otros servicios de tus DAG.

Los operadores de Airflow en tus DAG usan una conexión predeterminada para el o puedes especificar un nombre de conexión personalizado.

Información acerca de la seguridad de la conexión

La mayoría de los operadores de Airflow no aceptan credenciales de forma directa. En cambio, usan Conexiones de Airflow.

Cuando creas un entorno nuevo, Cloud Composer genera una clave fernet única y permanente para el entorno y protege los extras de conexión de forma predeterminada. Puedes ver el fernet_key en la página Configuración de la IU de Airflow.

Para obtener más información sobre cómo se protegen las conexiones y contraseñas en Airflow, consulta Cómo proteger las conexiones y Enmascara datos sensibles.

Información acerca de los tipos de conexión

Airflow usa conexiones de diferentes tipos para conectarse a servicios específicos. Por ejemplo, el tipo de conexión de Google Cloud se conecta a otros servicios de Google Cloud. Como otro ejemplo, el tipo de conexión de S3 se conecta a un bucket de Amazon S3.

Para agregar un tipo de conexión a Airflow, instala un paquete de PyPI con ese tipo de conexión. Algunos paquetes están preinstalados en tu entorno. Para Por ejemplo, puedes usar la conexión desde apache-airflow-providers-google sin instalar paquetes de PyPI personalizados.

Conexiones preconfiguradas

Cloud Composer configura las siguientes conexiones predeterminadas en tu entorno. Puedes usar estas conexiones para acceder a los recursos de tu proyecto sin configurarlos.

  • google_cloud_default
  • bigquery_default
  • google_cloud_datastore_default
  • google_cloud_storage_default

Agrega una conexión en Secret Manager

Puedes almacenar una conexión en Secret Manager sin agregarla a Airflow. Recomendamos usar este enfoque cuando almacenes credenciales y otra información sensible.

Para agregar una conexión en Secret Manager, sigue estos pasos:

  1. Configura Secret Manager para tu entorno.

  2. Agrega un secreto con el nombre que coincida con el patrón de las conexiones.

    Por ejemplo: airflow-connections-example_connection. En tus DAG, usa el nombre de la conexión sin el prefijo: example_connection.

  3. Agrega parámetros para la conexión:

    Formato JSON

    Agrega la representación JSON de tu conexión como el valor del Secret. Por ejemplo:

    {
      "conn_type": "mysql",
      "host": "example.com",
      "login": "login",
      "password": "password",
      "port": "9000"
    }
    

    Para obtener más información sobre el formato de conexión JSON, consulta Documentación de Airflow.

    Formato del URI

    Agrega la representación de URI de tu conexión como el valor del secreto:

    • El secreto debe almacenar una representación de URI de la conexión. Por ejemplo, mysql://login:password@example.com:9000

    • El URI debe estar codificado como URL. Para Por ejemplo, una contraseña que tiene un símbolo de espacio debe estar codificada para una URL de la siguiente manera: mysql://login:secret%20password@example.com:9000

    Airflow dispone de un método de conveniencia para generar URI de conexión. Ejemplo de cómo codificar una URL compleja con extras de JSON está disponible en la Documentación de Airflow.

  4. Verifica que todos los parámetros de conexión se lean correctamente desde Secret Manager.

Agrega una conexión en Airflow

Como alternativa al almacenamiento de tus conexiones en Secret Manager, puedes almacenarlos en Airflow.

Para agregar una conexión en Airflow, sigue estos pasos:

CLI de Airflow

Ejecuta el connections add CLI de Airflow comando a través de Google Cloud CLI. Por ejemplo:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-type "mysql" \
    --conn-host "example.com" \
    --conn-port "9000" \
    --conn-login "login" \
    --conn-password "password" \
    example_connection

También puedes usar el argumento --conn-uri:

gcloud composer environments run ENVIRONMENT_NAME \
  --location LOCATION \
  connections add -- \
    --conn-uri "mysql://login:password@example.com:9000" \
    example_connection

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME: Es el nombre de tu entorno.
  • LOCATION: Es la región en la que se encuentra el entorno.

IU de Airflow

Sigue la documentación de Airflow para crear conexiones.

Comprueba que Airflow lea una conexión de forma correcta

Puedes ejecutar el comando connections get de la CLI de Airflow mediante Google Cloud CLI para comprobar que una conexión se lea correctamente. Por ejemplo, si almacenas una conexión en Secret Manager, esto proporciona una forma de verificar si Airflow lee todos los parámetros de una conexión desde un secreto.

gcloud composer environments run ENVIRONMENT_NAME \
    --location LOCATION \
    connections get \
    -- CONNECTION_NAME

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno.
  • CONNECTION_NAME por el nombre de la conexión. Si tu conexión se almacena en Secret Manager, usa el nombre de la conexión sin el prefijo de conexión. Por ejemplo, especifica example_connection en lugar de airflow-connections-example_connection_json.

Ejemplo:

gcloud composer environments run example-environment \
    --location us-central1 \
    connections get \
    -- example_connection -o json

Usa conexiones de Airflow en tus DAG

En esta sección, se muestra cómo acceder a tu conexión desde un DAG.

Usa una conexión de Secret Manager

Usa el nombre de la conexión sin el prefijo. Por ejemplo, si tu secreto se llama airflow-connections-aws_s3, especifica aws_s3

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si almacenas una conexión predeterminada en Secret Manager, puedes omitir el nombre de la conexión. Consulta la documentación de Airflow para un operador específico y obtener el nombre de conexión predeterminado que usa un operador. Por ejemplo, el S3ToGCSOperator El operador de Airflow usa la conexión aws_default por de forma predeterminada. Puedes almacenar esta conexión predeterminada en un Secret llamado airflow-connections-aws_default

Usar una conexión almacenada en Airflow

Usa el nombre de la conexión, como se define en Airflow:

transfer_dir_from_s3 = S3ToGCSOperator(
    task_id='transfer_dir_from_s3',
    aws_conn_id='aws_s3',
    prefix='data-for-gcs',
    bucket='example-s3-bucket-transfer-operators',
    dest_gcs='gs://us-central1-example-environ-361f4221-bucket/data/from-s3/')

Si quieres usar la conexión predeterminada para un operador, omite el nombre de la conexión. Consulta Documentación de Airflow para que un operador específico obtenga la conexión predeterminada nombre que usa un operador. Por ejemplo, el operador de Airflow S3ToGCSOperator usa la conexión aws_default de forma predeterminada.

Soluciona problemas

Si tu entorno no puede acceder al Secret almacenado en Secret Manager, haz lo siguiente:

  1. Asegúrate de que Secret Manager esté configurado en tu entorno.

  2. Verifica que el nombre de la conexión en Secret Manager corresponda a la conexión que usa Airflow. Por ejemplo, para una conexión llamada example_connection, el nombre del secreto es airflow-connections-example_connection.

  3. Comprueba que Airflow lea una conexión de forma correcta.

¿Qué sigue?