Migra entornos a Cloud Composer 2 (desde Airflow 2)

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se explica cómo transferir DAG, datos y configuración desde tu entornos existentes de Cloud Composer 1 y Airflow 2 a Cloud Composer 2, Airflow 2.

Otras guías de migración

Desde Hasta Método Guía
Cloud Composer 1, Airflow 2 Cloud Composer 2, Airflow 2 En paralelo, con instantáneas Guía de migración (instantáneas)
Cloud Composer 1, Airflow 1 Cloud Composer 2, Airflow 2 En paralelo, con instantáneas Guía de migración (instantáneas)
Cloud Composer 1, Airflow 2 Cloud Composer 2, Airflow 2 Transferencia manual en paralelo Esta guía (migración manual)
Cloud Composer 1, Airflow 1 Cloud Composer 2, Airflow 2 Transferencia manual en paralelo Guía de migración manual
Airflow 1 Airflow 2 Transferencia manual en paralelo Guía de migración manual

Antes de comenzar

Paso 1: Obtén la lista de anulaciones de configuración, paquetes de PyPI personalizados y variables de entorno

Console

Obtén la lista de la configuración de tu entorno de Cloud Composer 1 anulaciones, paquetes de PyPI personalizados y variables de entorno:

  1. Ve a la página Entornos en la consola de Google Cloud:

    Ir a Entornos

  2. Selecciona tu entorno de Cloud Composer 1.

  3. Visualiza las variables de entorno en la pestaña Variables de entorno.

  4. Visualiza anulaciones de configuración en la Pestañas Anulaciones de configuración de Airflow.

  5. Visualiza los paquetes de PyPI personalizados en la pestaña Paquetes de PyPI.

gcloud

Para obtener la lista de variables de entorno, ejecuta el siguiente comando:

gcloud composer environments describe \
    COMPOSER_1_ENV \
    --location COMPOSER_1_LOCATION \
    --format="value(config.softwareConfig.envVariables)"

Para obtener la lista de anulaciones de configuración de Airflow del entorno, ejecuta el siguiente comando:

gcloud composer environments describe \
    COMPOSER_1_ENV \
    --location COMPOSER_1_LOCATION \
    --format="value(config.softwareConfig.airflowConfigOverrides)"

Para obtener la lista de paquetes de PyPI personalizados, ejecuta el siguiente comando:

gcloud composer environments describe \
    COMPOSER_1_ENV \
    --location COMPOSER_1_LOCATION \
    --format="value(config.softwareConfig.pypiPackages)"

Reemplaza lo siguiente:

  • COMPOSER_1_ENV por el nombre de tu entorno de Cloud Composer 1
  • COMPOSER_1_LOCATION es la región en la que se encuentra el entorno de Cloud Composer 1.

Terraform

Omite este paso. La configuración de tu entorno de Cloud Composer 1 ya enumera anulaciones de configuración, paquetes de PyPI personalizados y parámetros variables para tu entorno.

Paso 2: Crea un entorno de Cloud Composer 2

En este paso, crea un entorno de Cloud Composer 2. Puedes comienza con un ajuste predeterminado de entorno que coincida las demandas de recursos esperadas y, luego, escalar y optimizar tu entorno un poco más lejos.

Console

Crea un entorno de Cloud Composer 2 y especificar las anulaciones de configuración y las variables de entorno.

Como alternativa, puedes anular Airflow. parámetros de configuración y variables de entorno después de crear un entorno.

gcloud

Crea un entorno de Cloud Composer 2 y especificar las anulaciones de configuración y las variables de entorno.

Como alternativa, puedes anular Airflow. parámetros de configuración y variables de entorno después de crear un entorno.

Terraform

Crea un entorno de Cloud Composer 2 basado en la configuración de la Entorno de Cloud Composer 1:

  1. Copia la configuración de tu entorno de Cloud Composer 1.
  2. Cambia el nombre de tu entorno.
  3. Usa el proveedor google-beta:

    resource "google_composer_environment" "example_environment_composer_2" {
      provider = google-beta
      # ...
    }
    
  4. Especifica una imagen de Cloud Composer 2 en el bloque config.software_config:

    software_config {
      image_version = "composer-2.8.6-airflow-2.7.3"
      # ...
    }
    
  5. Si no es así, especifica las anulaciones de configuración y las variables de entorno.

  6. Especifica paquetes de PyPI personalizados en el bloque config.software_config.pypi_packages:

    software_config {
    
      # ...
    
      pypi_packages = {
        numpy = ""
        scipy = ">=1.1.0"
      }
    
    }
    

Paso 3: Instala paquetes de PyPI en el entorno de Cloud Composer 2

Después de crear tu entorno de Cloud Composer 2, instala PyPI personalizado paquetes nuevos.

Console

  1. Ve a la página Entornos en la consola de Google Cloud:

    Ir a Entornos

  2. Selecciona tu entorno de Cloud Composer 2.

  3. Ve a la pestaña Paquetes de PyPI y haz clic en Editar.

  4. Copia los requisitos del paquete de PyPI de tu entorno de Cloud Composer 1. Haz clic en Guardar y espera hasta que se actualice el entorno.

gcloud

  1. Crea un archivo requirements.txt con la lista de paquetes de PyPI personalizados:

      numpy
      scipy>=1.1.0
    
  2. Actualiza tu entorno y pasa el archivo requirements.txt al comando --update-pypi-packages-from-file:

    gcloud composer environments update COMPOSER_2_ENV \
      --location COMPOSER_2_LOCATION  \
      --update-pypi-packages-from-file requirements.txt
    

    Reemplaza lo siguiente:

    • COMPOSER_2_ENV por el nombre de tu entorno de Cloud Composer 2.
    • COMPOSER_2_LOCATION por la región en la que se encuentra el entorno de Cloud Composer 2.

Terraform

Omite este paso. Ya instalaste paquetes personalizados de PyPI cuando creaste el entorno.

Paso 4: Transfiere variables y grupos

Airflow admite la exportación de variables y grupos a archivos JSON. Puedes y, luego, importarlos a tu entorno de Cloud Composer 2.

Los comandos de la CLI de Airflow que se usan en este paso operan en archivos locales en Airflow trabajadores. Para subir o descargar los archivos, usa la carpeta /data que se encuentra en bucket de Cloud Storage de tu entorno. Esta carpeta se sincroniza con el Directorio /home/airflow/gcs/data/ en los trabajadores de Airflow. En la CLI de Airflow de comandos, especifica /home/airflow/gcs/data/ en el parámetro FILEPATH.

gcloud

  1. Exporta variables desde tu entorno de Cloud Composer 1:

    gcloud composer environments run \
        COMPOSER_1_ENV \
        --location COMPOSER_1_LOCATION \
         variables export -- /home/airflow/gcs/data/variables.json
    

    Reemplaza lo siguiente:

    • COMPOSER_1_ENV por el nombre de tu entorno de Cloud Composer 1
    • COMPOSER_1_LOCATION es la región en la que se encuentra el entorno de Cloud Composer 1.
  2. Exporta grupos desde tu entorno de Cloud Composer 1:

    gcloud composer environments run \
        COMPOSER_1_ENV \
        --location COMPOSER_1_LOCATION \
         pools export -- /home/airflow/gcs/data/pools.json
    

    Reemplaza lo siguiente:

    • COMPOSER_1_ENV por el nombre de tu entorno de Cloud Composer 1
    • COMPOSER_1_LOCATION es la región en la que se encuentra el entorno de Cloud Composer 1.
  3. Obtén el URI del bucket de tu entorno de Cloud Composer 2.

    1. Ejecuta el siguiente comando:

      gcloud composer environments describe COMPOSER_2_ENV \
          --location COMPOSER_2_LOCATION \
           --format="value(config.dagGcsPrefix)"
      

      Reemplaza lo siguiente:

      • COMPOSER_2_ENV por el nombre de Cloud Composer 2 en un entorno de nube.
      • COMPOSER_2_LOCATION por la región en la que se encuentra el entorno.
    2. En el resultado, quita la carpeta /dags. El resultado es el URI de desde el bucket de tu entorno de Cloud Composer 2.

      Por ejemplo, cambia gs://us-central1-example-916807e1-bucket/dags a gs://us-central1-example-916807e1-bucket.

  4. Transfiere archivos JSON con variables y grupos a Cloud Composer 2 entorno:

    gcloud composer environments storage data export \
        --destination=COMPOSER_2_BUCKET/data \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION \
        --source=variables.json
    
    gcloud composer environments storage data export \
        --destination=COMPOSER_2_BUCKET/data \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION \
        --source=pools.json
    

    Reemplaza lo siguiente:

    • COMPOSER_2_BUCKET por el URI de Cloud Composer 2 de entorno, que obtuviste en el paso anterior.
    • COMPOSER_1_ENV por el nombre de tu entorno de Cloud Composer 1
    • COMPOSER_1_LOCATION es la región en la que se encuentra el entorno de Cloud Composer 1.
  5. Importa variables y grupos a Cloud Composer 2:

    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        variables import \
        -- /home/airflow/gcs/data/variables.json
    
    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        pools import \
        -- /home/airflow/gcs/data/pools.json
    
  6. Verifica que se importen las variables y los grupos:

    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        variables list
    
    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        pools list
    
  7. Quita los archivos JSON de los buckets:

    gcloud composer environments storage data delete \
        variables.json \
        --environment=COMPOSER_2_ENV \
        --location=COMPOSER_2_LOCATION
    
    gcloud composer environments storage data delete \
        pools.json \
        --environment=COMPOSER_2_ENV \
        --location=COMPOSER_2_LOCATION
    
    gcloud composer environments storage data delete \
        variables.json \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION
    
    gcloud composer environments storage data delete \
        pools.json \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION
    

Paso 5: Transfiere otros datos del bucket del entorno de Cloud Composer 1

Transfiere complementos y otros datos desde el bucket del entorno de Cloud Composer 1.

gcloud

  1. Transfiere los complementos a tu entorno de Cloud Composer 2. Para hacerlo, exporta los complementos de tu el bucket del entorno de Cloud Composer 1 a la carpeta /plugins de tu Bucket del entorno de Cloud Composer 2:

    gcloud composer environments storage plugins export \
        --destination=COMPOSER_2_BUCKET/plugins \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION
    
  2. Verifica que la carpeta /plugins se haya importado correctamente:

    gcloud composer environments storage plugins list \
        --environment=COMPOSER_2_ENV \
        --location=COMPOSER_2_LOCATION
    
  3. Exporta la carpeta /data de tu entorno de Cloud Composer 1 a la Entorno de Airflow 2:

    gcloud composer environments storage data export \
        --destination=COMPOSER_2_BUCKET/data \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION
    
  4. Verifica que la carpeta /data se haya importado correctamente:

    gcloud composer environments storage data list \
        --environment=COMPOSER_2_ENV \
        --location=COMPOSER_2_LOCATION
    

Paso 6: Conexiones de transferencia

En este paso, se explica cómo crear conexiones de forma manual para transferirlas.

gcloud

  1. Para obtener una lista de conexiones en tu entorno de Cloud Composer 1, ejecuta el siguiente comando:

    gcloud composer environments run \
        COMPOSER_1_ENV \
        --location COMPOSER_1_LOCATION \
        connections list
    
  2. Para crear una conexión nueva en tu entorno de Cloud Composer 2, ejecuta el siguiente comando: Comando connections de la CLI de Airflow a través de gcloud. Por ejemplo:

    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        connections add \
        -- --conn-host postgres.example.com \
        --conn-port 5432 \
        --conn-type postgres \
        --conn-login example_user \
        --conn-password example_password \
        --conn-description "Example connection" \
        example_connection
    

Paso 7: Transfiere las cuentas de usuario

En este paso, se explica cómo crear usuarios de forma manual para transferirlos.

IU de Airflow

  1. Para ver una lista de usuarios en tu entorno de Cloud Composer 1, sigue estos pasos:

    1. Abre la interfaz web de Airflow para tu entorno de Cloud Composer 1.

    2. Ve a Seguridad > Enumera los usuarios.

  2. Para crear un usuario en tu entorno de Cloud Composer 2, sigue estos pasos:

    1. Abre la interfaz web de Airflow para tu entorno de Cloud Composer 2.

    2. Ve a Seguridad > Enumera los usuarios.

    3. Haz clic en Add a new record.

gcloud

  1. Para ver una lista de usuarios en tu entorno de Cloud Composer 1, ejecuta el siguiente comando: Comando users list de la CLI de Airflow a través de gcloud:

    gcloud composer environments run \
        COMPOSER_1_ENV \
        --location COMPOSER_1_LOCATION \
        users list
    

    Reemplaza lo siguiente:

    • COMPOSER_1_ENV por el nombre de tu entorno de Cloud Composer 1
    • COMPOSER_1_LOCATION con la región en la que se encuentra el entorno de Cloud Composer 1.
  2. Para crear una cuenta de usuario nueva en tu entorno de Cloud Composer 2, ejecuta el siguiente comando: Comando users create de la CLI de Airflow a través de gcloud. Por ejemplo:

    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        users create \
        -- --username example_username \
        --firstname Example-Name \
        --lastname Example-Surname \
        --email example-user@example.com \
        --use-random-password \
        --role Op
    

    Reemplaza lo siguiente:

    • COMPOSER_2_ENV por el nombre de tu entorno de Cloud Composer 2.
    • COMPOSER_2_LOCATION con la región en la que se encuentra el entorno de Cloud Composer 2.
    • Todos los parámetros de configuración del usuario con sus valores del entorno de Cloud Composer 1, incluido el rol del usuario.

Alternativa de transferir cuentas de usuario

Como alternativa, puedes usar Airflow de users export y users import comandos de la CLI.

  1. Exporta cuentas de usuario a un archivo en la carpeta de bucket /data de tu entorno:

    gcloud composer environments run \
        COMPOSER_1_ENV \
        --location COMPOSER_1_LOCATION \
        users export -- /home/airflow/gcs/data/users.json
    
  2. Exporta este archivo al bucket de tu entorno de Cloud Composer 2:

    gcloud composer environments storage data export \
        --destination=COMPOSER_2_BUCKET/data \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION \
        --source=users.json
    
  3. Importa cuentas de usuario desde este archivo a tu entorno de Cloud Composer 2:

    gcloud composer environments run \
        COMPOSER_2_ENV \
        --location COMPOSER_2_LOCATION \
        users import \
        -- /home/airflow/gcs/data/users.json
    
  4. Borra los archivos JSON en ambos entornos:

    gcloud composer environments storage data delete \
        --environment=COMPOSER_1_ENV \
        --location=COMPOSER_1_LOCATION  \
        users.json
    
    gcloud composer environments storage data delete \
        --environment=COMPOSER_2_ENV \
        --location=COMPOSER_2_LOCATION  \
        users.json
    

Reemplaza lo siguiente:

  • COMPOSER_1_ENV por el nombre de tu entorno de Cloud Composer 1
  • COMPOSER_2_ENV por el nombre de tu entorno de Cloud Composer 2.
  • COMPOSER_1_LOCATION con la región en la que se encuentra el entorno de Cloud Composer 1.
  • COMPOSER_2_LOCATION con la región en la que se encuentra el entorno de Cloud Composer 2.
  • COMPOSER_2_BUCKET por el URI de tu entorno de Cloud Composer 2 bucket se obtuvo en el paso anterior.

Paso 8: Transfiere los DAG al entorno de Cloud Composer 2

Los siguientes problemas podrían ocurrir cuando transfieres DAG entre entornos:

  • Si un DAG está habilitado (no pausado) en ambos entornos, cada uno se ejecutará su propia copia del DAG, según lo programado. Esto podría generar un DAG duplicado se ejecutan con los mismos datos y tiempo de ejecución.

  • Debido a Actualización sobre DAG, Airflow programa ejecuciones adicionales de DAG a partir de la fecha de inicio especificada en tus DAG. Esto sucede porque la nueva instancia de Airflow no tarda en cuenta el historial de ejecuciones de DAG desde Cloud Composer 1 en un entorno de nube. Esto puede generar una gran cantidad de ejecuciones de DAG programadas a partir de la fecha de inicio especificada.

Evita las ejecuciones de DAG duplicadas

En tu entorno de Cloud Composer 2, en tu entorno de Airflow 2, agrega una anulación de la opción de configuración de Airflow para el Opción dags_are_paused_at_creation. Después de realizar este cambio, todos los DAG nuevos están detenidos de forma predeterminada.

Sección Clave Valor
core dags_are_paused_at_creation True

Evita las ejecuciones de DAG adicionales o faltantes

Para evitar brechas y superposiciones en Inhabilitar fechas de ejecución ponerte al día con Cloud Composer 2. De esta manera, después de subir los DAG entorno de Cloud Composer 2, Airflow no programa ejecuciones de DAG que se hayan ya se ejecuta en el entorno de Cloud Composer 1. Agrega una anulación de la opción de configuración de Airflow para el Opción catchup_by_default:

Sección Clave Valor
scheduler catchup_by_default False

Transfiere tus DAG al entorno de Cloud Composer 2

Para transferir tus DAG al entorno de Cloud Composer 2, sigue estos pasos:

  1. Sube el DAG desde Cloud Composer 1 al entorno de Cloud Composer 2. Omitir el DAG airflow_monitoring.py

  2. Los DAG se detienen el entorno de Cloud Composer 2 debido a la anulación de la configuración. no hay ejecuciones de DAG programadas.

  3. En la interfaz web de Airflow, Ve a los DAG y verifica si hay errores de sintaxis del DAG informados.

  4. En el momento en que planeas transferir el DAG, haz lo siguiente:

    1. Detén los DAG en tu entorno de Cloud Composer 1.

    2. Reanuda los DAG en tu entorno de Cloud Composer 2.

    3. Comprueba que las nuevas ejecuciones de DAG estén programadas en el momento correcto.

    4. Espera a que las ejecuciones del DAG ocurran en el entorno de Cloud Composer 2 y para verificar si tuvieron éxito. Si una ejecución de DAG tuvo éxito, no reactivarla en el entorno de Cloud Composer 1. Si lo haces, se generará un ejecutada con la misma hora y fecha en Cloud Composer 1 en un entorno de nube.

  5. Si una ejecución de DAG específico falla, intenta solucionar problemas del DAG hasta que se ejecute correctamente Cloud Composer 2.

    Si es necesario, siempre puedes recurrir a la versión de Cloud Composer 1 del DAG y ejecutar las ejecuciones de DAG que fallaron en Cloud Composer 2 desde tu entorno de Cloud Composer 1:

    1. Detén el DAG en tu entorno de Cloud Composer 2.

    2. Reanuda el DAG en tu entorno de Cloud Composer 1. Esta programa las ejecuciones de DAG para el momento en que el DAG se detuvo en entorno de Cloud Composer 1.

Paso 9: Supervisa tu entorno de Cloud Composer 2

Después de transferir todos los DAG y la configuración a Cloud Composer 2 entorno, supervísalo en busca de posibles problemas, ejecuciones fallidas de DAG y, en general, y el estado del entorno. Si el entorno de Cloud Composer 2 se ejecuta sin problemas durante un período suficiente, considera borrar Cloud Composer 1 en un entorno de nube.

¿Qué sigue?