Actualizar entornos

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se explica cómo se puede actualizar un entorno.

Información acerca de las operaciones de actualización

Cuando cambias los parámetros de tu entorno, como especificar un escalamiento nuevo y parámetros de rendimiento, o instalar paquetes PyPI personalizados, actualizaciones del entorno.

Una vez que se complete esta operación, los cambios estarán disponibles en tu entorno.

Para un único entorno de Cloud Composer, puedes iniciar solo uno de actualización a la vez. Debes esperar a que se complete una operación de actualización antes de iniciar otra operación de entorno.

Límites de CPU del activador

Cloud Composer en la versión 2.4.4 presenta un rendimiento diferente enfoque de escalamiento para el activador de Airflow que se aplica a todas las versiones de Cloud Composer 2.

Antes de la versión 2.4.4, los entornos de Cloud Composer podían usar un máximo de 1 o 2 activadores. Después del cambio, puede tener hasta 10 activadores por entorno, pero cada activador está limitado a un máximo de 1 CPU virtual.

Las operaciones de actualización del entorno fallan si tu entorno está configurado con más de 1 CPU virtual por activador. Debes ajustar la configuración para cumplir con el límite de 1 vCPU para realizar actualizaciones en otros componentes.

Para obtener más información, consulte:

Cómo afectan las actualizaciones a las tareas de Airflow en ejecución

Cuando ejecutas una operación de actualización, los programadores de Airflow y trabajadores en tu entorno pueden requerir un reinicio. En este caso, todas finalizan las tareas en ejecución. Una vez finalizada la operación de actualización completo, Airflow programa estas tareas para un reintento, según configurar reintentos para tus DAG.

Los siguientes cambios causan la finalización de la tarea de Airflow:

  • Actualizar el entorno a una versión nueva
  • Agregar, cambiar o borrar paquetes PyPI personalizados
  • Cambiar las variables de entorno de Cloud Composer
  • Agregar o quitar anulaciones de opciones de configuración de Airflow o cambiar sus de salida.
  • Cambiar los trabajadores de Airflow CPU, memoria o almacenamiento.
  • Reducir la cantidad máxima de trabajadores de Airflow, si el valor nuevo es inferior a la cantidad de trabajadores que se están ejecutando actualmente Por ejemplo, si un entorno ejecuta tres trabajadores y el máximo se reduce a dos.
  • Cambiar el modo de resiliencia del entorno

Los siguientes cambios no causan la finalización de la tarea de Airflow:

  • Crear, actualizar o borrar un DAG (no una operación de actualización)
  • Pausar o reanudar DAG (no una operación de actualización)
  • Cambiar las variables de Airflow (no es una operación de actualización)
  • Cambiar las conexiones de Airflow (no es una operación de actualización)
  • Habilitar o inhabilitar la integración del linaje de datos de Dataplex.
  • Cambiando el tamaño del entorno.
  • Cambiar la cantidad de programadores
  • Cambiar la CPU, la memoria o el almacenamiento de los programadores de Airflow
  • Cambiar la cantidad de activadores
  • Cambia los activadores de Airflow CPU, memoria o almacenamiento.
  • Cambiar la CPU, la memoria o el almacenamiento del servidor web de Airflow
  • Aumentar o disminuir la cantidad mínima de trabajadores
  • Reducir la cantidad máxima de trabajadores de Airflow Por ejemplo, si un entorno ejecuta dos trabajadores y el máximo se reduce a tres.
  • Cambios en los períodos de mantenimiento
  • Cambiar la configuración de las instantáneas programadas
  • Cambiar las etiquetas de entorno

Actualiza con Terraform

Ejecuta terraform plan antes del terraform apply para ver si Terraform crea una en lugar de actualizarlo.

Antes de comenzar

Actualizar entornos

Si necesitas más información para actualizar tu entorno, consulta otra documentación páginas sobre operaciones de actualización específicas. Por ejemplo:

Consulta los detalles del entorno

Console

  1. En la consola de Google Cloud, ve a la página Entornos.

    Ir a Entornos

  2. En la lista de entornos, haz clic en el nombre de tu entorno. Se abrirá la página Detalles del entorno.

gcloud

Ejecuta el siguiente comando gcloud:

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno

API

Realiza una solicitud a la API de environments.get.

Ejemplo:

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

Ejecuta el comando terraform state show del recurso de tu entorno.

El nombre del recurso Terraform de tu entorno puede ser diferente del de tu entorno.

terraform state show google_composer_environment.RESOURCE_NAME

Reemplaza lo siguiente:

  • RESOURCE_NAME por el nombre del recurso de tu entorno

Revierte los cambios de la actualización

En situaciones excepcionales, es posible que se interrumpa la operación de actualización (por ejemplo, debido al tiempo de espera) y es posible que los cambios solicitados en todos los componentes del entorno (como el servidor web de Airflow).

Por ejemplo, una operación de actualización podría ser instalar o quitar módulos de PyPI adicionales, redefinir o definir una nueva variable de entorno de Airflow o Cloud Composer, o cambiar algunos parámetros relacionados con Airflow.

Esto puede ocurrir si se activa una operación de actualización cuando otros operaciones están en curso, por ejemplo, la del clúster de Cloud ajuste de escala automático o una operación de mantenimiento.

En ese caso, se recomienda repetir la operación.

Duración de las operaciones de actualización

La mayoría de las operaciones de actualización requieren reiniciar los componentes de Airflow, como los programadores, los trabajadores y los servidores web.

Una vez que se reinicia un componente, debe inicializarse. Durante la inicialización, los programadores y trabajadores de Airflow descargan el contenido de las carpetas /dags y /plugins del bucket del entorno. El proceso de sincronización de archivos con los programadores y trabajadores de Airflow no es instantáneo y depende del tamaño total y la cantidad de todos los objetos en estas carpetas.

Te recomendamos que solo conserves los archivos DAG y de complementos en las carpetas /dags y /plugins (respectivamente) y que quites todos los demás archivos. Demasiados datos en las carpetas /dags y /plugins pueden ralentizar la inicialización de los componentes de Airflow y, en algunos casos, impedir que se inicialicen.

Te recomendamos que conserves menos de 30 MB de datos en las carpetas /dags y /plugins, y que no superes los 100 MB de tamaño de datos.

Para obtener más información, consulta también los siguientes vínculos:

¿Qué sigue?