Actualizar entornos

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se explica cómo se puede actualizar un entorno.

Información acerca de las operaciones de actualización

Cuando cambias los parámetros de tu entorno, como especificar nuevos parámetros de escalamiento y rendimiento, o instalar paquetes de PyPI personalizados, se actualiza tu entorno.

Una vez finalizada esta operación, los cambios estarán disponibles en tu en un entorno de nube.

Para un solo entorno de Cloud Composer, puedes iniciar solo una operación de actualización a la vez. Debes esperar a que se complete una operación de actualización antes de iniciar otra operación de entorno.

Límites de CPU del activador

Cloud Composer en la versión 2.4.4 presenta un rendimiento diferente enfoque de escalamiento para el activador de Airflow que se aplica a todas las versiones de Cloud Composer 2.

Antes de la versión 2.4.4, los entornos de Cloud Composer podían usar un máximo de 1 o 2 activadores. Después del cambio, puedes tener hasta 10 activadores por entorno, pero cada activador está limitado a un máximo de 1 vCPU.

Las operaciones de actualización de entorno fallan si tu entorno está configurado con más de 1 CPU virtual por activador. Debes ajustar la configuración para cumplir con el límite de 1 vCPU para realizar actualizaciones en otros componentes.

Para obtener más información, consulte:

Cómo afectan las actualizaciones a las tareas de Airflow en ejecución

Cuando ejecutas una operación de actualización, es posible que los programadores y trabajadores de Airflow de tu entorno requieran un reinicio. En este caso, todas las tareas en ejecución se finalizan. Una vez finalizada la operación de actualización completo, Airflow programa estas tareas para un reintento, según configurar reintentos para tus DAG.

Los siguientes cambios provocan la finalización de la tarea de Airflow:

  • Actualizar el entorno a una versión nueva
  • Agregar, cambiar o borrar paquetes PyPI personalizados
  • Cambiar las variables de entorno de Cloud Composer
  • Agregar o quitar anulaciones de opciones de configuración de Airflow, o cambiar sus valores
  • Cambiar los trabajadores de Airflow CPU, memoria o almacenamiento.
  • Reducir la cantidad máxima de trabajadores de Airflow si el valor nuevo es menor que la cantidad de trabajadores en ejecución actualmente. Por ejemplo, si un entorno ejecuta tres trabajadores y el máximo se reduce a dos.
  • Cambiar el modo de resiliencia del entorno

Los siguientes cambios no causan la finalización de la tarea de Airflow:

  • Crear, actualizar o borrar un DAG (no una operación de actualización)
  • Pausar o reanudar DAG (no una operación de actualización)
  • Cambiar las variables de Airflow (no una operación de actualización).
  • Cambiar las conexiones de Airflow (no es una operación de actualización)
  • Habilita o inhabilita la integración del linaje de datos de Dataplex.
  • Cambiar el tamaño del entorno
  • Cambiar la cantidad de programadores
  • Cambiar la CPU, la memoria o el almacenamiento de los programadores de Airflow
  • Cambia la cantidad de activadores.
  • Cambia los activadores de Airflow CPU, memoria o almacenamiento.
  • Cambiar la CPU, la memoria o el almacenamiento del servidor web de Airflow
  • Aumentar o disminuir la cantidad mínima de trabajadores
  • Reduce la cantidad máxima de trabajadores de Airflow. Por ejemplo, si un en la actualidad, ejecuta dos trabajadores y el máximo se reduce a tres.
  • Cambios en los períodos de mantenimiento
  • Cambiar la configuración de las instantáneas programadas
  • Cambiar las etiquetas de entorno

Actualiza con Terraform

Ejecuta terraform plan antes de terraform apply para ver si Terraform crea un entorno nuevo en lugar de actualizarlo.

Antes de comenzar

Actualiza entornos

Si necesitas más información para actualizar tu entorno, consulta otra documentación páginas sobre operaciones de actualización específicas. Por ejemplo:

Consulta los detalles del entorno

Console

  1. En la consola de Google Cloud, ve a la página Entornos.

    Ir a Entornos

  2. En la lista de entornos, haz clic en el nombre de tu entorno. Se abrirá la página Detalles del entorno.

gcloud

Ejecuta el siguiente comando gcloud:

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno

API

Realiza una solicitud a la API de environments.get.

Ejemplo:

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

Ejecuta el comando terraform state show del recurso de tu entorno.

Es posible que el nombre del recurso de Terraform de tu entorno sea diferente del nombre de tu entorno.

terraform state show google_composer_environment.RESOURCE_NAME

Reemplaza lo siguiente:

  • RESOURCE_NAME por el nombre del recurso de tu entorno.

Revierte los cambios de la actualización

En situaciones excepcionales, es posible que se interrumpa la operación de actualización (por ejemplo, debido al tiempo de espera) y es posible que los cambios solicitados en todos los componentes del entorno (como el servidor web de Airflow).

Por ejemplo, una operación de actualización podría ser instalar o quitar módulos de PyPI adicionales, redefinir o definir una nueva variable de entorno de Airflow o Cloud Composer, o cambiar algunos parámetros relacionados con Airflow.

Esto puede ocurrir si se activa una operación de actualización cuando otros operaciones están en curso, por ejemplo, la del clúster de Cloud Composer ajuste de escala automático o una operación de mantenimiento.

En ese caso, se recomienda repetir la operación.

Duración de las operaciones de actualización

La mayoría de las operaciones de actualización o actualización requieren reiniciar los componentes de Airflow como programadores, trabajadores y servidores web de Airflow.

Una vez que se reinicia un componente, debe inicializarse. Durante el los programadores y trabajadores de Airflow descargan el contenido de /dags y /plugins del bucket del entorno. El proceso de sincronización de archivos con los programadores y trabajadores de Airflow no es instantáneo y depende del tamaño total y la cantidad de todos los objetos en estas carpetas.

Te recomendamos que solo conserves los archivos DAG y de complementos en las carpetas /dags y /plugins (respectivamente) y que quites todos los demás archivos. Demasiados datos en las carpetas /dags y /plugins pueden ralentizar la inicialización de los componentes de Airflow y, en algunos casos, impedir que se inicialicen.

Te recomendamos que conserves menos de 30 MB de datos en las carpetas /dags y /plugins, y que no superes los 100 MB de tamaño de datos.

Para obtener más información, consulta lo siguiente:

¿Qué sigue?