Actualizar entornos

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

En esta página, se explica cómo se puede actualizar un entorno.

Información acerca de las operaciones de actualización

Cuando cambias los parámetros de tu entorno, como especificar un escalamiento nuevo y de rendimiento, o instalar paquetes PyPI personalizados, actualizaciones del entorno.

Una vez finalizada esta operación, los cambios estarán disponibles en tu en un entorno de nube.

Para un único entorno de Cloud Composer, puedes iniciar solo uno de actualización a la vez. Debes esperar a que se complete una operación de actualización antes de iniciar otra operación de entorno.

Límites de CPU del activador

Cloud Composer en la versión 2.4.4 presenta un rendimiento diferente enfoque de escalamiento para el activador de Airflow que se aplica a todas las versiones de Cloud Composer 2.

Antes de la versión 2.4.4, los entornos de Cloud Composer podían usar un máximo de 1 o 2 activadores. Después del cambio, puede tener hasta 10 activadores por entorno, pero cada activador está limitado a un máximo de 1 CPU virtual.

Las operaciones de actualización del entorno fallan si tu entorno está configurado con más de 1 CPU virtual por activador. Debes ajustar la configuración para alcanzar el límite de 1 CPU virtual y poder realizar actualizaciones en otros componentes.

Para obtener más información, consulte:

Cómo afectan las actualizaciones a las tareas de Airflow en ejecución

Cuando ejecutas una operación de actualización, como instalar paquetes de PyPI personalizados, todos los programadores y trabajadores de Airflow en tu entorno reiniciar y finalizar todas las tareas que estén en ejecución. Después de la actualización una operación, Airflow programa estas tareas para un reintento, según la forma de configurar reintentos para tus DAG.

Actualiza con Terraform

Ejecuta terraform plan antes del terraform apply para ver si Terraform crea una en lugar de actualizarlo.

Antes de comenzar

Actualizar entornos

Si necesitas más información para actualizar tu entorno, consulta otra documentación páginas sobre operaciones de actualización específicas. Por ejemplo:

Consulta los detalles del entorno

Console

  1. En la consola de Google Cloud, ve a la página Entornos.

    Ir a Entornos

  2. En la lista de entornos, haz clic en el nombre de tu entorno. Se abrirá la página Detalles del entorno.

gcloud

Ejecuta el siguiente comando gcloud:

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

Reemplaza lo siguiente:

  • ENVIRONMENT_NAME por el nombre del entorno.
  • LOCATION por la región en la que se encuentra el entorno

API

Realiza una solicitud a la API de environments.get.

Ejemplo:

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

Ejecuta el comando terraform state show del recurso de tu entorno.

El nombre del recurso Terraform de tu entorno puede ser diferente del de tu entorno.

terraform state show google_composer_environment.RESOURCE_NAME

Reemplaza lo siguiente:

  • RESOURCE_NAME por el nombre del recurso de tu entorno

Revierte los cambios de la actualización

En situaciones excepcionales, es posible que se interrumpa la operación de actualización (por ejemplo, debido al tiempo de espera) y es posible que los cambios solicitados en todos los componentes del entorno (como el servidor web de Airflow).

Por ejemplo, una operación de actualización podría ser instalar o quitar Módulos de PyPI, redefinir o definir un nuevo Airflow o Cloud Composer variable de entorno o cambiar algunos parámetros relacionados con Airflow.

Esto puede ocurrir si se activa una operación de actualización cuando otros operaciones están en curso, por ejemplo, la del clúster de Cloud Composer ajuste de escala automático o una operación de mantenimiento.

En ese caso, se recomienda repetir la operación.

Duración de las operaciones de actualización

La mayoría de las operaciones de actualización o actualización requieren reiniciar los componentes de Airflow como programadores, trabajadores y servidores web de Airflow.

Una vez que se reinicia un componente, debe inicializarse. Durante el los programadores y trabajadores de Airflow descargan el contenido de /dags y /plugins del bucket del entorno. El proceso de sincronización archivos a los programadores y trabajadores de Airflow no es instantáneo y depende el tamaño y la cantidad totales de todos los objetos en estas carpetas.

Recomendamos mantener solo los archivos de DAG y de complementos en /dags y /plugins de forma respectiva) y quita todos los demás archivos. Demasiados datos en las carpetas /dags y /plugins podría ralentizar la inicialización de Airflow y, en ciertos casos, puede hacer que la inicialización no sea posible.

Te recomendamos que conserves menos de 30 MB de datos en las carpetas /dags y /plugins, y que no superes los 100 MB de tamaño de datos.

Para obtener más información, consulta lo siguiente:

¿Qué sigue?