Il 15 settembre 2026, tutti gli ambienti Cloud Composer 1 e Cloud Composer 2 versione 2.0.x raggiungeranno la fine del ciclo di vita pianificata e non potrai più utilizzarli. Ti consigliamo di pianificare la migrazione a Cloud Composer 3.
Quando modifichi i parametri dell'ambiente, ad esempio specificando nuovi parametri di scalabilità e rendimento o installando pacchetti PyPI personalizzati, l'ambiente viene aggiornato.
Al termine di questa operazione, le modifiche diventano disponibili nel tuo ambiente.
Per un singolo ambiente Cloud Composer, puoi avviare una sola
operazione di aggiornamento alla volta. Devi attendere il completamento di un'operazione di aggiornamento
prima di avviare un'altra operazione sull'ambiente.
Come gli aggiornamenti influiscono sull'esecuzione delle attività Airflow
Quando esegui un'operazione di aggiornamento, gli scheduler e i worker di Airflow nel tuo ambiente potrebbero richiedere un riavvio. In questo caso, tutte le attività attualmente in esecuzione vengono terminate. Al termine dell'operazione di aggiornamento, Airflow pianifica il nuovo tentativo di esecuzione di queste attività, a seconda della modalità di configurazione dei nuovi tentativi per i DAG.
Le seguenti modifiche causano l'interruzione dell'attività Airflow:
Eseguire l'upgrade dell'ambiente a una nuova versione.
Aggiunta, modifica o eliminazione di pacchetti PyPI personalizzati.
Modifica delle variabili di ambiente Cloud Composer.
Aggiunta o rimozione degli override delle opzioni di configurazione di Airflow o modifica dei relativi valori.
Modifica di CPU, memoria o spazio di archiviazione dei worker Airflow.
Riduzione del numero massimo di worker Airflow, se il nuovo valore è
inferiore al numero di worker attualmente in esecuzione. Ad esempio, se un
ambiente attualmente esegue tre worker e il massimo viene ridotto a due.
Le seguenti modifiche non causano la terminazione dell'attività Airflow:
Creazione, aggiornamento o eliminazione di un DAG (non un'operazione di aggiornamento).
Messa in pausa o riattivazione dei DAG (non un'operazione di aggiornamento).
Modifica delle variabili Airflow (non un'operazione di aggiornamento).
Modifica delle connessioni Airflow (non un'operazione di aggiornamento).
Abilitazione o disabilitazione dell'integrazione della derivazione dei dati del Catalogo universale Dataplex.
Modifica delle dimensioni dell'ambiente.
Modifica del numero di scheduler.
Modifica di CPU, memoria o spazio di archiviazione degli scheduler Airflow.
Modifica del numero di triggerer.
Modifica di CPU, memoria o spazio di archiviazione dei trigger di Airflow.
Modifica di CPU, memoria o spazio di archiviazione del server web Airflow.
Aumentare o diminuire il numero minimo di worker.
Riduzione del numero massimo di worker Airflow. Ad esempio, se un
ambiente attualmente esegue due worker e il massimo viene ridotto a tre.
Modifica dei periodi di manutenzione.
Modifica delle impostazioni degli snapshot pianificati.
Modifica delle etichette dell'ambiente.
Aggiornamento con Terraform
Esegui terraform plan prima di terraform apply per verificare se Terraform crea un nuovo
ambiente anziché aggiornarlo.
Prima di iniziare
Verifica che il tuo account, il account di servizio del tuo ambiente e
il service agent Cloud Composer nel tuo progetto dispongano delle
autorizzazioni richieste:
Il comando gcloud composer environments update termina al termine dell'operazione. Puoi utilizzare il flag --async per evitare di attendere il completamento dell'operazione.
Aggiornamento degli ambienti
Per saperne di più sull'aggiornamento dell'ambiente, consulta le altre pagine della documentazione
relative a operazioni di aggiornamento specifiche. Ad esempio:
RESOURCE_NAME con il nome della risorsa del tuo ambiente.
Rollback delle modifiche all'aggiornamento
In alcune rare situazioni, un'operazione di aggiornamento potrebbe essere interrotta
(ad esempio, a causa di un timeout) e le modifiche richieste potrebbero non essere
ripristinate in tutti i componenti dell'ambiente (ad esempio, il web server Airflow).
Ad esempio, un'operazione di aggiornamento potrebbe installare o rimuovere moduli PyPI aggiuntivi, ridefinire o definire una nuova variabile di ambiente Airflow o Cloud Composer oppure modificare alcuni parametri correlati ad Airflow.
Una situazione del genere potrebbe verificarsi se viene attivata un'operazione di aggiornamento mentre sono in corso altre operazioni, ad esempio lo scaling automatico del cluster Cloud Composer o un'operazione di manutenzione.
In una situazione del genere, ti consigliamo di ripetere l'operazione.
Durata delle operazioni di aggiornamento o upgrade
La durata delle operazioni di aggiornamento e upgrade è influenzata dai seguenti fattori:
La maggior parte delle operazioni di aggiornamento o upgrade richiede il riavvio dei componenti di Airflow
come scheduler, worker e server web di Airflow. Dopo il riavvio di un componente, è necessario inizializzarlo. Durante l'inizializzazione, gli scheduler e i worker di Airflow scaricano i contenuti delle cartelle /dags e /plugins dal bucket dell'ambiente. Il processo di sincronizzazione dei file con
gli scheduler e i worker di Airflow non è istantaneo e dipende dalle dimensioni e dal numero totali di tutti gli oggetti in queste cartelle.
Ti consigliamo di conservare solo i file DAG e dei plug-in nelle cartelle /dags e /plugins (rispettivamente) e di rimuovere tutti gli altri file. Troppi dati
nelle cartelle /dags e /plugins potrebbero rallentare l'inizializzazione dei
componenti Airflow e, in alcuni casi, renderla impossibile.
Ti consigliamo di conservare meno di 30 MB di dati nelle cartelle /dags e /plugins e di non superare assolutamente i 100 MB di dimensioni dei dati. Per ulteriori informazioni, vedi anche
Gestione di un numero elevato di DAG e plug-in
Le dimensioni del database Airflow potrebbero aumentare notevolmente il tempo delle
operazioni di upgrade. Ti consigliamo di mantenere le dimensioni del database Airflow
configurando una norma di conservazione del database.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-08-29 UTC."],[[["\u003cp\u003eThis page describes how to update Cloud Composer environments, noting that it currently reflects Cloud Composer 2 documentation.\u003c/p\u003e\n"],["\u003cp\u003eUpdating an environment can involve changes to parameters like scaling, performance, or custom PyPI packages, with only one update operation allowed at a time.\u003c/p\u003e\n"],["\u003cp\u003eCertain updates, such as upgrading the environment or modifying custom packages and configurations, will terminate all running Airflow tasks, while others like changes to DAGs or connections will not.\u003c/p\u003e\n"],["\u003cp\u003eUpdating with Terraform may result in the deletion and recreation of the environment if the parameter being changed is not supported for updates, and caution is advised.\u003c/p\u003e\n"],["\u003cp\u003eUpdate operations can be affected by the size of data in \u003ccode\u003e/dags\u003c/code\u003e and \u003ccode\u003e/plugins\u003c/code\u003e folders, and keeping it below 30MB, and never above 100 MB, is highly recommended to prevent slowdowns or initialization failures.\u003c/p\u003e\n"]]],[],null,["# Update Cloud Composer environments\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\n**Cloud Composer 3** \\| [Cloud Composer 2](/composer/docs/composer-2/update-environments \"View this page for Cloud Composer 2\") \\| [Cloud Composer 1](/composer/docs/composer-1/update-environments \"View this page for Cloud Composer 1\")\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\nThis page explains how an environment can be updated.\n\nAbout update operations\n-----------------------\n\nWhen you change parameters of your environment, such as specifying new scaling\nand performance parameters, or installing custom PyPI packages, your\nenvironment updates.\n\nAfter this operation is completed, changes become available in your\nenvironment.\n\nFor a single Cloud Composer environment, you can start only one\nupdate operation at a time. You must wait for an update operation to complete\nbefore starting another environment operation.\n\nHow updates affect running Airflow tasks\n----------------------------------------\n\n| **Caution:** Some update operations **terminate all running tasks**.\n\nWhen you [run an update operation](#update-operations), Airflow schedulers and\nworkers in your environment might require a restart. In this case, all\ncurrently running tasks are terminated. After the update operation is\ncompleted, Airflow schedules these tasks for a retry, depending on the way you\nconfigure retries for your DAGs.\n| **Note:** Airflow workers can get restarted as part of the environment maintenance, during the maintenance windows.\n\nThe following changes **cause** Airflow task termination:\n\n- Upgrading your environment to a new version.\n- Adding, changing, or deleting custom PyPI packages.\n- Changing Cloud Composer environment variables.\n- Adding or removing Airflow configuration options overrides, or changing their values.\n- Changing Airflow workers' CPU, memory, or storage.\n- Reducing the maximum number of Airflow workers, if the new value is\n lower than the number of currently running workers. For example, if an\n environment currently runs three workers, and the maximum is reduced to two.\n\nThe following changes **don't cause** Airflow task termination:\n\n- Creating, updating, or deleting a DAG (not an update operation).\n- Pausing or unpausing DAGs (not an update operation).\n- Changing Airflow variables (not an update operation).\n- Changing Airflow connections (not an update operation).\n- Enabling or disabling Dataplex Universal Catalog Data Lineage integration.\n- Changing environment's size.\n- Changing the number of schedulers.\n- Changing Airflow schedulers' CPU, memory, or storage.\n- Changing the number of triggerers.\n- Changing Airflow triggerers' CPU, memory, or storage.\n- Changing Airflow web server's CPU, memory, or storage.\n- Increasing or decreasing the minimum number of workers.\n- Reducing the maximum number of Airflow workers. For example, if an environment currently runs two workers, and the maximum is reduced to three.\n- Changing maintenance windows.\n- Changing scheduled snapshots settings.\n- Changing environment labels.\n\nUpdating with Terraform\n-----------------------\n\n| **Warning:** If you attempt to change a configuration parameter that cannot be updated, Terraform **deletes your environment and creates a new one** with the new parameter value.\n\nRun `terraform plan` before `terraform apply` to see if Terraform creates a new\nenvironment instead of updating it.\n\nBefore you begin\n----------------\n\n- Check that your account, the service account of your environment, and\n the Cloud Composer Service Agent account in your project have\n required permissions:\n\n - Your account must have a role that\n [can trigger environment update operations](/composer/docs/composer-3/access-control#user-account).\n\n - The service account of your environment must have a role that\n [has enough permissions to perform update operations](/composer/docs/composer-3/access-control#service-account).\n\n- The `gcloud composer environments update` command terminates when the\n operation is finished. You can use the `--async` flag to avoid waiting for\n the operation to complete.\n\nUpdate environments\n-------------------\n\nFor more information about updating your environment, see other documentation\npages about specific update operations. For example:\n\n- [Override Airflow configuration options](/composer/docs/composer-3/override-airflow-configurations)\n- [Set environment variables](/composer/docs/composer-3/set-environment-variables)\n- [Install Python dependencies](/composer/docs/composer-3/install-python-dependencies)\n- [Scale environments](/composer/docs/composer-3/scale-environments)\n\nView environment details\n------------------------\n\n### Console\n\n1. In Google Cloud console, go to the **Environments** page.\n\n [Go to Environments](https://console.cloud.google.com/composer/environments)\n2. In the list of environments, click the name of your environment.\n The **Environment details** page opens.\n\n### gcloud\n\nRun the following `gcloud` command: \n\n gcloud composer environments describe \u003cvar translate=\"no\"\u003eENVIRONMENT_NAME\u003c/var\u003e \\\n --location \u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e\n\nReplace:\n\n- `ENVIRONMENT_NAME` with the name of the environment.\n- `LOCATION` with the region where the environment is located.\n\n### API\n\nConstruct an [`environments.get`](/composer/docs/reference/rest/v1/projects.locations.environments/get) API request.\n\nExample: \n\n GET https://composer.googleapis.com/v1/projects/example-project/\n locations/us-central1/environments/example-environment\n\n### Terraform\n\nRun the `terraform state show` command for your environment's resource.\n\nThe name of your environment's Terraform resource might be different than the\nname of your environment. \n\n terraform state show google_composer_environment.\u003cvar translate=\"no\"\u003eRESOURCE_NAME\u003c/var\u003e\n\nReplace:\n\n- `RESOURCE_NAME` with the name of your environment's resource.\n\n### Rolling back update changes\n\nIn some rare situations, an update operation might be interrupted\n(for example, because of a timeout) and the requested changes might not be\nrolled back in all environment components (such as the Airflow web server).\n\nFor example, an update operation might be installing or removing additional\nPyPI modules, re-defining or defining a new Airflow or Cloud Composer\nenvironment variable, or changing some Airflow-related parameters.\n\nSuch a situation might occur if an update operation is triggered when other\noperations are in progress, for example Cloud Composer cluster's\nautoscaling or a maintenance operation.\n\nIn such a situation, it's recommended to repeat the operation.\n\n### Duration of update or upgrade operations\n\nThe duration of update and upgrade operations is affected by the following\nfactors:\n\n- Most update or upgrade operations require restarting Airflow components\n like Airflow schedulers, workers and web servers. After a component is\n restarted, it must be initialized. During the initialization, Airflow\n schedulers and workers download the contents of `/dags` and `/plugins`\n folders from the environment's bucket. The process of syncing files to\n Airflow schedulers and workers isn't instantaneous and depends on the total\n size and number of all objects in these folders.\n\n We recommend to keep only DAG and plugin files in `/dags` and `/plugins`\n folders (respectively) and remove all other files. Too much data\n in `/dags` and `/plugins` folders might slow down the initialization of\n Airflow components and in certain cases might make the initialization not\n possible.\n\n We recommend to keep less than 30 MB of data in `/dags` and `/plugins`\n folders, and to definitely not exceed 100 MB size of data. For more\n information, also see\n [Handling large number of DAGs and plugins](/composer/docs/composer-2/troubleshooting-dags#large-number-of-dags)\n- The size of the Airflow database might significantly increase the time of\n upgrade operations. We recommend to maintain the Airflow database size by\n\n configuring a [database retention policy](/composer/docs/composer-3/configure-db-retention).\n\nWhat's next\n-----------\n\n- [Upgrade environments](/composer/docs/composer-3/upgrade-environments)\n- [Override Airflow configuration options](/composer/docs/composer-3/override-airflow-configurations)"]]