Ambienti di aggiornamento

Cloud Composer 1 | Cloud Composer 2

Questa pagina spiega come aggiornare un ambiente.

Informazioni sulle operazioni di aggiornamento

Quando modifichi i parametri dell'ambiente, ad esempio specificando nuovi parametri di scalabilità e prestazioni o installando pacchetti PyPI personalizzati, l'ambiente si aggiorna.

Al termine di questa operazione, le modifiche diventano disponibili nel tuo ambiente.

Per un singolo ambiente Cloud Composer, puoi avviare una sola operazione di aggiornamento alla volta. Devi attendere il completamento di un'operazione di aggiornamento prima di avviarne un'altra.

Limiti CPU dell'attivatore

Cloud Composer nella versione 2.4.4 introduce un diverso approccio di scalabilità delle prestazioni per il componente attivatore Airflow che si applica a tutte le versioni di Cloud Composer 2.

Prima della versione 2.4.4, gli ambienti Cloud Composer potevano utilizzare un massimo di 1 o 2 triggerer. Dopo la modifica, puoi impostare fino a 10 triggerer per ambiente, ma ognuno ha un limite massimo di 1 vCPU.

Le operazioni di aggiornamento dell'ambiente non vanno a buon fine se l'ambiente è configurato con più di una vCPU per triggerer. Per eseguire aggiornamenti su altri componenti, devi modificare la configurazione in modo da soddisfare il limite di 1 vCPU.

Per ulteriori informazioni, vedi:

In che modo gli aggiornamenti influiscono sull'esecuzione delle attività Airflow

Quando esegui un'operazione di aggiornamento, ad esempio l'installazione di pacchetti PyPI personalizzati, tutti gli scheduler e i worker Airflow nel tuo ambiente vengono riavviati e tutte le attività attualmente in esecuzione vengono terminate. Una volta completata l'operazione di aggiornamento, Airflow pianifica queste attività per un nuovo nuovo tentativo, a seconda della modalità di configurazione dei nuovi tentativi per i DAG.

Aggiornamento con Terraform

Esegui terraform plan prima del giorno terraform apply per vedere se Terraform crea un nuovo ambiente anziché aggiornarlo.

Prima di iniziare

Ambienti di aggiornamento

Per ulteriori informazioni sull'aggiornamento dell'ambiente, consulta altre pagine della documentazione su operazioni di aggiornamento specifiche. Ad esempio:

Visualizza dettagli ambiente

Console

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome del tuo ambiente. Viene visualizzata la pagina Dettagli ambiente.

gcloud

Esegui questo comando gcloud:

gcloud composer environments describe ENVIRONMENT_NAME \
  --location LOCATION

Sostituisci:

  • ENVIRONMENT_NAME con il nome dell'ambiente.
  • LOCATION con la regione in cui si trova l'ambiente.

API

Crea una richiesta API environments.get.

Esempio:

GET https://composer.googleapis.com/v1/projects/example-project/
locations/us-central1/environments/example-environment

Terraform

Esegui il comando terraform state show per la risorsa del tuo ambiente.

Il nome della risorsa Terraform dell'ambiente potrebbe essere diverso dal nome dell'ambiente.

terraform state show google_composer_environment.RESOURCE_NAME

Sostituisci:

  • RESOURCE_NAME con il nome della risorsa del tuo ambiente.

Rollback delle modifiche all'aggiornamento

In alcune rare situazioni, un'operazione di aggiornamento potrebbe essere interrotta (ad esempio a causa di un timeout) e le modifiche richieste potrebbero non essere eseguite il rollback in tutti i componenti dell'ambiente (come il server web Airflow).

Ad esempio, un'operazione di aggiornamento potrebbe includere l'installazione o la rimozione di moduli PyPI aggiuntivi, la ridefinizione o la definizione di una nuova variabile di ambiente Airflow o Cloud Composer oppure la modifica di alcuni parametri correlati a Airflow.

Questa situazione può verificarsi se viene attivata un'operazione di aggiornamento mentre sono in corso altre operazioni, ad esempio la scalabilità automatica o un'operazione di manutenzione del cluster Cloud Composer.

In questi casi, è consigliabile ripetere l'operazione.

Durata delle operazioni di aggiornamento o upgrade

La maggior parte delle operazioni di aggiornamento o upgrade richiede il riavvio dei componenti Airflow come scheduler, worker e server web Airflow.

Una volta riavviato, un componente deve essere inizializzato. Durante l'inizializzazione, gli scheduler e i worker Airflow scaricano i contenuti delle cartelle /dags e /plugins dal bucket dell'ambiente. Il processo di sincronizzazione dei file con gli scheduler e i worker di Airflow non è istantaneo e dipende dalla dimensione totale e dal numero di tutti gli oggetti in queste cartelle.

Ti consigliamo di conservare solo i file DAG e plug-in nelle cartelle /dags e /plugins (rispettivamente) e di rimuovere tutti gli altri file. Troppi dati nelle cartelle /dags e /plugins potrebbero rallentare l'inizializzazione dei componenti Airflow e, in alcuni casi, rendere impossibile l'inizializzazione.

Consigliamo di conservare meno di 30 MB di dati nelle cartelle /dags e /plugins e di non superare sicuramente le dimensioni di 100 MB.

Per ulteriori informazioni, vedi anche:

Passaggi successivi