Dati archiviati in Cloud Storage

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Questa pagina descrive quali dati Cloud Composer archivia per il tuo ambiente in Cloud Storage.

Quando crei un ambiente, Cloud Composer crea Cloud Storage e lo associa. con il tuo ambiente. Il nome del bucket si basa sull'ambiente regione, nome e un ID casuale come us-central1-b1-6efabcde-bucket.

Cloud Composer sincronizza cartelle specifiche del bucket del tuo ambiente ai componenti Airflow in esecuzione nel tuo ambiente. Ad esempio, quando aggiorni un file con il codice del tuo DAG Airflow nel del bucket dell'ambiente, anche i componenti Airflow ricevono la versione aggiornata. Cloud Composer utilizza Cloud Storage FUSE per la sincronizzazione.

Cartelle nel bucket Cloud Storage

Cartella Percorso di archiviazione Directory mappata Descrizione
DAG gs://bucket-name/dags /home/airflow/gcs/dags Archivia i DAG per il tuo ambiente.
Plug-in gs://bucket-name/plugins /home/airflow/gcs/plugins Archivia i tuoi plug-in personalizzati, ad esempio operatori, hook, sensori o interfacce Airflow interni personalizzati.
Dati gs://bucket-name/data /home/airflow/gcs/data Archivia i dati prodotti e utilizzati dalle attività.
Log gs://bucket-name/logs /home/airflow/gcs/logs Archivia i log di Airflow per le attività. I log sono disponibili anche nell'interfaccia web di Airflow e nella scheda Log della console Google Cloud.

Cloud Composer sincronizza le cartelle dags/ e plugins/ in modo unidirezionale. La sincronizzazione unidirezionale significa che le modifiche locali le cartelle di un componente Airflow vengono sovrascritte. data/ e logs/ le cartelle si sincronizzano in modo bidirezionale.

La sincronizzazione dei dati è coerente alla fine. Inviare messaggi da un operatore all'altro, utilizza XComs.

Considerazioni sulla capacità

I dati delle cartelle dags/, plugins/ e data/ sono sincronizzati con Airflow scheduler e worker.

I contenuti della cartella plugins/ sono sincronizzati con il server web Airflow.

Maggiore è il numero di dati inseriti in queste cartelle, maggiore sarà lo spazio occupato. nell'archiviazione locale dei componenti Airflow. Salvataggio di troppi dati in dags/ e plugins/ possono interrompere le tue operazioni e generare problemi come:

  • Un worker o uno scheduler esaurisce lo spazio di archiviazione locale e viene rimosso perché di spazio insufficiente sul disco locale del componente.

  • Sincronizzazione dei file dalle cartelle dags/ e plugins/ ai worker e gli scheduler richiedono molto tempo.

  • Sincronizzazione dei file delle cartelle dags/ e plugins/ con i worker e gli scheduler diventano impossibili. Ad esempio, archivi un file da 2 GB nel dags/, ma il disco locale di un worker Airflow può solo per 1 GB. Durante la sincronizzazione, il worker esaurisce le risorse locali di archiviazione e sincronizzazione.

Cartelle di DAG e plug-in

Per evitare errori di esecuzione dei DAG, archivia i DAG, i plug-in e i moduli Python dags/ o plugins/ cartelle, anche se i moduli Python non contengono DAG o plug-in.

Ad esempio, utilizzi un DataFlowPythonOperator che fa riferimento a un py_file Dataflow. py_file non contiene DAG o ma devi comunque archiviarlo nella cartella dags/ o plugins/.

Cartella dati

In alcuni casi, determinati file della cartella data/ vengono sincronizzati con un componente Airflow specifico. Ad esempio, quando Cloud Composer tenta di leggere per la prima volta un determinato file durante:

  • Analisi DAG: quando un file viene letto per la prima volta durante l'analisi DAG, Cloud Composer lo sincronizza con lo scheduler che analizza il DAG.

  • Esecuzione DAG: quando un file viene letto per la prima volta durante l'esecuzione del DAG, Cloud Composer lo sincronizza con il worker che esegue l'esecuzione.

Lo spazio di archiviazione locale dei componenti Airflow è limitato, quindi valuta la possibilità di eliminarli per liberare spazio su disco nei componenti. Nota che gli utenti l'utilizzo dello spazio di archiviazione può anche aumentare temporaneamente se ci sono attività simultanee che scaricare lo stesso file in un singolo worker Airflow.

Cartella dei log

La cartella logs/ è sincronizzata dai worker di Airflow all'ambiente utilizzando l'API Cloud Storage.

La quota dell'API Cloud Storage viene calcolata in base alla quantità di dati trasferiti, il numero di attività Airflow eseguite dal tuo sistema può aumentare l'utilizzo dell'API Cloud Storage: più attività esegui, più grande è il log .

Sincronizzazione con il server web

La cartella plugins/ viene automaticamente sincronizzata con il server web per i plug-in possono essere caricati dalla UI di Airflow.

Passaggi successivi