Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Questa pagina fornisce una breve introduzione ad Airflow e ai DAG e descrive le funzionalità e le capacità di Cloud Composer.
Per saperne di più sulle nuove funzionalità delle release di Cloud Composer, consulta le Note di rilascio.
Informazioni su Cloud Composer
Cloud Composer è un servizio di orchestrazione del flusso di lavoro completamente gestito che consente di creare, pianificare, monitorare e gestire le pipeline di flusso di lavoro distribuite su più cloud e nei data center on-premise.
Cloud Composer si basa sul popolare progetto open source Apache Airflow e opera utilizzando il linguaggio di programmazione Python.
Utilizzando Cloud Composer anziché un'istanza locale di Apache Airflow, puoi usufruire del meglio di Airflow senza costi di gestione o installazione. Cloud Composer ti aiuta a creare Airflow gestito rapidamente e utilizzano strumenti nativi di Airflow, come i potenti Interfaccia web e strumenti a riga di comando di Airflow, per concentrarti sulle dei flussi di lavoro e non della tua infrastruttura.
Differenze tra le versioni di Cloud Composer
Per ulteriori informazioni sulle differenze tra le versioni principali di Cloud Composer, consulta la panoramica del controllo delle versioni di Cloud Composer.
Airflow e DAG di Airflow (flussi di lavoro)
Nell'analisi dei dati, un flusso di lavoro rappresenta una serie di attività per l'importazione, trasformare, analizzare o utilizzare i dati. In Airflow, i flussi di lavoro vengono creati utilizzando i DAG o "grafi diretti aciclici".
Un DAG è una raccolta di attività che vuoi pianificare ed eseguire, organizzate in modo da riflettere le loro relazioni e dipendenze. I DAG vengono creati nei file Python, che definiscono la struttura dei DAG tramite codice. I DAG lo scopo è garantire che ogni attività venga eseguita al momento giusto e nell'ordine corretto.
Ogni attività in un DAG può rappresentare quasi tutto. Ad esempio, un'attività potrebbe eseguire una delle seguenti funzioni:
- Preparazione dei dati per l'importazione
- Monitoraggio di un'API
- Invio di un'email in corso...
- Esecuzione di una pipeline
Oltre a eseguire un DAG in base a una pianificazione, puoi attivare i DAG manualmente o in risposta a eventi come le modifiche a un Cloud Storage di sincronizzare la directory di una VM con un bucket. Per ulteriori informazioni, consulta Pianificare e attivare i DAG.
Per ulteriori informazioni sui DAG le attività, consulta le Documentazione di Apache Airflow.
Ambienti Cloud Composer
Gli ambienti Cloud Composer sono Airflow autonomi i deployment basati su Google Kubernetes Engine. e funzionano con altri servizi Google Cloud utilizzando connettori integrati in Airflow. Puoi creare uno o più ambienti in un singolo ambiente Google Cloud in tutte le regioni supportate.
Cloud Composer esegue il provisioning dei servizi Google Cloud che eseguono i tuoi flussi di lavoro e tutti i componenti di Airflow. I componenti principali di un ambiente sono:
Cluster GKE: i componenti di Airflow, come gli scheduler, gli attivatori e i worker di Airflow, vengono eseguiti come carichi di lavoro GKE in un singolo cluster creato per il tuo ambiente e sono responsabili dell'elaborazione ed esecuzione dei DAG.
Il cluster ospita anche altri componenti di Cloud Composer, come Composer Agent e Airflow Monitoring, che aiutano a gestire l'ambiente Cloud Composer, a raccogliere i log da archiviare in Cloud Logging e a raccogliere le metriche da caricare in Cloud Monitoring.
Server web Airflow: il server web esegue la UI di Apache Airflow.
Database Airflow: il database contiene i metadati Apache Airflow.
Bucket Cloud Storage: Cloud Composer associa un bucket Cloud Storage al tuo ambiente. Questo bucket, chiamato anche bucket dell'ambiente, memorizza i DAG, i log, i plug-in personalizzati e i dati per l'ambiente. Per ulteriori informazioni sull'ambiente visualizza il bucket Dati archiviati in Cloud Storage.
Per uno sguardo approfondito sui componenti di un ambiente, vedi Architettura dell'ambiente.
Interfacce di Cloud Composer
Cloud Composer fornisce interfacce per la gestione degli ambienti, delle istanze Airflow in esecuzione all'interno degli ambienti e dei singoli DAG.
Ad esempio, puoi creare e configurare Ambienti Cloud Composer nella console Google Cloud Google Cloud CLI, API Cloud Composer o Terraform.
Per fare un altro esempio, puoi gestire i DAG Console Google Cloud, UI nativa di Airflow o l'esecuzione Google Cloud CLI e comandi dell'interfaccia a riga di comando Airflow.
Funzionalità di Airflow in Cloud Composer
Quando utilizzi Cloud Composer, puoi gestire e utilizzare le funzionalità di Airflow quali:
DAG Airflow: puoi aggiungere, aggiornare, rimuovere o attivare i DAG Airflow nella console Google Cloud o utilizzando l'interfaccia utente nativa di Airflow.
Opzioni di configurazione di Airflow: puoi modificare le opzioni di configurazione di Airflow dai valori predefiniti utilizzati da Cloud Composer a valori personalizzati. Nella di Cloud Composer, alcune delle opzioni di configurazione Bloccato e non puoi modificarne i valori.
Plug-in personalizzati: puoi installare plug-in Airflow personalizzati, come operatori, hook, sensori o interfacce Apache Airflow personalizzati e interni, nel tuo ambiente Cloud Composer.
Dipendenze Python: puoi installare le dipendenze Python dall'Python Package Index nel tuo ambiente o da un repository di pacchetti privato, inclusi i repository Artifact Registry. Se le dipendenze non sono nell'indice del pacchetto, puoi anche utilizzare i plug-in.
Logging e monitoraggio per i DAG, i componenti Airflow e Ambienti Cloud Composer:
Puoi visualizzare i log di Airflow associati a singole attività DAG nell'interfaccia web di Airflow e la cartella
logs
nel bucket dell'ambiente.Log e metriche di ambiente di Cloud Monitoring per gli ambienti Cloud Composer.
Controllo dell'accesso in Cloud Composer
Gestisci la sicurezza a livello di progetto Google Cloud e puoi assegnare ruoli IAM che consentono ai singoli Utenti di modificare o creare ambienti. Se un utente non ha accesso al tuo progetto o non dispone di un ruolo IAM Cloud Composer appropriato, non può accedere a nessuno dei tuoi ambienti.
Oltre a IAM, puoi utilizzare il controllo dell'accesso all'interfaccia utente di Airflow, basato sul modello di controllo dell'accesso di Apache Airflow.
Per saperne di più sulle funzionalità di sicurezza di Cloud Composer, consulta la panoramica della sicurezza di Cloud Composer.
Networking dell'ambiente
Cloud Composer supporta diverse configurazioni di rete per gli ambienti, con molte opzioni di configurazione. Ad esempio, in un ambiente IP privato, i DAG e i componenti di Airflow sono completamente isolati dall'internet pubblico.
Per ulteriori informazioni sul networking in Cloud Composer, consulta le pagine relative alle singole funzionalità di networking:
- Ambienti IP pubblico e IP privato
- Ambienti VPC condivisi
- Configurazione dei Controlli di servizio VPC
- Reti autorizzate
- Agente di mascheramento IP
- Intervalli IP pubblici utilizzati privatamente
Domande frequenti
Quale versione di Apache Airflow utilizza Cloud Composer?
Gli ambienti Cloud Composer si basano su Immagini di Cloud Composer. Quando crei un'immagine , puoi selezionare un'immagine con una versione Airflow specifica:
- Cloud Composer 3 supporta Airflow 2.
- Cloud Composer 2 supporta Airflow 2.
- Cloud Composer 1 supporta Airflow 1 e Airflow 2.
Hai il controllo della versione Apache Airflow del tuo ambiente. Puoi decidere di eseguire l'upgrade dell'ambiente a una versione successiva Cloud Composer. Ciascuna La release di Cloud Composer supporta diverse applicazioni Versioni Airflow.
Posso utilizzare l'interfaccia utente e l'interfaccia a riga di comando native di Airflow?
Puoi accedere all'interfaccia web di Apache Airflow del tuo ambiente. Ogni ambiente ha la propria UI di Airflow. Per ulteriori informazioni sull'accesso vedi la UI di Airflow, vedi Interfaccia web di Airflow.
Per eseguire i comandi dell'interfaccia a riga di comando di Airflow nei tuoi ambienti, utilizza i comandi gcloud
.
Per ulteriori informazioni sull'esecuzione dei comandi dell'interfaccia a riga di comando di Airflow in
per gli ambienti Cloud Composer, consulta
Interfaccia a riga di comando di Airflow.
Posso utilizzare il mio database come database Airflow?
Cloud Composer utilizza un servizio di database gestito per il database Airflow. Non è possibile utilizzare un database fornito dall'utente come database Airflow.
Posso utilizzare il mio cluster come cluster Cloud Composer?
Cloud Composer utilizza il servizio Google Kubernetes Engine per creare, gestire ed eliminare i cluster di ambiente in cui vengono eseguiti i componenti di Airflow. Questi cluster vengono completamente gestite da Cloud Composer.
Non è possibile creare un ambiente Cloud Composer basato su un cluster Google Kubernetes Engine autogestito.
Posso utilizzare il mio registry dei container?
Cloud Composer utilizza il servizio Artifact Registry per gestire repository di immagini utilizzati dagli ambienti Cloud Composer. Non è possibile sostituirlo con un registry dei contenitori fornito dall'utente.
Gli ambienti Cloud Composer sono zonali o regionali?
Gli ambienti Cloud Composer 3 e Cloud Composer 2 hanno un database Airflow zonale e un livello di pianificazione ed esecuzione di Airflow regionale. Airflow scheduler, worker e server web vengono eseguiti nel livello di esecuzione di Airflow.
Gli ambienti Cloud Composer 1 sono zonali.