Esegui un DAG Apache Airflow in Cloud Composer 2
Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
Questa guida rapida mostra come creare un ambiente Cloud Composer ed eseguire un DAG Apache Airflow in Cloud Composer 2.
Se non hai mai utilizzato Airflow, consulta le Tutorial sui concetti di Airflow in Apache Airflow documentazione di Airflow per ulteriori informazioni su concetti, oggetti e il loro utilizzo.
Se invece vuoi utilizzare Google Cloud CLI, consulta Esegui un DAG Apache Airflow in Cloud Composer (Google Cloud CLI).
Se vuoi creare un ambiente utilizzando Terraform, consulta Creare ambienti (Terraform).
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Composer API.
-
Per ottenere le autorizzazioni necessarie per completare questa guida introduttiva, chiedi all'amministratore di concederti i seguenti ruoli IAM nel progetto:
-
Per visualizzare, creare e gestire l'ambiente Cloud Composer:
-
Amministratore oggetti di ambiente e archiviazione (
roles/composer.environmentAndStorageObjectAdmin
) -
Utente account di servizio (
roles/iam.serviceAccountUser
)
-
Amministratore oggetti di ambiente e archiviazione (
-
Per visualizzare i log:
Visualizzatore log (
roles/logging.viewer
)
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.
Potresti anche riuscire a ottenere le autorizzazioni richieste tramite la ruoli o altri ruoli predefiniti ruoli.
-
Per visualizzare, creare e gestire l'ambiente Cloud Composer:
Creazione di un ambiente
Nella console Google Cloud, vai alla pagina Crea ambiente.
Se questo è il primo ambiente del progetto, una Concedi le autorizzazioni necessarie all'account di servizio di Cloud Composer .
Aggiungi l'account agente di servizio Cloud Composer come nuovo entità all'account di servizio del tuo ambiente e assegnagli il ruolo Cloud Composer v2 API Service Agent Extension.
Verifica di utilizzare l'account di servizio previsto per il tuo ambiente e fai clic su Concedi.
Nel campo Nome, inserisci
example-environment
.Nell'elenco a discesa Località, seleziona una regione per nell'ambiente Cloud Composer. Questa guida utilizza la regione
us-central1
.Per altre opzioni di configurazione dell'ambiente, utilizza i valori predefiniti forniti.
Fai clic su Crea e attendi che l'ambiente venga creato.
Al termine, accanto al nome dell'ambiente viene visualizzato un segno di spunta verde.
Crea un file DAG
Un DAG Airflow è una raccolta di attività organizzate che vuoi pianificare ed eseguire. I DAG sono definiti in file Python standard.
Questa guida utilizza un DAG Airflow di esempio definito nel file quickstart.py
.
Il codice Python in questo file esegue le seguenti operazioni:
- Crea un DAG,
composer_sample_dag
. Questo DAG viene eseguito ogni giorno. - Esegue un'attività,
print_dag_run_conf
. L'attività stampa la configurazione della esecuzione del DAG utilizzando l'operatore bash.
Salva una copia del file quickstart.py
sulla tua macchina locale:
Carica il file DAG nel bucket del tuo ambiente
Ogni ambiente Cloud Composer dispone di un
associato a questo bucket. Airflow solo in pianificazioni di Cloud Composer
I DAG che si trovano nella cartella /dags
di questo bucket.
Per pianificare il DAG, carica quickstart.py
dalla macchina locale al tuo
cartella /dags
dell'ambiente:
Nella console Google Cloud, vai alla pagina Ambienti.
Nell'elenco degli ambienti, fai clic sul nome dell'ambiente,
example-environment
. Viene visualizzata la pagina Dettagli dell'ambiente.Fai clic su Apri cartella dei DAG. Si apre la pagina Dettagli bucket.
Fai clic su Carica file e seleziona la tua copia di
quickstart.py
.Per caricare il file, fai clic su Apri.
Visualizza il DAG
Dopo aver caricato il file DAG, Airflow esegue le seguenti operazioni:
- Analizza il file DAG che hai caricato. Potrebbero essere necessari alcuni minuti prima che il DAG sia disponibile per Airflow.
- Aggiunge il DAG all'elenco dei DAG disponibili.
- Esegue il DAG in base alla pianificazione fornita nel file DAG.
Controlla che il DAG venga elaborato senza errori e che sia disponibile in Airflow visualizzandolo nell'interfaccia utente del DAG. La UI di DAG è l'interfaccia di Cloud Composer per la visualizzazione Informazioni sui DAG nella console Google Cloud. Cloud Composer fornisce inoltre accesso all'interfaccia utente di Airflow, un'interfaccia web nativa di Airflow.
Attendi circa cinque minuti per dare ad Airflow il tempo di elaborare il file DAG caricato in precedenza e di completare la prima esecuzione del DAG (spiegato di seguito).
Nella console Google Cloud, vai alla pagina Ambienti.
Nell'elenco degli ambienti, fai clic sul nome dell'ambiente,
example-environment
. Viene visualizzata la pagina Dettagli dell'ambiente.Vai alla scheda DAG.
Verifica che il DAG
composer_quickstart
sia presente nell'elenco dei DAG.
Visualizza dettagli esecuzione DAG
Una singola esecuzione di un DAG è chiamata esecuzione di DAG. Airflow esegue immediatamente un'esecuzione del DAG di esempio perché la data di inizio nel file DAG è impostata su ieri. In questo modo, Airflow raggiunge i DAG specificati programmazione.
Il DAG di esempio contiene un'attività, print_dag_run_conf
, che esegue echo
nella console. Questo comando restituisce metadati sul DAG
(Identificatore numerico dell'esecuzione di DAG).
Nella scheda DAG, fai clic su
composer_quickstart
. La scheda Esecuzioni per Si apre il DAG.Nell'elenco delle esecuzioni di DAG, fai clic sulla prima voce.
Vengono visualizzati i dettagli dell'esecuzione del DAG, che contengono i dettagli delle informazioni delle attività del DAG di esempio.
La sezione Log per l'esecuzione di DAG elenca i log per tutte le attività nell'esecuzione del DAG. Puoi visualizzare l'output del comando
echo
nei log.
Esegui la pulizia
Per evitare che al tuo account Google Cloud vengano addebitati costi per le risorse utilizzate in questa pagina, segui questi passaggi.
Elimina le risorse utilizzate in questo tutorial:
Elimina l'ambiente Cloud Composer:
Nella console Google Cloud, vai alla pagina Ambienti.
Seleziona
example-environment
e fai clic su Elimina.Attendi che l'ambiente venga eliminato.
Elimina il bucket dell'ambiente. Eliminazione di Cloud Composer di rete non elimina il proprio bucket.
Nella console Google Cloud, vai alla pagina Storage > Browser.
Seleziona il bucket dell'ambiente e fai clic su Elimina. Ad esempio, questo bucket può essere denominato
us-central1-example-environ-c1616fe8-bucket
.
Elimina il disco persistente della coda Redis del tuo ambiente. L'eliminazione del L'ambiente Cloud Composer non elimina il disco permanente.
Nella console Google Cloud, vai a Compute Engine > Dischi.
Seleziona il disco permanente della coda Redis dell'ambiente e fai clic su Elimina.
Ad esempio, questo disco può essere denominato
pvc-02bc4842-2312-4347-8519-d87bdcd31115
. I dischi per Cloud Composer 2 hanno sempre il tipoBalanced persistent disk
e le dimensioni di 2 GB.
Passaggi successivi