Esegui il debug dei problemi DAG relativi a esaurimento o esaurimento dello spazio di archiviazione

Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3

Questo tutorial fornisce i passaggi per eseguire il debug di un DAG Airflow non riuscito in Cloud Composer e diagnosticare i problemi relativi alle risorse dei worker, ad esempio mancanza di memoria o di spazio di archiviazione per i worker, con l'aiuto dei log e dell'ambiente il monitoraggio.

Introduzione

Questo tutorial è incentrato sui problemi relativi alle risorse per illustrare come eseguire il debug di un con il DAG.

La mancanza di risorse worker allocate causa errori del DAG. Se un'attività Airflow esaurisce la memoria o lo spazio di archiviazione, potresti vedere un'eccezione Airflow, quali:

WARNING airflow.exceptions.AirflowException: Task received SIGTERM signal
INFO - Marking task as FAILED.

o

Task exited with return code Negsignal.SIGKILL

In questi casi, il consiglio generale è quello di aumentare il worker di Airflow di risorse o di ridurre il numero di attività per worker. Tuttavia, poiché Airflow le eccezioni possono essere generiche, la risorsa che sta causando il problema.

Questo tutorial spiega come diagnosticare il motivo di un errore del DAG e Identifica il tipo di risorsa che causa problemi eseguendo il debug di due DAG di esempio che non riescono a causa della mancanza di memoria e spazio di archiviazione dei worker.

Obiettivi

  • Esegui DAG di esempio che non riescono a causa dei seguenti motivi:

    • Mancanza di memoria del worker
    • Mancanza di spazio di archiviazione per il worker
  • Diagnostica i motivi dell'errore

  • Aumentare le risorse worker allocate

  • Testa i DAG con nuovi limiti di risorse

Costi

Questo tutorial utilizza i seguenti componenti fatturabili di Google Cloud:

Al termine di questo tutorial, puoi evitare la fatturazione continua eliminando il le risorse che hai creato. Per maggiori dettagli, vedi Pulizia.

Prima di iniziare

Questa sezione descrive le azioni necessarie prima di iniziare il tutorial.

Creare e configurare un progetto

Per questo tutorial è necessario un account Google Cloud progetto. Configura il progetto nel seguente modo:

  1. Nella console Google Cloud, seleziona o crea un progetto:

    Vai al selettore di progetti

  2. Verifica che la fatturazione sia attivata per il tuo progetto. Scopri come verificare se la fatturazione è abilitata per un progetto.

  3. Assicurati che l'utente del progetto Google Cloud disponga dei seguenti ruoli per creare le risorse necessarie:

    • Amministratore oggetti di ambiente e archiviazione (roles/composer.environmentAndStorageObjectAdmin)
    • Amministratore Compute (roles/compute.admin)
    • Editor di Monitoring (roles/monitoring.editor)

Abilita le API per il progetto

Attiva l'API Cloud Composer.

Abilita l'API

crea il tuo ambiente Cloud Composer

Crea un ambiente Cloud Composer 2.

Nell'ambito della creazione dell'ambiente, devi concedere l'estensione agente di servizio API Cloud Composer v2 (roles/composer.ServiceAgentV2Ext) all'agente di servizio Composer . Cloud Composer utilizza questo account per eseguire operazioni nel tuo progetto Google Cloud.

Controlla i limiti delle risorse worker

Controlla i limiti delle risorse worker di Airflow nel tuo ambiente:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Configurazione dell'ambiente.

  4. Vai a Risorse > Configurazione carichi di lavoro. > Worker.

  5. Controlla che i valori siano 0,5 vCPU, 1,875 GB di memoria e 1 GB di spazio di archiviazione. Questi sono i limiti delle risorse worker di Airflow con cui lavorerai nel prossimo passaggi di questo tutorial.

Esempio: diagnosticare i problemi di esaurimento della memoria

Carica il seguente DAG di esempio nell'ambiente creato nei passaggi precedenti. In questo tutorial, questo DAG è denominato create_list_with_many_strings.

Questo DAG contiene un'attività che esegue i seguenti passaggi:

  1. Crea un elenco vuoto s.
  2. Esegue un ciclo per aggiungere la stringa More all'elenco.
  3. Stampa la quantità di memoria utilizzata dall'elenco e attende 1 secondo ogni 1 minuti.
import time

import airflow
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
import sys
from datetime import timedelta

default_args = {
    'start_date': airflow.utils.dates.days_ago(0),
    'retries': 0,
    'retry_delay': timedelta(minutes=10)
}

dag = DAG(
    'create_list_with_many_strings',
    default_args=default_args,
    schedule_interval=None)


def consume():
    s = []
    for i in range(120):
        for j in range(1000000):
            s.append("More")
        print(f"i={i}; size={sys.getsizeof(s) / (1000**3)}GB")
        time.sleep(1)


t1 = PythonOperator(
    task_id='task0',
    python_callable=consume,
    dag=dag,
    depends_on_past=False,
    retries=0
)

Attiva il DAG di esempio

Attiva il DAG di esempio, create_list_with_many_strings:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nella colonna Server web Airflow, segui il link Airflow per il tuo completamente gestito di Google Cloud.

  3. Nell'interfaccia web di Airflow, nella pagina DAG, nella sezione Link colonna per il DAG, fai clic sul pulsante Ora trigger.

  4. Fai clic su Attiva.

  5. Nella pagina DAG, fai clic sull'attività attivata ed esamina l'output per assicurarti che il DAG sia stato avviato.

Mentre l'attività è in esecuzione, i log di output stamperanno la dimensione della memoria in GB usato dal DAG.

Dopo diversi minuti, l'attività avrà esito negativo perché supera il worker di Airflow di 1,875 GB.

Diagnosi del DAG non riuscito

Se al momento dell'errore era in esecuzione più attività, valuta la possibilità di eseguire una sola attività e diagnosticare la pressione delle risorse durante quel periodo per identificare quali attività causano pressione sulle risorse e quali devono aumentare.

Rivedi i log delle attività Airflow

Osserva che l'attività del DAG create_list_with_many_strings ha un Stato Failed.

Esamina i log dell'attività. Verrà visualizzata la seguente voce di log:

```none
{local_task_job.py:102} INFO - Task exited with return code
Negsignal.SIGKILL
```

`Netsignal.SIGKILL` might be an indication of your task using more memory
than the Airflow worker is allocated. The system sends
the `Negsignal.SIGKILL` signal to avoid further memory consumption.

Rivedi i carichi di lavoro

Rivedi i carichi di lavoro per verificare che il carico dell'attività non causi il nodo in cui il pod viene eseguito per superare il limite di consumo di memoria:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Configurazione dell'ambiente.

  4. In Risorse > Cluster GKE > Carichi di lavoro, fai clic su Visualizza carichi di lavoro del cluster.

  5. Controlla se alcuni pod dei carichi di lavoro hanno stati simili ai seguenti:

    Error with exit code 137 and 1 more issue.
    ContainerStatusUnknown with exit code 137 and 1 more issue
    

    Exit code 137 indica che un container o un pod sta cercando di utilizzare più memoria di quanto consentito. Il processo viene interrotto per impedire l'utilizzo della memoria.

Rivedi il monitoraggio dell'integrità dell'ambiente e del consumo di risorse

Rivedi il monitoraggio dell'integrità dell'ambiente e del consumo di risorse:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Monitoring e seleziona Panoramica.

  4. Nel riquadro Panoramica dell'ambiente, individua la Grafico Environment Health (Airflow Monitoring DAG). Contiene un'immagine corrispondente al momento in cui i log hanno iniziato a stampare gli errori.

  5. Seleziona Worker e trova il grafico Utilizzo totale memoria worker. Osserva che la riga Utilizzo memoria ha un picco nel momento in cui era in esecuzione.

. La riga di utilizzo della memoria ha un picco nel momento in cui
    l'attività era in esecuzione
Figura 1. Grafico totale dell'utilizzo della memoria dei worker (fai clic per ingrandire)

Anche se la linea di utilizzo della memoria sul grafico non raggiunge il limite, quando analizzi le cause dell'errore, devi tenere conto solo memoria allocabile, mentre la linea Limite di memoria sul grafico rappresenta la memoria totale disponibile (compresa la capacità prenotata da GKE).

In questo esempio, il limite di memoria dei worker è impostato su 1,875 GB. GKE riserva il 25% dei primi 4 GiB di memoria. GKE prenota anche un'ulteriore soglia di espulsione: 100 MiB di memoria su ciascun nodo per l'eliminazione di kubelet.

La memoria allocabile viene calcolata nel seguente modo:

ALLOCATABLE = CAPACITY - RESERVED - EVICTION-THRESHOLD

Se il limite di memoria è 1,875 GB, la memoria allocabile effettiva è:

1.75 GiB (1.875GB) - 0.44 (25% GiB reserved) - 0.1 = 1.21 GiB (~1.3 GB).

Quando aggiungi questo limite effettivo al grafico della memoria utilizzata, vedrà che il picco di utilizzo della memoria dell'attività raggiunge la memoria effettiva puoi concludere che l'attività non è riuscita a causa di un worker insufficiente la memoria.

Aumenta il limite di memoria dei worker

Alloca memoria worker aggiuntiva affinché il DAG di esempio vada a buon fine:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Configurazione dell'ambiente.

  4. Trova la configurazione Risorse > Carichi di lavoro e fai clic su Modifica.

  5. Nella sezione Worker, specifica la nuova memoria nel campo Memoria per i worker di Airflow. In questo tutorial vengono utilizzati 3 GB.

  6. Salva le modifiche e attendi diversi minuti per i worker di Airflow riavvia.

Testa il DAG con il nuovo limite di memoria

Attiva di nuovo il DAG create_list_with_many_strings e attendi che venga termina l'esecuzione.

  1. Nei log di output dell'esecuzione del DAG, vedrai Marking task as SUCCESS, e lo stato dell'attività indicherà Operazione riuscita.

  2. Esamina la sezione Panoramica dell'ambiente nella scheda Monitoring e assicurati che non ci siano aree rosse.

  3. Fai clic sulla sezione Worker e trova Utilizzo totale della memoria dei worker grafico. Vedrai che la riga Limite di memoria riflette la modifica della il limite di memoria e la riga Utilizzo memoria è molto inferiore al valore limite di memoria allocabile.

Esempio: diagnosticare i problemi di esaurimento dello spazio di archiviazione

In questo passaggio, caricherai due DAG che creano file di grandi dimensioni. Il primo DAG crea un file di grandi dimensioni. Il secondo DAG crea un file di grandi dimensioni e imita un un'operazione a lunga esecuzione.

Le dimensioni del file in entrambi i DAG superano lo spazio di archiviazione worker predefinito di Airflow di 1 GB, ma il secondo DAG ha un'attività di attesa aggiuntiva per estendere della durata in modo artificiale.

Analizzerai le differenze nel comportamento di entrambi i DAG nel prossimo passaggi.

Carica un DAG che crea un file di grandi dimensioni

Carica il seguente DAG di esempio nell'ambiente creato nei passaggi precedenti. In questo tutorial, questo DAG è denominato create_large_txt_file_print_logs.

Questo DAG contiene un'attività che esegue i seguenti passaggi:

  1. Scrive un file localfile.txt da 1,5 GB nello spazio di archiviazione del worker di Airflow.
  2. Stampa la dimensione del file creato utilizzando il modulo os Python.
  3. Stampa la durata dell'esecuzione del DAG ogni minuto.
import airflow
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
import os
from datetime import timedelta
import time

default_args = {
    'start_date': airflow.utils.dates.days_ago(0),
    'retries': 0,
    'retry_delay': timedelta(minutes=10)
}

dag = DAG(
    'create_large_txt_file_print_logs',
    default_args=default_args,
    schedule_interval=None)


def consume():
    size = 1000**2  # bytes in 1 MB
    amount = 100

    def create_file():
        print(f"Start creating a huge file")
        with open("localfile.txt", "ab") as f:
            for j in range(15):
                f.write(os.urandom(amount) * size)
        print("localfile.txt size:", os.stat("localfile.txt").st_size / (1000**3), "GB")

    create_file()
    print("Success!")


t1 = PythonOperator(
    task_id='create_huge_file',
    python_callable=consume,
    dag=dag,
    depends_on_past=False,
    retries=0)

Carica un DAG che crea un file di grandi dimensioni in un'operazione a lunga esecuzione

imitare un DAG a lunga esecuzione e analizzare l'impatto della durata dell'attività nello stato finale, carica il secondo DAG di esempio completamente gestito di Google Cloud. In questo tutorial, questo DAG è denominato long_running_create_large_txt_file_print_logs.

Questo DAG contiene un'attività che esegue i seguenti passaggi:

  1. Scrive un file localfile.txt da 1,5 GB nello spazio di archiviazione del worker di Airflow.
  2. Stampa la dimensione del file creato utilizzando il modulo os Python.
  3. Attende 1 ora e 15 minuti per imitare il tempo necessario alle operazioni con del file, ad esempio leggendolo.
  4. Stampa la durata dell'esecuzione del DAG ogni minuto.
import airflow
from airflow import DAG
from airflow.operators.python_operator import PythonOperator
import os
from datetime import timedelta
import time

default_args = {
    'start_date': airflow.utils.dates.days_ago(0),
    'retries': 0,
    'retry_delay': timedelta(minutes=10)
}

dag = DAG(
    'long_running_create_large_txt_file_print_logs',
    default_args=default_args,
    schedule_interval=None)


def consume():
    size = 1000**2  # bytes in 1 MB
    amount = 100

    def create_file():
        print(f"Start creating a huge file")
        with open("localfile.txt", "ab") as f:
            for j in range(15):
                f.write(os.urandom(amount) * size)
        print("localfile.txt size:", os.stat("localfile.txt").st_size / (1000**3), "GB")

    create_file()
    for k in range(75):
        time.sleep(60)
        print(f"{k+1} minute")

    print("Success!")


t1 = PythonOperator(
    task_id='create_huge_file',
    python_callable=consume,
    dag=dag,
    depends_on_past=False,
    retries=0)

Attiva DAG di esempio

Attiva il primo DAG, create_large_txt_file_print_logs:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nella colonna Server web Airflow, segui il link Airflow per il tuo completamente gestito di Google Cloud.

  3. Nell'interfaccia web di Airflow, nella pagina DAG, nella sezione Link colonna per il DAG, fai clic sul pulsante Ora trigger.

  4. Fai clic su Attiva.

  5. Nella pagina DAG, fai clic sull'attività attivata ed esamina l'output per assicurarti che il DAG sia stato avviato.

  6. Attendi finché l'attività che hai creato con create_large_txt_file_print_logs DAG completati. L'operazione potrebbe richiedere diversi minuti.

  7. Nella pagina DAG, fai clic sull'esecuzione del DAG. Vedrai la tua attività ha uno stato Success, anche se il limite di spazio di archiviazione è stato superato.

Esamina i log delle attività Airflow:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

    1. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

    2. Vai alla scheda Log, quindi vai a Tutti i log > Log Airflow > Worker > Visualizza in Esplora log.

    3. Filtra i log per tipo: mostra solo i messaggi di errore.

Nei log verranno visualizzati messaggi simili ai seguenti:

Worker: warm shutdown (Main Process)

o

A worker pod was evicted at 2023-12-01T12:30:05Z with message: Pod ephemeral
local storage usage exceeds the total limit of containers 1023Mi.

Questi log indicano che il pod ha avviato l'"arresto a caldo" perché lo spazio di archiviazione utilizzato ha superato il limite ed è stato rimosso entro un'ora. Tuttavia, il DAG esegue non ha avuto esito negativo perché è stato completato entro il periodo di tolleranza per la terminazione di Kubernetes come spiegato in dettaglio in questo tutorial.

Per illustrare il concetto di periodo di tolleranza per la risoluzione, esamina il risultato del secondo DAG di esempio, long_running_create_large_txt_file_print_logs.

Attiva il secondo DAG, long_running_create_large_txt_file_print_logs:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nella colonna Server web Airflow, segui il link Airflow per il tuo completamente gestito di Google Cloud.

  3. Nell'interfaccia web di Airflow, nella pagina DAG, nella sezione Link colonna per il DAG, fai clic sul pulsante Ora trigger.

  4. Fai clic su Attiva.

  5. Nella pagina DAG, fai clic sull'attività attivata ed esamina l'output per assicurarti che il DAG sia stato avviato.

  6. Attendi l'esecuzione del DAG long_running_create_large_txt_file_print_logs non riesce. L'operazione richiederà circa un'ora.

Esamina i risultati dell'esecuzione dei DAG:

  1. Nella pagina DAG, fai clic sul long_running_create_large_txt_file_print_logs esecuzione di DAG. Vedrai che l'attività abbia lo stato Failed e che la durata dell'esecuzione sia stata esattamente 1 ora e 5 minuti, ossia meno del periodo di attesa dell'attività di 1 ora e 15 minuti.

  2. Esamina i log dell'attività. Dopo che il DAG ha creato il file localfile.txt dal container del worker Airflow, il log stampa che il DAG ha avviato in attesa e la durata dell'esecuzione viene stampata nei log delle attività ogni minuto. In questo esempio, il DAG stampa il log localfile.txt size: e le dimensioni del file localfile.txt sarà di 1,5 GB.

Quando il file scritto nel container del worker Airflow supera lo spazio di archiviazione limite, l'esecuzione del DAG dovrebbe non riuscire. Tuttavia, l'attività non fallisce immediatamente e rimane in esecuzione finché la sua durata non raggiunge un'ora e cinque minuti. Questo accade perché Kubernetes non termina immediatamente l'attività e mantiene in esecuzione per consentire un'ora di tempo per il ripristino, noto come "grazia di punto". Quando un nodo esaurisce le risorse, Kubernetes non termina il pod immediatamente per gestire agevolmente l'arresto, in modo da ridurre al minimo impatto sull'utente finale.

Il periodo di tolleranza per la chiusura consente agli utenti di recuperare i file in caso di errori delle attività, Tuttavia, può creare confusione durante la diagnosi dei DAG. Quando il worker di Airflow di spazio di archiviazione superato, lo stato finale dell'attività dipende dalla durata Esecuzione del DAG:

  • Se l'esecuzione del DAG supera il limite di spazio di archiviazione del worker, ma viene completata in meno di 1 ora, l'attività viene completata con lo stato Success perché è stata completata entro il periodo di tolleranza per la risoluzione. Tuttavia, Kubernetes termina il pod e il file scritto viene immediatamente eliminato dal container.

  • Se il DAG supera il limite di spazio di archiviazione del worker e viene eseguito per più di 1 ora, Il DAG rimane in esecuzione per un'ora e può superare il limite di spazio di archiviazione migliaia di percento prima che Kubernetes elimini i contrassegni Pod e Airflow l'attività come Failed.

Diagnosi del DAG non riuscito

Se al momento dell'errore era in esecuzione più attività, valuta la possibilità di eseguire una sola attività e diagnosticare la pressione delle risorse durante quel periodo per identificare quali attività causano pressione sulle risorse e quali devono aumentare.

Rivedi i log delle attività del secondo DAG, long_running_create_large_txt_file_print_logs:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Log, quindi vai a Tutti i log > Log Airflow > Worker > Visualizza in Esplora log.

  4. Filtra i log per tipo: mostra solo i messaggi di errore.

Nei log verranno visualizzati messaggi simili ai seguenti:

Container storage usage of worker reached 155.7% of the limit.

This likely means that the total size of local files generated by your DAGs is
close to the storage limit of worker.

You may need to decrease the storage usage or increase the worker storage limit
in your Cloud Composer environment configuration.

o

Pod storage usage of worker reached 140.2% of the limit.
A worker pod was evicted at 2023-12-01T12:30:05Z with message: Pod ephemeral
local storage usage exceeds the total limit of containers 1023Mi.

This eviction likely means that the total size of dags and plugins folders plus
local files generated by your DAGs exceeds the storage limit of worker.

Please decrease the storage usage or increase the worker storage limit in your
Cloud Composer environment configuration.

Questi messaggi indicano che, man mano che l'attività procedeva, i log di Airflow sono stati avviati errori di stampa quando la dimensione dei file generati dal DAG superava limite di spazio di archiviazione dei worker e il periodo di tolleranza per la chiusura è iniziato. Durante periodo di tolleranza in caso di chiusura, il consumo dello spazio di archiviazione non è tornato al limite che ha portato all'eliminazione dei pod al termine del periodo di tolleranza per la chiusura.

Rivedi il monitoraggio dell'integrità dell'ambiente e del consumo di risorse:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Monitoring e seleziona Panoramica.

  4. Nel riquadro Panoramica dell'ambiente, individua la Grafico Environment Health (Airflow Monitoring DAG). Contiene un'immagine corrispondente al momento in cui i log hanno iniziato a stampare gli errori.

  5. Seleziona Worker e trova il grafico Utilizzo totale del disco dei worker. Osservazione che la riga Utilizzo del disco abbia un picco e superi il limite del disco nel momento in cui l'attività era in esecuzione.

. La riga di utilizzo del disco ha un picco e supera il limite del disco
    nel momento in cui l'attività era in esecuzione
Figura 2. Grafico di utilizzo totale del disco worker (fai clic per ingrandire)

Aumenta il limite di spazio di archiviazione del worker

Alloca ulteriore spazio di archiviazione worker Airflow in modo che il DAG di esempio operazione riuscita:

  1. Nella console Google Cloud, vai alla pagina Ambienti.

    Vai ad Ambienti

  2. Nell'elenco degli ambienti, fai clic sul nome dell'ambiente. Si apre la pagina Dettagli ambiente.

  3. Vai alla scheda Configurazione dell'ambiente.

  4. Trova la configurazione Risorse > Carichi di lavoro e fai clic su Modifica.

  5. Nella sezione Worker, specifica il nuovo spazio di archiviazione nel campo Storage per i worker di Airflow. In questo tutorial, imposta il valore su 2 GB.

  6. Salva le modifiche e attendi diversi minuti per i worker di Airflow riavvia.

Testa il tuo DAG con il nuovo limite di spazio di archiviazione

Attiva di nuovo il DAG long_running_create_large_txt_file_print_logs e attendere 1 ora e 15 minuti fino al termine dell'esecuzione.

  1. Nei log di output dell'esecuzione del DAG, vedrai Marking task as SUCCESS, e lo stato dell'attività indicherà Success (Operazione riuscita), con una durata di 1 ora e 15 minuti, che equivale al tempo di attesa impostato nel codice DAG.

  2. Esamina la sezione Panoramica dell'ambiente nella scheda Monitoring e assicurati che non ci siano aree rosse.

  3. Fai clic sulla sezione Worker e trova Utilizzo totale del disco worker grafico. Vedrai che la riga Limite del disco riflette la modifica nella limite di spazio di archiviazione e la riga Utilizzo del disco rientra nell'intervallo consentito.

Riepilogo

In questo tutorial, hai diagnosticato il motivo di un errore del DAG e identificato il tipo di risorsa che provoca pressione eseguendo il debug di due DAG di esempio che non hanno esito positivo a causa della mancanza di memoria e spazio di archiviazione per i worker. Quindi hai eseguito correttamente i DAG dopo aver assegnato più memoria e spazio di archiviazione ai tuoi worker. Tuttavia, consigliato per ottimizzare i DAG (flussi di lavoro) ridurre il consumo di risorse dei worker, dato che aumentare le risorse oltre una certa soglia.

Esegui la pulizia

Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse usati in questo tutorial, elimina il progetto che contiene le risorse o mantenere il progetto ed eliminare le singole risorse.

Elimina il progetto

  1. Nella console Google Cloud, vai alla pagina Gestisci risorse.

    Vai a Gestisci risorse

  2. Nell'elenco dei progetti, seleziona il progetto che vuoi eliminare, quindi fai clic su Elimina.
  3. Nella finestra di dialogo, digita l'ID del progetto e fai clic su Chiudi per eliminare il progetto.

Elimina singole risorse

Se prevedi di esplorare più tutorial e guide rapide, puoi riutilizzare i progetti può aiutarti a evitare di superare i limiti di quota.

Eliminare l'ambiente Cloud Composer. Inoltre elimina il bucket dell'ambiente durante questa procedura.

Passaggi successivi