Monitoraggio e debug dei flussi di lavoro

Questa pagina fornisce informazioni utili per monitorare e eseguire il debug dei workflow Dataproc.

Flussi di lavoro delle schede

Un WorkflowTemplate inizializzato è chiamato "flusso di lavoro" ed è modellato come "operazione".

Esegui il seguente comando gcloud per elencare i flussi di lavoro del progetto:

gcloud dataproc operations list \
    --region=region \
    --filter="operationType = WORKFLOW"
...
OPERATION_NAME                                                DONE
projects/.../operations/07282b66-2c60-4919-9154-13bd4f03a1f2  True
projects/.../operations/1c0b0fd5-839a-4ad4-9a57-bbb011956690  True

Di seguito è riportata una richiesta di esempio per elencare tutti i flussi di lavoro avviati da un modello "terasort":

gcloud dataproc operations list \
    --region=region \
    --filter="labels.goog-dataproc-workflow-template-id=terasort"
...
OPERATION_NAME                                     DONE
projects/.../07282b66-2c60-4919-9154-13bd4f03a1f2  True
projects/.../1c0b0fd5-839a-4ad4-9a57-bbb011956690  True

Tieni presente che nelle query successive viene utilizzata solo la parte UUID di OPERATION_NAME.

Utilizzo di WorkflowMetadata

Il campo operation.metadata fornisce informazioni utili per diagnosticare i guasti del flusso di lavoro.

Ecco un WorkflowMetadata di esempio, incluso un grafo di nodi (job), incorporato in un'operazione:

{
  "name": "projects/my-project/regions/us-central1/operations/671c1d5d-9d24-4cc7-8c93-846e0f886d6e",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.dataproc.v1.WorkflowMetadata",
    "template": "terasort",
    "version": 1,
    "createCluster": {
      "operationId": "projects/my-project/regions/us-central1/operations/8d472870-4a8b-4609-9f7d-48daccb028fc",
      "Done": true
    },
    "graph": {
      "nodes": [
        {
          "stepId": "teragen",
          "jobId": "teragen-vtrprwcgepyny",
          "state": "COMPLETED"
        },
        {
          "stepId": "terasort",
          "prerequisiteStepIds": [
            "teragen"
          ],
          "jobId": "terasort-vtrprwcgepyny",
          "state": "FAILED",
          "error": "Job failed"
        },
        {
          "stepId": "teravalidate",
          "prerequisiteStepIds": [
            "terasort"
          ],
          "state": "FAILED",
          "error": "Skipped, node terasort failed"
        }
      ]
    },
    "deleteCluster": {
      "operationId": "projects/my-project/regions/us-central1/operations/9654c67b-2642-4142-a145-ca908e7c81c9",
      "Done": true
    },
    "state": "DONE",
    "clusterName": "terasort-cluster-vtrprwcgepyny"
  },
  "done": true,
  "error": {
    "message": "Workflow failed"
  }
}
Done!

Recuperare un modello

Come mostrato nell'esempio precedente, metadata contiene l'ID e la versione del modello.

"template": "terasort",
"version": 1,

Se un modello non viene eliminato, le versioni del modello istanziate possono essere recuperate tramite una richiesta describe-with-version.

gcloud dataproc workflow-templates describe terasort \
    --region=region \
    --version=1

Elenca le operazioni cluster avviate da un modello:

gcloud dataproc operations list \
    --region=region \
    --filter="labels.goog-dataproc-workflow-instance-id = 07282b66-2c60-4919-9154-13bd4f03a1f2"
...
OPERATION_NAME                                     DONE
projects/.../cf9ce692-d6c9-4671-a909-09fd62041024  True
projects/.../1bbaefd9-7fd9-460f-9adf-ee9bc448b8b7  True

Ecco una richiesta di esempio per elencare i job inviati da un modello:

gcloud dataproc jobs list \
    --region=region \
    --filter="labels.goog-dataproc-workflow-template-id = terasort"
...
JOB_ID                TYPE     STATUS
terasort2-ci2ejdq2ta7l6  pyspark  DONE
terasort2-ci2ejdq2ta7l6  pyspark  DONE
terasort1-ci2ejdq2ta7l6  pyspark  DONE
terasort3-3xwsy6ubbs4ak  pyspark  DONE
terasort2-3xwsy6ubbs4ak  pyspark  DONE
terasort1-3xwsy6ubbs4ak  pyspark  DONE
terasort3-ajov4nptsllti  pyspark  DONE
terasort2-ajov4nptsllti  pyspark  DONE
terasort1-ajov4nptsllti  pyspark  DONE
terasort1-b262xachbv6c4  pyspark  DONE
terasort1-cryvid3kreea2  pyspark  DONE
terasort1-ndprn46nesbv4  pyspark  DONE
terasort1-yznruxam4ppxi  pyspark  DONE
terasort1-ttjbhpqmw55t6  pyspark  DONE
terasort1-d7svwzloplbni  pyspark  DONE

Elenca i job inviati da un'istanza di flusso di lavoro:

gcloud dataproc jobs list \
    --region=region \
    --filter="labels.goog-dataproc-workflow-instance-id = 07282b66-2c60-4919-9154-13bd4f03a1f2"
...
JOB_ID                TYPE     STATUS
terasort3-ci2ejdq2ta7l6  pyspark  DONE
terasort2-ci2ejdq2ta7l6  pyspark  DONE
terasort1-ci2ejdq2ta7l6  pyspark  DONE

Tempo di attesa del flusso di lavoro

Puoi impostare un timeout del flusso di lavoro che lo annulli se i job del flusso di lavoro non vengono completati entro il periodo di timeout. Il periodo di timeout si applica al DAG (Directed Acyclic Graph) di job nel flusso di lavoro (la sequenza di job nel flusso di lavoro), non all' intera operazione del flusso di lavoro. Il periodo di timeout inizia quando viene avviato il primo job del flusso di lavoro e non include il tempo necessario per creare un cluster gestito. Se al termine del periodo di timeout è in esecuzione un job, tutti i job in esecuzione vengono bloccati, il flusso di lavoro viene terminato e, se il flusso di lavoro era in esecuzione su un cluster gestito, il cluster viene eliminato.

Vantaggio: utilizza questa funzionalità per evitare di dover terminare manualmente un flusso di lavoro che non viene completato a causa di job bloccati.

Impostazione di un timeout per il modello di workflow

Puoi impostare un periodo di timeout del modello di flusso di lavoro quando crei un modello di flusso di lavoro. Puoi anche aggiungere un timeout del flusso di lavoro a un modello di flusso di lavoro esistente aggiornandolo.

gcloud

Per impostare un timeout del flusso di lavoro in un nuovo modello, utilizza il flag --dag-timeout con il comando gcloud dataproc workflow-templates create. Puoi utilizzare i suffissi "s", "m", "h" e "d" per impostare rispettivamente i valori della durata in secondi, minuti, ore e giorni. La durata del timeout deve essere compresa tra 10 minuti ("10m") e 24 ore ("24h" o "1d").

gcloud dataproc workflow-templates create template-id (such as "my-workflow") \
    --region=region \
    --dag-timeout=duration (from "10m" to "24h" or "1d"") \
    ... other args ...

API

Per impostare un timeout del flusso di lavoro, compila il campo WorkflowTemplate dagTimeout nell'ambito di una richiesta workflowTemplates.create.

Console

Al momento, la console Google Cloud non supporta la creazione di un modello di flusso di lavoro.

Tempo di attesa per l'aggiornamento di un modello di workflow

Puoi aggiornare un modello di flusso di lavoro esistente per modificare, aggiungere o rimuovere un timeout del flusso di lavoro.

gcloud

Aggiunta o modifica di un timeout del flusso di lavoro

Per aggiungere o modificare un timeout del flusso di lavoro in un modello esistente, utilizza il flag --dag-timeout con il comando gcloud dataproc workflow-templates set-dag-timeout. Puoi utilizzare i suffissi "s", "m", "h" e "d" per impostare rispettivamente i valori della durata in secondi, minuti, ore e giorni. La durata del timeout deve essere compresa tra 10 minuti ("10m") e 24 ore ("24h").

gcloud dataproc workflow-templates set-dag-timeout template-id (such as "my-workflow") \
    --region=region \
    --dag-timeout=duration (from "10m" to "24h" or "1d")

Rimozione di un timeout del flusso di lavoro

Per rimuovere un timeout del flusso di lavoro da un modello esistente, utilizza il comando gcloud dataproc workflow-templates remove-dag-timeout.

gcloud dataproc workflow-templates remove-dag-timeout template-id (such as "my-workflow") \
    --region=region

API

Aggiunta o modifica di un timeout del flusso di lavoro

Per aggiungere o modificare un timeout del flusso di lavoro in un modello esistente, aggiorna il modello di flusso di lavoro compilando il campo dagTimeout del modello con il valore del timeout nuovo o modificato.

Rimozione di un timeout del flusso di lavoro

Per rimuovere un timeout del flusso di lavoro da un modello esistente, aggiorna il modello di flusso di lavoro rimuovendo il campo dagTimeout del modello.

Console

Al momento, la console Google Cloud non supporta l'aggiornamento di un modello di flusso di lavoro.