I passaggi paralleli possono ridurre il tempo di esecuzione totale di un flusso di lavoro eseguendo contemporaneamente più chiamate bloccanti.
Le chiamate di blocco come sleep, chiamate HTTP e richiami possono richiedere del tempo, da millisecondi a giorni. I passaggi paralleli sono pensati per agevolare queste operazioni lunghe e contemporaneamente. Se un flusso di lavoro deve eseguire più chiamate bloccanti indipendenti tra loro, l'utilizzo di rami paralleli può ridurre il tempo di esecuzione totale avviando le chiamate contemporaneamente e aspettando il completamento di tutte.
Ad esempio, se il flusso di lavoro deve recuperare i dati dei clienti da diversi sistemi indipendenti prima di continuare, i rami paralleli consentono richieste API simultanee. Se sono presenti cinque sistemi e ciascuno impiega due secondi per rispondere, eseguire i passaggi in sequenza in un flusso di lavoro potrebbe richiedere almeno 10 secondi, mentre eseguirli in parallelo potrebbe richiedere solo due secondi.
Creare un passaggio parallelo
Crea un passaggio parallel
per definire una parte del flusso di lavoro in cui è possibile eseguire contemporaneamente due o più passaggi.
YAML
- PARALLEL_STEP_NAME: parallel: exception_policy: POLICY shared: [VARIABLE_A, VARIABLE_B, ...] concurrency_limit: CONCURRENCY_LIMIT BRANCHES_OR_FOR: ...
JSON
[ { "PARALLEL_STEP_NAME": { "parallel": { "exception_policy": "POLICY", "shared": [ "VARIABLE_A", "VARIABLE_B", ... ], "concurrency_limit": "CONCURRENCY_LIMIT", "BRANCHES_OR_FOR": ... } } } ]
Sostituisci quanto segue:
PARALLEL_STEP_NAME
: il nome del passaggio parallelo.POLICY
(facoltativo): determina l'azione che verrà intrapresa dagli altri rami in caso di eccezione non gestita. Il criterio predefinito,continueAll
, non comporta ulteriori azioni e tutti gli altri branch tenteranno di essere eseguiti. Tieni presente checontinueAll
è l'unico criterio attualmente supportato.VARIABLE_A
,VARIABLE_B
e così via: un elenco di variabili scrivibili con ambito principale che consentono le assegnazioni all'interno del passaggio parallelo. Per ulteriori informazioni, consulta Variabili condivise.CONCURRENCY_LIMIT
(facoltativo): il numero massimo di rami e iterazioni che possono essere eseguiti contemporaneamente all'interno di un'unica esecuzione del flusso di lavoro prima che altri rami e iterazioni vengano messi in coda in attesa. Questo si applica solo a un singolo passaggioparallel
e non si applica in modo ricorsivo. Deve essere un numero intero positivo e può essere un valore letterale o un'espressione. Per maggiori dettagli, consulta Limiti di concorrenza.BRANCHES_OR_FOR
: utilizzabranches
ofor
per indicare uno dei seguenti elementi:- Branch che possono essere eseguiti contemporaneamente.
- Un ciclo in cui le iterazioni possono essere eseguite contemporaneamente.
Tieni presente quanto segue:
- I rami e le iterazioni paralleli possono essere eseguiti in qualsiasi ordine e in un ordine diverso con ogni esecuzione.
- I passaggi paralleli possono includere altri passaggi paralleli nidificati fino al limite di profondità. Consulta la sezione Quote e limiti.
- Per maggiori dettagli, consulta la pagina di riferimento della sintassi per i passaggi paralleli.
Sostituire la funzione sperimentale con un passaggio parallelo
Se utilizzi experimental.executions.map
per supportare il lavoro parallelo, puoi eseguire la migrazione del flusso di lavoro in modo da utilizzare i passaggi paralleli, eseguendo in parallelo i normali loop for
. Per esempi, consulta
Sostituisci la funzione sperimentale con il passaggio parallelo.
Esempi
Questi esempi mostrano la sintassi.
Eseguire operazioni in parallelo (utilizzando i rami)
Se il tuo flusso di lavoro contiene più insiemi di passaggi diversi che possono essere eseguiti contemporaneamente, inserirli in rami paralleli può ridurre il tempo totale necessario per completarli.
Nell'esempio seguente, un ID utente viene passato come argomento al flusso di lavoro e i dati vengono recuperati in parallelo da due servizi diversi. Le variabili condivise consentono di scrivere valori nei rami e di leggerli al termine dei rami:
YAML
JSON
Elaborare gli elementi in parallelo (utilizzando un loop parallelo)
Se devi eseguire la stessa azione per ogni elemento di un elenco, puoi completare l'esecuzione più rapidamente utilizzando un ciclo parallelo. Un ciclo parallelo consente di eseguire più iterazioni del ciclo in parallelo. Tieni presente che, a differenza dei normali loop for, le iterazioni possono essere eseguite in qualsiasi ordine.
Nell'esempio seguente, un insieme di notifiche utente viene elaborato in un loop for
parallelo:
YAML
JSON
Dati aggregati (utilizzando un loop parallelo)
Puoi elaborare un insieme di elementi raccogliendo i dati delle operazioni eseguite su ciascun elemento. Ad esempio, potresti voler monitorare gli ID degli elementi creati o gestire un elenco di elementi con errori.
Nell'esempio seguente, 10 query separate a un set di dati pubblico di BigQuery restituisce ciascuna il numero di parole in un documento o in un insieme di documenti. Una variabile condivisa consente di accumulare il conteggio delle parole ed essere letta al termine di tutte le iterazioni. Dopo aver calcolato il numero di parole in tutti i documenti, il flusso di lavoro restituisce il totale.
YAML
JSON
Passaggi successivi
- Riferimento per la sintassi: Passaggi paralleli
- Tutorial: esegui un flusso di lavoro che esegue altri flussi di lavoro in parallelo
- Tutorial: esegui più job BigQuery in parallelo