Visão geral dos modelos de fluxo de trabalho do Dataproc

A API WorkflowTemplates do Dataproc oferece um mecanismo flexível e fácil de usar para gerenciar e executar fluxos de trabalho. Um modelo de fluxo de trabalho é uma configuração de fluxo de trabalho reutilizável. Ele define um gráfico de jobs com informações sobre onde executar esses jobs.

Pontos principais

  • Instanciar um modelo de fluxo de trabalho inicia um fluxo de trabalho. Um fluxo de trabalho é uma operação que executa um gráfico acíclico dirigido (DAG, na sigla em inglês) de jobs em um cluster.
    • Se usar um cluster gerenciado, o fluxo de trabalho criará o cluster, executará os jobs e excluirá o cluster quando os jobs forem concluídos.
    • Se usar um seletor de clusters, o fluxo de trabalho executará jobs em um cluster atual selecionado.
  • Os fluxos de trabalho são ideais para fluxos de job complexos. Você pode criar dependências de job para que um job seja iniciado somente após a conclusão das dependências.
  • Quando você cria um modelo de fluxo de trabalho, o Dataproc não cria um cluster nem envia jobs para um cluster. O Dataproc cria ou seleciona um cluster e executa jobs de fluxo de trabalho nele quando um modelo de fluxo de trabalho é instanciado.

Tipos de modelos de fluxo de trabalho

Cluster gerenciado

Um modelo de fluxo de trabalho pode especificar um cluster gerenciado. O fluxo de trabalho criará um cluster "temporário" para executar jobs e excluirá o cluster quando o fluxo for concluído.

Seletor do cluster

Um modelo de fluxo de trabalho pode especificar um cluster atual em que jobs de fluxo de trabalho serão executados especificando um ou mais rótulos de usuário anexados anteriormente ao cluster. O fluxo de trabalho será executado em um cluster que corresponda a todos os rótulos. Se vários clusters corresponderem a todos os rótulos, o Dataproc selecionará o cluster com a maior memória disponível doYARN para executar todos os jobs de fluxo de trabalho. No final do fluxo de trabalho, o Dataproc não exclui o cluster selecionado. Consulte Usar seletores de cluster com fluxos de trabalho para mais informações.

Parametrizado

Se você executar um modelo de fluxo de trabalho várias vezes com valores diferentes, use parâmetros para evitar a edição do modelo de fluxo de trabalho para cada execução:

  1. definir parâmetros no modelo e, em seguida,

  2. passar valores diferentes para os parâmetros em cada execução.

Consulte Parametrização de modelos de fluxo de trabalho para saber mais informações.

Inline

Os fluxos de trabalho podem ser instanciados in-line usando o comando gcloud com arquivos YAML de modelo de fluxo de trabalho ou chamando a API InstantiateInline do Dataproc. Consulte Como usar fluxos de trabalho in-line. Os fluxos de trabalho inline não criam nem modificam recursos do modelo de fluxo de trabalho.

Casos de uso dos modelos de fluxo de trabalho

  • Automação de tarefas repetitivas. Os fluxos de trabalho encapsulam configurações e trabalhos de cluster mais usados.

  • Modelo de interação de API Fire-and-forget transacional. Os modelos de fluxo de trabalho substituem as etapas envolvidas em um fluxo típico, que incluem:

    1. criando o cluster
    2. envio de jobs
    3. sondagem
    4. excluir o cluster

    Os modelos de fluxo de trabalho usam um único token para acompanhar o progresso desde a criação do cluster até a exclusão, além de automatizar o processamento e a recuperação de erros. Elas também simplificam a integração do Dataproc com outras ferramentas, como o Cloud Functions e o Cloud Composer.

  • Suporte para clusters efêmeros e de longa duração. Uma complexidade comum associada à execução do Apache Hadoop é ajustar e dimensionar clusters. Os clusters efêmeros (gerenciados) são mais fáceis de configurar porque executam uma única carga de trabalho. Os seletores de cluster podem ser usados com clusters de maior duração para executar repetidamente a mesma carga de trabalho sem incorrer no custo amortizado de criação e exclusão de clusters.

  • Segurança granular do IAM. Criar clusters do Dataproc e enviar tarefas exigem permissões do IAM de tudo ou nada. Os modelos de fluxo de trabalho usam uma permissão workflowTemplates.instantiate por modelo e não dependem de permissões de cluster ou job.