Visão geral dos modelos de fluxo de trabalho do Dataproc

Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

A API WorkflowTemplates do Dataproc oferece um mecanismo flexível e fácil de usar para gerenciar e executar fluxos de trabalho. Um modelo de fluxo de trabalho é uma configuração de fluxo de trabalho reutilizável. Ele define um gráfico de jobs com informações sobre onde executar esses jobs.

Pontos principais

  • Instanciar um modelo de fluxo de trabalho inicia um fluxo de trabalho. Um fluxo de trabalho é uma operação que executa um gráfico acíclico dirigido (DAG, na sigla em inglês) de jobs em um cluster.
    • Se usar um cluster gerenciado, o fluxo de trabalho criará o cluster, executará os jobs e excluirá o cluster quando os jobs forem concluídos.
    • Se usar um seletor de clusters, o fluxo de trabalho executará jobs em um cluster atual selecionado.
  • Os fluxos de trabalho são ideais para fluxos de job complexos. Você pode criar dependências de job para que um job seja iniciado somente após a conclusão das dependências.
  • Quando você cria um modelo de fluxo de trabalho, o Dataproc não cria um cluster nem envia jobs para um cluster. O Dataproc cria ou seleciona um cluster e executa jobs de fluxo de trabalho no cluster quando um modelo de fluxo de trabalho é instanciado.

Tipos de modelos de fluxo de trabalho

Cluster gerenciado

Um modelo de fluxo de trabalho pode especificar um cluster gerenciado. O fluxo de trabalho criará um cluster "efêmero" para executar jobs de fluxo de trabalho e, em seguida, excluirá o cluster quando ele for concluído.

Seletor de clusters

Um modelo de fluxo de trabalho pode especificar um cluster atual em que os jobs de fluxo de trabalho serão executados especificando um ou mais rótulos de usuário anexados anteriormente ao cluster. O fluxo de trabalho será executado em um cluster que corresponde a todos os rótulos. Se vários clusters corresponderem a todos os rótulos, o Dataproc selecionará o cluster com a memória mais disponível de JARN para executar todos os jobs do fluxo de trabalho. No final do fluxo de trabalho, o Dataproc não exclui o cluster selecionado. Consulte Usar seletores de clusters com fluxos de trabalho para mais informações.

Parametrizado

Para executar um modelo de fluxo de trabalho várias vezes com valores diferentes, use parâmetros para evitar a edição do modelo de fluxo de trabalho para cada execução:

  1. definir parâmetros no modelo e, em seguida,

  2. transmitir valores diferentes para os parâmetros de cada execução.

Consulte Parametrização de modelos de fluxo de trabalho para saber mais informações.

Inline

Os fluxos de trabalho podem ser instanciados in-line usando o comando gcloud com arquivos YAML de modelo de fluxo de trabalho ou chamando a API InstantiateInline do Dataproc. Consulte Como usar fluxos de trabalho in-line. Os fluxos de trabalho inline não criam nem modificam recursos do modelo de fluxo de trabalho.

Casos de uso do modelo de fluxo de trabalho

  • Automação de tarefas repetitivas. Os fluxos de trabalho encapsulam configurações e trabalhos de cluster mais usados.

  • Modelo transacional de disparar e esquecer da API. Os modelos de fluxo de trabalho substituim as etapas envolvidas em um fluxo típico, incluindo:

    1. a criação do cluster
    2. envio de jobs
    3. pesquisa
    4. excluindo o cluster

    Os modelos de fluxo de trabalho usam um único token para rastrear o progresso da criação do cluster à exclusão e automatizar o tratamento e a recuperação de erros. Elas também simplificam a integração do Dataproc com outras ferramentas, como o Cloud Functions e o Cloud Composer.

  • Suporte para clusters efêmeros e de longa duração. Uma complexidade comum associada à execução do Apache Hadoop é ajustar e dimensionar clusters. Os clusters efêmeros (gerenciados) são mais fáceis de configurar porque executam uma única carga de trabalho. Os seletores de clusters podem ser usados com clusters de maior duração para executar repetidamente a mesma carga de trabalho sem incorrer no custo amortizado de criar e excluir clusters.

  • Segurança granular do IAM. Criar clusters do Dataproc e enviar tarefas exigem permissões do IAM de tudo ou nada. Os modelos de fluxo de trabalho usam uma permissão workflowTemplates.instantiate por modelo e não dependem de permissões de cluster ou job.