Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta seção, descrevemos as opções do Google Cloud que podem ser usadas para programar fluxos de trabalho.
Modelos de fluxo de trabalho do Dataproc
Os modelos de fluxo de trabalho do Dataproc fornecem um mecanismo flexível e fácil de usar para o gerenciamento e execução de fluxos de trabalho. Um modelo de fluxo de trabalho é uma configuração de fluxo de trabalho reutilizável. Ele define um gráfico de jobs com informações sobre onde executar esses jobs.
Cloud Scheduler
O Cloud Scheduler é um programador de cron jobs totalmente gerenciado e de nível empresarial.
Ele permite que você programe praticamente qualquer job, incluindo os jobs em lote, os jobs do Big Data e as operações de infraestrutura do Cloud. Ele fornece programação simples baseada em tempo, por exemplo, diariamente ou por hora, sem que você precise escrever um código.
Vantagens:
Ativa a instanciação baseada no tempo de modelos de fluxo de trabalho com base em expressões cron conhecidas
O Cloud Run Functions é uma solução de computação leve que pode ser usada para criar funções autônomas e de finalidade única que respondam a eventos do Cloud sem a necessidade de gerenciar um servidor ou um ambiente de execução. Use as funções do Cloud Run para iniciar Workflows em resposta a eventos do Pub/Sub ou a alterações de arquivos no Cloud Storage. É possível usar as funções do Cloud Run
com o Cloud Scheduler para fluxos de trabalho que exigem o cálculo de
parâmetros baseados em tempo.
Vantagens:
Ativa a instanciação do fluxo de trabalho em resposta a eventos de dados, como novos arquivos no Cloud Storage ou eventos do Pub/Sub.
Codificação mínima necessária usando bibliotecas de cliente Go, Node.js ou Python do Dataproc
Gerar dinamicamente fluxos de trabalho e parâmetros de fluxo de trabalho
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[[["\u003cp\u003eDataproc Workflow Templates offer a reusable configuration for defining and executing a graph of jobs within workflows.\u003c/p\u003e\n"],["\u003cp\u003eCloud Scheduler is a managed cron job scheduler enabling time-based scheduling of workflows without the need to write any code.\u003c/p\u003e\n"],["\u003cp\u003eCloud Run functions allow for workflow instantiation in response to events like new files in Cloud Storage or Pub/Sub events, requiring minimal coding.\u003c/p\u003e\n"],["\u003cp\u003eCloud Composer is a managed Apache Airflow service that supports both time- and event-based scheduling, offering dynamic workflow generation and integration across various Google Cloud products.\u003c/p\u003e\n"]]],[],null,["This section describes Google Cloud options you can use to schedule\nworkflows.\n\nDataproc Workflow Templates\n\nDataproc [Workflow templates](/dataproc/docs/concepts/workflows/overview)\nprovide a flexible and easy-to-use mechanism for managing and executing workflows. A Workflow Template is a reusable workflow configuration. It defines a graph of jobs with information on where to run those jobs.\n\nCloud Scheduler\n\nCloud Scheduler is a fully managed enterprise-grade cron job scheduler.\nIt allows you to schedule virtually any job, including batch, big data jobs,\nand Cloud infrastructure operations. It provides simple time-based\nscheduling, for example, daily or hourly, without requiring you to write code.\n\n**Advantages:**\n\n- Enables time-based instantiation of workflow templates based on familiar\n cron expressions\n\n- No code to write\n\nTutorial: [Workflow using Cloud Scheduler](/dataproc/docs/tutorials/workflow-scheduler)\n\nCloud Functions\n\nCloud Run functions is a lightweight compute solution you can use to create\nsingle-purpose, stand-alone functions that respond to Cloud events without\nthe need to manage a server or runtime environment. You can use\nCloud Run functions to launch Workflows in response to Pub/Sub\nevents or file changes in Cloud Storage. You can use Cloud Run functions\nwith Cloud Scheduler for workflows that require the calculation of\ntime-based parameters.\n\n**Advantages:**\n\n- Enables workflow instantiation in response to data events, such as new files in\n Cloud Storage or Pub/Sub events.\n\n- Minimal coding required using Dataproc\n [Go](https://github.com/googleapis/google-cloud-go),\n [Node.js](https://github.com/googleapis/google-cloud-node), or\n [Python](https://github.com/googleapis/google-cloud-python)\n client libraries\n\n- Dynamically generate workflows and workflow parameters\n\nTutorial: [Workflow using Cloud Run functions](/dataproc/docs/tutorials/workflow-function)\n\nCloud Composer\n\nCloud Composer is a managed Apache Airflow service you can use\nto create, schedule, monitor, and manage workflows.\n\n**Advantages:**\n\n- Supports time- and event-based scheduling\n\n- Simplified calls to Dataproc using Operators\n\n- Dynamically generate workflows and workflow parameters\n\n- Build data flows that span multiple Google Cloud products\n\nTutorial: [Workflow using Cloud Composer](/dataproc/docs/tutorials/workflow-composer)"]]