Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
O serviço do Dataflow executa pipelines definidos pelo
SDK do Apache Beam. No entanto, para muitos casos de uso, não é necessário escrever código com o SDK, porque o Dataflow oferece várias opções sem código e com pouco código.
Modelos. O Dataflow oferece modelos pré-criados para mover dados de um produto para outro. Por exemplo, é possível usar um modelo
para mover dados do
Pub/Sub para o BigQuery.
Criador de jobs. O criador de jobs é uma
UI visual para criar pipelines do Dataflow no
consoleGoogle Cloud . Ele é compatível com um subconjunto de origens e
destinos do Apache Beam, além de transformações como junções, funções do Python e consultas
SQL. Recomendamos o criador de jobs para casos de uso simples, como movimentação de dados.
Transformações prontas para uso para ML. Para pipelines de machine learning (ML),
o Dataflow oferece
transformações prontas para uso que exigem um mínimo de código para configuração. Para começar, execute um notebook de exemplo de ML no Google Colab. Para saber mais, consulte a visão geral do Dataflow ML.
SDK do Apache Beam. Para aproveitar todo o poder do Apache Beam, use o SDK para escrever um pipeline personalizado em Python, Java ou Go.
Para ajudar na sua decisão, a tabela a seguir lista alguns exemplos comuns.
O que você quer fazer?
Abordagem recomendada
Mova dados de uma origem para um coletor, sem lógica personalizada.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["# Get started with Dataflow\n\nThe Dataflow service runs pipelines that are defined by the\nApache Beam SDK. But for many use cases, you don't need to write code\nwith the SDK, because Dataflow provides several no-code and\nlow-code options.\n\n- **Templates** . Dataflow provides\n [prebuilt templates](/dataflow/docs/guides/templates/provided-templates) for\n moving data from one product to another. For example, you can use a template\n to move data from\n [Pub/Sub to BigQuery](/dataflow/docs/guides/templates/provided/pubsub-to-bigquery).\n\n- **Job builder** . The [job builder](/dataflow/docs/guides/job-builder) is a\n visual UI for building Dataflow pipelines in the\n Google Cloud console. It supports a subset of Apache Beam sources and\n sinks, as well as transforms such as joins, Python functions, and SQL\n queries. We recommend the job builder for simple use cases such as data\n movement.\n\n- **Turnkey transforms for ML** . For machine learning (ML) pipelines,\n Dataflow provides\n turnkey transforms that require minimal code to configure. As a\n starting point, run an [example ML\n notebook](https://github.com/apache/beam/blob/master/examples/notebooks/beam-ml/README.md)\n in Google Colab. To learn more, see the [Dataflow ML\n overview](/dataflow/docs/machine-learning).\n\n- **Apache Beam SDK**. To get the full power of Apache Beam, use the\n SDK to write a custom pipeline in Python, Java, or Go.\n\nTo help your decision, the following table lists some common examples.\n\nWhat's next\n-----------\n\n- Get started with a specific Dataflow use case and approach:\n - [Quickstart: Use the job\n builder](/dataflow/docs/quickstarts/create-pipeline-job-builder).\n - [Quickstart: Run a Dataflow\n template](/dataflow/docs/quickstarts/create-streaming-pipeline-template).\n - [Dataflow ML notebook: Use RunInference for Generative AI](/dataflow/docs/notebooks/run_inference_generative_ai).\n - [Create a Dataflow pipeline using the Apache Beam SDK and Python](/dataflow/docs/guides/create-pipeline-python).\n- See more [Dataflow use cases](/dataflow/docs/use-cases).\n- Learn more about [building pipelines](/dataflow/docs/guides/build-pipelines)."]]