Fundamentos de las canalizaciones de los SDKs de Apache Beam
Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Apache Beam es un modelo unificado de código abierto que se utiliza para definir los flujos de procesamiento en paralelo de los datos por lotes y en streaming. Antes de empezar a usar Dataflow, debes saber cómo diseñar, crear y probar las canalizaciones de Apache Beam.
Recursos de Apache Beam
En el sitio web de Apache Beam, puede encontrar documentación sobre lo siguiente:
Cómo diseñar tu canalización:
muestra cómo determinar la estructura de tu canalización, cómo elegir las
transformaciones que se aplicarán a tus datos y cómo determinar tus métodos de entrada y salida.
Cómo crear una canalización:
explica cómo usar las clases de los SDKs de Beam y los pasos necesarios para crear una canalización.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-10 (UTC)."],[[["\u003cp\u003eApache Beam is a unified, open-source model for defining batch and streaming data processing pipelines.\u003c/p\u003e\n"],["\u003cp\u003eDesigning an Apache Beam pipeline involves determining its structure, choosing data transforms, and specifying input/output methods.\u003c/p\u003e\n"],["\u003cp\u003eCreating a pipeline involves using the classes in the Beam SDKs and building the pipeline itself.\u003c/p\u003e\n"],["\u003cp\u003eThe Apache Beam website provides documentation on designing, creating, and testing your data processing pipelines.\u003c/p\u003e\n"]]],[],null,["Apache Beam is an open source, unified model for defining both batch and\nstreaming-data parallel-processing pipelines. Before you get started with\nDataflow, understand how to design, create and test Apache Beam pipelines.\n\nApache Beam resources\n\nOn the Apache Beam website, you can find documentation on:\n\n- [How to design your pipeline](https://beam.apache.org/documentation/pipelines/design-your-pipeline/):\n shows how to determine your pipeline's structure, how to choose which\n transforms to apply to your data, and how to determine your input and output\n methods.\n\n- [How to create your pipeline](https://beam.apache.org/documentation/pipelines/create-your-pipeline/):\n explains the mechanics of using the classes in the Beam SDKs and the\n necessary steps needed to build a pipeline.\n\n- [How to test your pipeline](https://beam.apache.org/documentation/pipelines/test-your-pipeline/):\n presents best practices for testing your pipelines."]]