La tarea Dataflow - Create Job (Dataflow - Crear tarea) te permite crear una tarea en Cloud Dataflow para ejecutar un flujo de datos creado con uno de los SDKs de Apache Beam.
Cloud Dataflow es un servicio de Google Cloud totalmente gestionado que permite ejecutar flujos de procesamiento de datos por lotes y de streaming.
Antes de empezar
Antes de configurar la tarea Dataflow - Create Job (Dataflow - Crear tarea), asegúrate de realizar las siguientes acciones en tu proyecto de Google Cloud:
Habilita la API de Dataflow (dataflow.googleapis.com).
Crea un perfil de autenticación. Integración de aplicaciones usa un perfil de autenticación para conectarse a un endpoint de autenticación de la tarea Dataflow - Create Job (Dataflow - Crear trabajo).
En el menú de navegación, haz clic en Integraciones.
Aparecerá la página Integraciones, en la que se muestran todas las integraciones disponibles en el proyecto de Google Cloud.
Seleccione una integración o haga clic en Crear integración para crear una.
Si vas a crear una integración:
Escribe un nombre y una descripción en el panel Crear integración.
Selecciona una región para la integración.
Selecciona una cuenta de servicio para la integración. Puede cambiar o actualizar los detalles de la cuenta de servicio de una integración en cualquier momento desde el panel infoResumen de la integración de la barra de herramientas de integración.
Haz clic en Crear. La integración que acabas de crear se abre en el editor de integraciones.
En la barra de navegación del editor de integraciones, haz clic en Tareas para ver la lista de tareas y conectores disponibles.
Haga clic en el elemento Dataflow - Create Job (Dataflow - Crear tarea) y colóquelo en el editor de integraciones.
Haga clic en el elemento Dataflow - Create Job (Dataflow - Crear tarea) del diseñador para ver el panel de configuración de la tarea Dataflow - Create Job (Dataflow - Crear tarea).
Ve a Autenticación y selecciona un perfil de autenticación que quieras usar.
Opcional. Si no has creado un perfil de autenticación antes de configurar la tarea, haz clic en + Nuevo perfil de autenticación y sigue los pasos que se indican en Crear un perfil de autenticación.
Ve a Entrada de tarea y configura los campos de entrada que se muestran con la siguiente tabla Parámetros de entrada de tarea.
Los cambios en los campos de entrada se guardan automáticamente.
Parámetros de entrada de la tarea
En la siguiente tabla se describen los parámetros de entrada de la tarea Dataflow - Create Job (Dataflow - Crear tarea):
La tarea Dataflow - Create Job devuelve la instancia recién creada de Job.
Estrategia de gestión de errores
Una estrategia de gestión de errores de una tarea especifica la acción que se debe llevar a cabo si la tarea falla debido a un error temporal. Para obtener información sobre cómo usar una estrategia de gestión de errores y conocer los diferentes tipos de estrategias de gestión de errores, consulta Estrategias de gestión de errores.
Cuotas y límites
Para obtener información sobre las cuotas y los límites, consulta Cuotas y límites.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-11 (UTC)."],[[["\u003cp\u003eThe Dataflow - Create Job task allows users to create and run data pipelines within Cloud Dataflow, a managed Google Cloud service for stream and batch data processing.\u003c/p\u003e\n"],["\u003cp\u003eBefore configuring this task, users must enable the Dataflow API and create an authentication profile for Application Integration to connect to the appropriate authentication endpoint.\u003c/p\u003e\n"],["\u003cp\u003eConfiguring the Dataflow - Create Job task involves selecting an authentication profile and specifying input parameters such as region, project ID, location, and a JSON request structure.\u003c/p\u003e\n"],["\u003cp\u003eThe task returns a new instance of a Dataflow Job upon successful execution, which is outlined in the documentation on supported connectors.\u003c/p\u003e\n"],["\u003cp\u003eThe Dataflow - Create Job task is currently in a Pre-GA phase, subject to the "Pre-GA Offerings Terms," meaning it is available "as is" with potential limitations in support.\u003c/p\u003e\n"]]],[],null,["# Dataflow - Create Job task\n\nSee the [supported connectors](/integration-connectors/docs/connector-reference-overview) for Application Integration.\n\nDataflow - Create Job task\n==========================\n\n|\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThe **Dataflow - Create Job** task lets you create a job in Cloud Dataflow to run a data pipeline built using one of the Apache Beam SDKs.\n\n[Cloud Dataflow](/dataflow/docs/about-dataflow) is a fully managed Google Cloud service for running stream and Batch data processing pipelines.\n\nBefore you begin\n----------------\n\nEnsure that you perform the following tasks in your Google Cloud project before configuring the **Dataflow - Create Job** task:\n\n1. Enable the Dataflow API (`dataflow.googleapis.com`).\n\n\n [Enable the Dataflow API](https://console.cloud.google.com/flows/enableapi?apiid=dataflow.googleapis.com)\n2. Create an [authentication profile](/application-integration/docs/configuring-auth-profile#createAuthProfile). Application Integration uses an authentication profile to connect to an authentication endpoint for the **Dataflow - Create Job** task.\n\n For information about granting additional roles or permissions to a service account, see [Granting, changing, and revoking access](/iam/docs/granting-changing-revoking-access).\n\nConfigure the Dataflow - Create Job task\n----------------------------------------\n\n1. In the Google Cloud console, go to the **Application Integration** page.\n\n [Go to Application Integration](https://console.cloud.google.com/integrations)\n2. In the navigation menu, click **Integrations** .\n\n\n The **Integrations** page appears listing all the integrations available in the Google Cloud project.\n3. Select an existing integration or click **Create integration** to create a new one.\n\n\n If you are creating a new integration:\n 1. Enter a name and description in the **Create Integration** pane.\n 2. Select a region for the integration. **Note:** The **Regions** dropdown only lists the regions provisioned in your Google Cloud project. To provision a new region, click **Enable Region** . See [Enable new region](/application-integration/docs/enable-new-region) for more information.\n 3. Select a service account for the integration. You can change or update the service account details of an integration any time from the info **Integration summary** pane in the integration toolbar. **Note:** The option to select a service account is displayed only if you have enabled integration governance for the selected region.\n 4. Click **Create** . The newly created integration opens in the *integration editor*.\n\n\n4. In the *integration editor* navigation bar, click **Tasks** to view the list of available tasks and connectors.\n5. Click and place the **Dataflow - Create Job** element in the integration editor.\n6. Click the **Dataflow - Create Job** element on the designer to view the **Dataflow - Create Job** task configuration pane.\n7. Go to **Authentication** , and select an existing authentication profile that you want to use.\n\n Optional. If you have not created an authentication profile prior to configuring the task, Click **+ New authentication profile** and follow the steps as mentioned in [Create a new authentication profile](/application-integration/docs/configuring-auth-profile#createAuthProfile).\n8. Go to **Task Input** , and configure the displayed inputs fields using the following [Task input parameters](#params) table.\n\n Changes to the inputs fields are saved automatically.\n\nTask input parameters\n---------------------\n\n\nThe following table describes the input parameters of the **Dataflow - Create Job** task:\n\nTask output\n-----------\n\nThe **Dataflow - Create Job** task returns the newly created instance of the [Job](/dataflow/docs/reference/rest/v1b3/projects.jobs#Job).\n\nError handling strategy\n-----------------------\n\n\nAn error handling strategy for a task specifies the action to take if the task fails due to a [temporary error](/application-integration/docs/error-handling). For information about how to use an error handling strategy, and to know about the different types of error handling strategies, see [Error handling strategies](/application-integration/docs/error-handling-strategy).\n\nQuotas and limits\n-----------------\n\nFor information about quotas and limits, see [Quotas and limits](/application-integration/docs/quotas).\n\nWhat's next\n-----------\n\n- Add [edges and edge conditions](/application-integration/docs/edge-overview).\n- [Test and publish](/application-integration/docs/test-publish-integrations) your integration.\n- Configure a [trigger](/application-integration/docs/how-to-guides#configure-triggers).\n- Add a [Data Mapping task](/application-integration/docs/data-mapping-task).\n- See [all tasks for Google Cloud services](/application-integration/docs/how-to-guides#configure-tasks-for-google-cloud-services)."]]