查看 Application Integration 支持的连接器。
Dataflow - 创建作业任务
借助 Dataflow - 创建作业任务,您可以在 Cloud Dataflow 中创建作业,以运行使用一个 Apache Beam SDK 构建的数据流水线。
Cloud Dataflow 是一项全代管式 Google Cloud 服务,用于运行流式数据处理和批量数据处理的流水线。
准备工作
在配置 Dataflow - 创建作业任务之前,请确保在您的 Google Cloud 项目中执行以下任务:
- 启用 Dataflow API (
dataflow.googleapis.com
)。 - 创建身份验证配置文件。应用集成会使用身份验证配置文件连接到身份验证端点以完成 Dataflow - 创建作业任务。
如需了解如何向服务账号授予其他角色或权限,请参阅授予、更改和撤消访问权限。
配置 Dataflow - 创建作业任务
- 在 Google Cloud 控制台中,前往 Application Integration 页面。
- 在导航菜单中,点击集成。
系统随即会显示集成页面,其中列出了 Google Cloud 项目中可用的所有集成。
- 选择现有集成,或点击创建集成以创建新的集成。
要创建新的集成,请执行以下操作:
- 在创建集成窗格中输入名称和说明。
- 为集成选择一个区域。
- 选择用于集成的服务账号。您可以随时在集成工具栏的 集成摘要窗格中更改或更新集成的服务账号详细信息。
- 点击创建。
这将在集成编辑器中打开集成。
- 在集成编辑器导航栏中,点击任务以查看可用任务和连接器的列表。
- 点击 Dataflow - Create Job(Dataflow - 创建作业)元素,并将其放置到集成编辑器中。
- 点击设计器上的 Dataflow - Create Job(Dataflow - 创建作业)元素以查看 Dataflow - Create Job(Dataflow - 创建作业)任务配置窗格。
- 前往身份验证,然后选择您要使用的现有身份验证配置文件。
可选。如果您在配置此任务之前未创建身份验证配置文件,请点击 + New authentication profile(+ 新建身份验证配置文件),然后按照创建新的身份验证配置文件中所述的步骤操作。
- 前往 Task Input(任务输入),然后使用以下任务输入参数表配置显示的输入字段。
系统会自动保存对输入字段的更改。
任务输入参数
下表介绍了 Dataflow - 创建作业任务的输入参数:
属性 | 数据类型 | 说明 |
---|---|---|
区域 | 字符串 | 作业的 Cloud Dataflow 位置。 |
ProjectsId | 字符串 | 您的 Google Cloud 项目 ID。 |
位置 | 字符串 | 包含作业的区域端点。 |
请求 | JSON | 请参阅请求 JSON 结构。 |
任务输出
Dataflow - 创建作业任务会返回新创建的作业实例。
错误处理策略
任务的错误处理策略指定当任务因暂时性错误而失败时要执行的操作。如需了解如何使用错误处理策略,以及了解不同类型的错误处理策略,请参阅错误处理策略。
配额和限制
如需了解配额和限制,请参阅配额和限制。
后续步骤
- 添加边缘和边缘条件。
- 测试并发布您的集成。
- 配置触发器。
- 添加数据映射任务。
- 查看 Google Cloud 服务的所有任务。