本页介绍了如何将数据流水线连接到 SAP Ariba 源和 BigQuery 接收器。您可以使用 Cloud Data Fusion Hub 中的 SAP Ariba Batch Source 插件,无需编写任何代码即可配置和执行从 Ariba 进行的批量数据传输。
该插件会从 SAP Ariba Source 提供的报告事实中提取数据。每个事实都对应于一种 SAP Ariba 文档类型。事实会显示在视图模板中,您可以通过 Analytical Reporting API 访问这些模板。
如需了解详情,请参阅 SAP Ariba Batch Source 参考文档。
准备工作
在 Cloud Data Fusion 6.5.1 或更高版本中创建实例。如果您的实例使用的是较低版本,请升级 Cloud Data Fusion 环境。
SAP Ariba 用户必须执行以下操作:
- 创建应用并生成 OAuth 凭据。
- 在 Ariba 开发者门户中授予对 Analytical Reporting API 的访问权限。
发送
GET
请求,从 SAP Ariba 分析报告 - 视图管理 API 检索报告视图模板的名称。请参阅识别 Analytical Reporting API 视图模板。可选:为防止因速率限制而导致流水线失败,请指定预期的记录数。该插件会通过 SAP Ariba Analytical Reporting API 从事实和维度中提取数据,该 API 会应用速率限制。如需了解详情,请参阅管理速率限制。
部署和配置插件
从中心的“SAP”标签页部署 SAP Ariba Batch Source 插件。如需了解详情,请参阅通过中心部署插件。
在 Cloud Data Fusion 的 Studio 页面上打开该流水线,然后选择数据流水线 - 批处理。该插件不支持实时流水线。
在“来源”菜单中,点击 SAP Ariba。SAP Ariba Batch Source 节点会显示在流水线中。
前往该节点,然后点击属性。系统随即会打开 Ariba Properties 窗口。
配置属性。
点击验证,然后解决所有错误。
点击
关闭。
可选:将该插件连接到 BigQuery 接收器
在 Cloud Data Fusion 的 Studio 页面上,前往接收器菜单,然后点击 BigQuery。
BigQuery 接收器节点会显示在流水线中。
配置接收器的必需属性。
点击验证,然后解决所有错误。
点击
关闭。
可选:管理速率限制
如需在 SAP Ariba 中查看特定日期范围的记录数,请参阅 Analytical Reporting API 的日期相关过滤条件。
如需了解详情,请参阅该插件的限制。
下表介绍了排查速率限制问题的方法。
流水线示例 | 记录数和所需 API 调用次数 | 剩余的每日上限 | 问题排查 |
---|---|---|---|
我想从一个视图模板中提取特定日期范围内的数据。 | |||
1 | 2,020,000 条记录,41 次调用 | -1 / 40 | 此日期范围和记录数所需的 API 调用次数超出了每日上限 (40)。如需减少调用次数,请选择较小的日期范围以减少记录数。 |
我想从多个视图模板中提取特定日期范围内的数据。 | |||
1 | 50,001 条记录,2 次调用 | 38 / 40 | |
2 | 10 万条记录,2 次调用 | 36 / 40 | |
3 | 100 条记录,1 次调用 | 35 分(满分 40 分) | |
4 | 100 万条记录,20 次调用 | 15 个(共 40 个) | |
5 | 50 万条记录,10 次调用 | 5 分(满分 40 分) | |
6 | 50 万条记录,10 次调用 | -5 of 40 | 流水线 6 超出了 API 调用限制。为避免出错,请在一天后运行提取操作,或更改日期范围。 |