连接到 SAP Ariba 批处理来源

本页面介绍如何将数据流水线连接到 SAP Ariba 来源和 BigQuery 接收器。您可以使用 Cloud Data Fusion Hub 中的 SAP Ariba Batch Source 插件从 Ariba 配置和执行批量数据传输,而无需任何编码。

该插件会从 SAP Ariba Source 中提供的报告数据中提取数据。每项事实都与 SAP Ariba 文档类型对应。信息在视图模板中公开,您可以通过 Analytical Reporting API 访问这些模板。

如需了解详情,请参阅 SAP Ariba 批处理来源参考文档

准备工作

  • 在 Cloud Data Fusion 6.5.1 或更高版本中创建实例。如果您的实例使用的是较低版本,请升级 Cloud Data Fusion 环境

  • SAP Ariba 用户必须执行以下操作:

    • 创建应用并生成 OAuth 凭据。
    • 在 Ariba 开发者门户中授予对 Analytical Reporting API 的访问权限。
  • 通过发送 GET 请求,从 SAP Ariba Analytical Reporting - View Management API 中检索报告视图模板的名称。请参阅识别 Analytics(分析)报告 API 数据视图模板

  • 可选:为防止因速率限制导致流水线失败,请确定预期的记录数。在存在速率限制的情况下,该插件通过 SAP Ariba Analytical Reporting API 从事实和维度中提取数据。如需了解详情,请参阅管理速率限制

部署和配置插件

  1. 通过 Hub 的“SAP”标签页部署 SAP Ariba Batch Source 插件。如需了解详情,请参阅从 Hub 部署插件

  2. 在 Cloud Data Fusion Studio 页面上打开流水线,然后选择 Data Pipeline - Batch。该插件不支持实时流水线。

  3. 在来源菜单中,点击 SAP Ariba。SAP Ariba Batch Source 节点会显示在流水线中。

  4. 前往节点,然后点击属性。系统会打开“Ariba 属性”窗口。

  5. 配置属性

  6. 点击验证并解决所有错误。

  7. 点击 关闭

可选:将插件连接到 BigQuery 接收器

  1. 在 Cloud Data Fusion Studio 页面上,转到接收器菜单,然后点击 BigQuery

    BigQuery 接收器节点会显示在流水线中。

  2. 配置接收器的必需属性。

  3. 点击验证并解决所有错误。

  4. 点击 关闭

可选:管理速率限制

如需在 SAP Ariba 中检查特定日期范围内的记录数,请参阅 Analytical Reporting API 的日期相关过滤条件

如需了解详情,请参阅插件的限制

下表介绍了排查速率限制问题的方法。

流水线示例 记录计数和所需的 API 调用数 剩余每日上限 问题排查
我想从一个视图模板中提取特定日期范围内的数据。
1 2,020,000 条记录,41 次调用 -1/40 此日期范围和记录计数所需的 API 调用次数超过了每日上限 (40)。如需减少调用次数,请选择较小的日期范围以减少记录数。
我想从多个视图模板中提取特定日期范围内的数据。
1 50,001 条记录,2 次调用 38/40
2 10 万条记录,2 次调用 36/40
3 100 条记录,1 次通话 35/40
4 100 万条记录,20 次调用 第 15 页(共 40 页)
5 50 万条记录,10 次调用 第 5 个(共 40 个)
6 50 万条记录,10 次调用 -5/40 流水线 6 超出了 API 调用的限制。为防止出现错误,请在一天后运行提取操作或更改日期范围。

后续步骤