SAP BW Open Hub 批量来源

本指南介绍了如何部署、配置和运行使用 SAP BW Open Hub Batch Source 插件的数据流水线。您可以通过 BW Open Hub Service 将 SAP 用作在 Cloud Data Fusion 中基于批次和增量数据提取的来源。

此插件支持从 SAP 应用程序与 Cloud Data Fusion 进行批量数据集成。您无需编写代码即可配置和执行从 SAP DataSources 开始的批量数据传输。

如需了解支持的 SAP 应用和用于提取的对象,请参阅支持详情。如需详细了解如何在 Google Cloud上运行 SAP,请参阅 Google Cloud上的 SAP 概览

目标

  • 配置 SAP BW 系统。
  • 在 Cloud Data Fusion 环境中部署插件。
  • 从 Cloud Data Fusion 下载 SAP 传输文件并将其安装在 SAP 中。
  • 使用 Cloud Data Fusion 和 SAP BW Open Hub Batch Source 创建用于集成 SAP 数据的数据流水线。

准备工作

如需使用此插件,您需要具备以下方面的领域知识:

用户角色

此页面上的任务由在 Google Cloud 或其 SAP 系统中具有以下角色的人员执行:

用户类型 说明
Google Cloud Admin 分配有此角色的用户是 Google Cloud 账号的管理员。
Cloud Data Fusion 用户 分配有此角色的用户有权设计和运行数据流水线。这些角色至少被授予了 Data Fusion Viewer (roles/datafusion.viewer) 角色。如果您使用的是基于角色的访问权限控制,则可能需要其他角色
SAP 管理员 分配有此角色的用户是 SAP 系统的管理员。他们可以从 SAP 服务网站下载软件。它不是 IAM 角色。
SAP 用户 分配有此角色的用户有权连接到 SAP 系统。它不是 IAM 角色。

SAP BW 的前提条件

您需要使用 SAP HANA Studio 创建和修改数据传输流程和流程链。

Cloud Data Fusion 的前提条件

  • 需要有 VPC 网络才能创建 Cloud Data Fusion 实例。
  • 必须使用 Cloud Data Fusion 实例 6.8.0 版或更高版本(任何版本均可)。
  • 必须向分配给 Cloud Data Fusion 实例的服务账号授予所需角色。如需了解详情,请参阅向服务账号授予用户权限
  • 您必须在您的 VPC 与 Google 的共享 VPC 网络之间使用对等互连连接。

配置 SAP BW 系统

SAP BW Open Hub 批量来源使用“远程函数模块”(RFM),必须在提取数据的各个 SAP 服务器上安装该模块。此 RFM 以 SAP 传输形式交付。

如需配置 SAP 系统,请按照以下步骤操作:

  1. Cloud Data Fusion 用户必须下载包含 SAP 传输的 zip 文件并将其提供给 SAP 管理员。如需了解详情,请参阅设置 Cloud Data Fusion
  2. SAP 管理员必须将 SAP 传输导入到 SAP 系统中并验证创建的对象。如需了解详情,请参阅安装 SAP 传输
  3. 可选:SAP 用户可以根据其组织的安全政策修改传送的角色 /GOOG/BWOH_CDF_AUTH 的 SAP 标准授权对象。

安装 SAP 传输文件

如需在 Cloud Data Fusion 中设计和运行数据流水线,SAP 组件会以 SAP 传输文件的形式提供,这些文件会归档为 zip 文件。在在 Cloud Data Fusion Hub 中部署插件后,即可下载该文件。

如需安装 SAP 传输,请按照以下步骤操作:

第 1 步:上传传输请求文件

  1. 登录 SAP 实例的操作系统。
  2. 使用 SAP 事务代码 AL11 获取 DIR_TRANS 文件夹的路径。路径通常为 /usr/sap/trans/
  3. 将 cofile 复制到 DIR_TRANS/cofiles 文件夹。
  4. 将数据文件复制到 DIR_TRANS/data 文件夹。
  5. 将数据和 cofile 的用户和组设置为 <sid>admsapsys

第 2 步:导入传输请求文件

SAP 管理员可以使用以下任一选项导入传输请求文件:

选项 1:使用 SAP 传输管理系统导入传输请求文件
  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 输入事务 STMS。
  3. 点击概览 > 导入
  4. 在“队列”列中,双击当前 SID。
  5. 依次点击 Extras > 其他请求 > 添加
  6. 选择传输请求 ID,然后点击继续
  7. 在导入队列中选择传输请求,然后点击请求>导入
  8. 输入客户端编号。
  9. 选项标签页上,选择覆盖原始内容忽略无效组件版本

    可选:选择将传输请求保留在队列中以供稍后导入。这会导致在下次导入所有请求时,系统会按照正确的顺序重新导入请求。如果您必须为个别请求进行预导入,此选项非常有用。

  10. 点击继续

  11. 使用适当的事务(如 SE80PFCG)验证函数模块和授权角色是否已成功导入。

选项 2:在操作系统级层导入传输请求文件
  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 向导入缓冲区添加适当的请求:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    例如:tp addtobuffer BW1K900054 DD1

  3. 导入传输请求:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    NNN 替换为客户端编号。例如:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. 使用适当的事务(如 SE80PFCG)验证函数模块和授权角色是否已成功导入。

必需的 SAP 授权

如要在 Cloud Data Fusion 中运行数据流水线,您需要 SAP 用户。SAP 用户必须是 CommunicationsDialog 类型。为避免使用 SAP 对话框资源,建议使用 Communications 类型。SAP 管理员可以使用 SAP 事务代码 SU01 创建用户。

需要 SAP 授权才能配置 SAP 的连接器。连接器专用 SAP 授权对象会作为传输请求的一部分提供。按照安装 SAP 传输中的说明导入授权角色传输,将角色导入您的系统,并通过 PFCG 事务代码生成角色。

对于标准 SAP 授权对象,您的组织拥有自己的安全机制来管理权限。您可以根据贵组织的安全政策维护授权对象。

创建流程链 (PC) 和数据传输流程 (DTP)

创建流程链和数据传输流程需要具备一些额外的技能和背景知识。

背景概念

如需创建或修改 PC 和 DTP,请使用 SAP HANA Studio。

前提技能

  • 您已使用转换来定义源对象和目标对象之间的数据流。
  • 您熟悉基本 BW 和 HANA 概念,例如 DataStore 对象 (DSO)、数据转换、InfoCube、查询优化、HANA 建模和使用 HANA Studio 的 HANA 数据库功能。如需详细了解这些概念,请参阅 SAP 关于 BW 和 HANA 的教程

提取类型

数据传输流程有两种数据提取模式:完整和增量。

  • 完整:根据 DTP 中提及的过滤条件,选择来源中可用的数据。如果数据源是以下 InfoProvider 之一,则只能使用“完整提取”模式:

    • InfoObjects
    • InfoSet
    • 用于直接更新的 DataStore 对象
  • 增量:与 InfoPackage 不同,使用 DTP 进行增量传输不需要显式初始化。首次使用增量提取模式执行 DTP 时,系统会从来源检索截至提取时间的所有现有请求,然后自动初始化增量。

    对于提取模式为 Delta 的 DTP,可使用以下选项:

    • 仅获取一次 Delta 值
    • 按请求获取所有新数据请求
    • 检索到没有新数据为止

软件包大小:这是单个数据包中的数据记录数。默认值为 50,000

创建流程链

如需创建流程链 (PC),请在 SAP GUI 中使用事务 RSPC。定义启动流程,然后添加流程步骤和 DTP。如需了解详情,请参阅有关创建流程链的 SAP 文档。

HANA Studio 中提供了各种选项来监控和管理 PC。如需了解详情,请参阅 SAP BW/4HANA 流程链操作

使用流程链创建数据传输流程

前往您要用于数据传输流程的流程链的规划视图。在规划视图中,您可以使用 HANA Studio 创建 DTP。如需了解详情,请参阅 SAP 文档中的创建数据传输流程部分。

如需详细了解配置选项,请参阅数据传输过程 (DTP) 简介 - SAP BW 7

RFC 连接

如需通知回调系统(例如 SAP BW Open Hub Batch Source 插件)数据可用,必须更新流水线以使用 RFC 目标:

  1. 在 SM59 中,创建类型为 TCP/IP Connections 的 RFC 连接,以便在 BI 中完成数据加载后通过 BW 通知目标系统。

  2. 双击 RFC 连接,确保在 RFC 连接中配置了计划 ID。每个 RFC 目标的 Program ID 必须是唯一的,以避免运行时监听器冲突。

  3. 在流水线中使用新创建的 TCP/IP 连接发送通知,以便完成 Cloud Data Fusion 批处理作业。流水线名称不区分大小写。在端到端集成流程中,必须正确地使用大写形式指定此值。

显示进程链和数据传输进程的日志

  1. 前往 t-code:RSPC,然后点击流程链

  2. 右键点击要显示日志的进程链,然后点击显示日志

使用流水线时配置 Dataproc 集群

如需通过 RFC 服务器启用通信,您必须在 Dataproc 集群节点的 /etc/services 文件中添加 SAP Gateway 端口条目。建议使用 init action,即在集群初始化时要执行的脚本。如需了解详情,请参阅初始化操作

创建一个脚本文件,并将其保存到 Cloud Storage 存储分区中。以下示例展示了脚本文件的内容:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

在上面的示例中,请注意以下事项:

  • 条目采用 sapgwxx 33xx/tcp 格式,其中 XX 是 SAP 实例编号。

  • 添加了 SAP 实例 0004 的端口。

如果您使用的是临时集群、新创建的永久性集群或现有永久性 Dataproc 集群,请执行以下步骤。

临时 Dataproc 集群

如果您使用的是临时 Dataproc 集群,请将 init 脚本路径添加到集群属性中:

  1. 在作业监控器中,点击 Cloud Data Fusion 的“流水线”页面中的配置
  2. 选择计算配置文件,然后点击自定义
  3. 高级设置下的初始化操作字段中,输入 init 脚本的路径。

新的永久性 Dataproc 集群

如果您使用的是新创建的永久性 Dataproc 集群,请使用 gcloud 命令中的 init 脚本创建集群。例如:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

现有的永久性 Dataproc 集群

如果您使用的是现有的永久性 Dataproc 集群,请按以下步骤操作:

如果集群已创建,但未使用 init 脚本,请在 Dataproc 集群的主节点和工作器节点中手动添加条目。

  1. 通过 SSH 连接到主节点和集群节点。
  2. 登录根用户 ID。
  3. 前往 /etc/,然后在 VI 编辑器中打开 /etc/services 文件。
  4. 添加条目 sapgwxx 33xx/tcp。将 xx 替换为您的 SAP 实例编号。
  5. 保存 /etc/services 文件。

设置 Cloud Data Fusion

确保已启用 Cloud Data Fusion 实例和 SAP 服务器之间的通信。对于专用实例,请设置网络对等互连。在与托管 SAP 系统的项目建立网络对等互连后,无需额外配置即可连接到 Cloud Data Fusion 实例。SAP 系统和 Cloud Data Fusion 实例必须位于同一项目中。

Cloud Data Fusion 用户的步骤

  1. 前往实例详情:
    1. 在 Google Cloud 控制台中,前往 Cloud Data Fusion 页面。

    2. 点击实例,然后点击实例名称以前往实例详情页面。

      转到实例

  2. 检查实例是否已升级到 6.8.0 或更高版本。如果实例为早期版本,则必须升级。
  3. 打开实例。当 Cloud Data Fusion 界面打开时,点击 Hub
  4. 依次选择 SAP 标签页 > SAP BW。 如果 SAP 标签页未显示,请参阅排查 SAP 集成问题
  5. 点击部署 SAP BW 插件。 该插件会显示在 Studio 页面的来源菜单中。

SAP 管理员和 Google Cloud 管理员的步骤

SAP 管理员从 SAP 支持网站下载以下 JCo 工件并将其提供给 Google Cloud 管理员。

  • 一个与平台无关 (sapjco3.jar)
  • 一个依赖于平台(在 Unix 上为 libsapjco3.so

如需下载文件,请按以下步骤操作:

  1. 前往 SAP 连接器页面。
  2. 点击 SAP Java 连接器/工具和服务。您可以选择特定于平台的下载链接。
  3. 选择 Cloud Data Fusion 实例运行的平台:

    1. 如果您针对集群中的虚拟机使用标准 Google Cloud 映像(Cloud Data Fusion 的默认设置),请选择适用于与 Intel 兼容的处理器 64 位 x86 的 Linux
    2. 如果您使用自定义映像,请选择相应的平台。
  4. Google Cloud 管理员必须将 JCo 文件复制到可读的 Cloud Storage 存储分区中。向 Cloud Data Fusion 用户提供存储分区路径,以便在 Cloud Data Fusion 的相应插件属性中输入该路径:SAP JCo 库 GCS 路径。请参阅配置插件

  5. Google Cloud 管理员必须将这两个文件的读取权限授予设计环境的 Cloud Data Fusion 服务账号和执行环境的 Dataproc 服务账号。如需了解详情,请参阅 Cloud Data Fusion 服务账号

配置插件

SAP BW Open Hub Batch Source 插件会读取 SAP DataSource 的内容。

如要过滤记录,您可以为 SAP BW Open Hub Batch Source 配置以下属性。

以下指标用于定义字段:

  • (M):表示相应的字段支持宏
  • (O):选填字段

标签:画布上的插件标签。

基本

在以下属性列表中,(M) 表示该选项支持宏,可用于集中管理 SAP 连接。例如,您可以将宏用于连接属性,并使用运行时参数或 Argument Setter 插件在运行时设置值。

  • 参考名称:用于唯一识别此来源以进行沿袭和注释元数据的名称。
  • 使用连接(开启/关闭切换开关):是否使用现有连接(请参阅管理连接)。如果您选择使用现有连接,则无需提供任何 SAP 连接详细信息。

  • 连接(浏览连接):选择要使用的现有连接。 您还可以使用宏函数 ${conn(connection-name)}

  • SAP 客户端 (M):要使用的 SAP 客户端。例如 100

  • SAP 语言 (M):SAP 登录语言。例如 EN

  • 连接类型:SAP 连接类型 - 直接连接或负载均衡连接。基于流程链的提取不支持负载均衡连接。如需了解详情,请参阅支持详情

    选择连接类型后,可用的字段会发生变化。

    对于直接连接,可使用以下字段:

    • SAP 应用服务器主机 (M):SAP 服务器名称或 IP 地址。
    • SAP 系统编号 (M):SAP 系统编号。例如 00
    • SAP 路由器 (M、O):路由器字符串。

    对于负载均衡的连接,可用字段如下:

    • SAP 消息服务器主机 (M):SAP 消息主机名或 IP 地址。
    • SAP 消息服务器服务或端口号 (M):SAP 消息服务器服务或端口号。例如 sapms02
    • SAP 系统 ID (SID) (M):SAP 系统 ID。例如 N75
    • SAP 登录群组名称 (M):SAP 登录群组名称。例如 PUBLIC
  • 使用流程链 (M):此字段包含两个选项。

    如果您使用 Yes 选项启用流程链,则系统会启用以下属性:

    • 自动解决 PC 和 DTP 错误:控制在识别到之前运行失败时执行的操作。停用后,该插件会导致流水线失败并显示相关错误。启用(默认)后,该插件会检查 SAP 中的流程链和数据传输流程状态。如果发现以下任何错误,该插件会自动尝试解决这些错误:

    • Data Transfer Process in error state:插件删除了先前的请求

    • 进程链处于红色状态且出错 previous request status has not been set:插件会从进程链日志中获取请求 ID,然后删除阻塞请求,再尝试运行 PC。

    • 流水线状态通知等待时间(以分钟为单位)(M、O):等待给定时间(以分钟为单位),以便流水线完成数据暂存并通知流水线开始提取。如果您指定 0 或将其留空,则系统会将值视为 10 分钟(默认值)。

    • 流程链 (M):SAP 流程链名称。例如 PC_RFC

    如果您使用 No 选项停用进程链,则系统会启用以下属性:

    • Open Hub 目标位置 (M):要读取的 Open Hub 目标位置名称。
    • 请求 ID (M,O):已运行的数据传输流程的请求 ID。

凭据

  • SAP 登录用户名 (M):SAP 用户名。 推荐:如果 SAP 登录用户名定期更改,请使用
  • SAP 登录密码 (M):SAP 用户密码。 推荐:对用户密码等敏感值使用安全的宏

SAP JCo 详细信息

  • GCP 项目 ID (M): Google Cloud 用于唯一标识项目的项目 ID。您可以在 Google Cloud 控制台的“信息中心”中找到它。
  • SAP JCo 库 GCS 路径 (M):包含用户上传的 SAP JCo 库文件的 Cloud Storage 路径。
  • 获取架构:如果您希望插件基于 SAP 的元数据生成架构,并自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型,请点击此按钮。此按钮的功能与验证按钮相同。

如需详细了解客户端证书,请参阅在 SAP NetWeaver 应用服务器上将 X.509 客户端证书用于 ABAP

高级

  • 要生成的分片数 (M, O):分片数用于对输入数据进行分区。分区越多,并行级别就越高,但需要的资源和开销也越多。对于 SAP 本地系统,如果未在界面中指定该值,则分块数为 SAP 中可用对话工作流程的 50%。否则,系统会在用户指定的数量和可用工作进程的 50% 之间优化分块数量。

    建议:除非您熟悉 SAP 系统设置,否则请将此属性留空。

  • 其他 SAP 连接属性 (M, O):设置用于替换 SAP JCo 默认值的其他 SAP JCo 属性。例如,设置 jco.destination.pool_capacity = 10 会替换默认的连接池容量。

    下表列出了支持的 SAP JCo 属性:

属性 说明
jco.destination.peak_limit 可同时为目标位置创建的活跃连接的数量上限。
jco.destination.pool_capacity 目标端保持打开的空闲连接的数量上限。值为 0 时,表示不进行连接池化,即连接会在每次请求后关闭。
jco.destination.expiration_time ms 中的时间,在此时间过后,内部池中保持的连接可以关闭。
jco.destination.expiration_check_period ms 中的间隔时间,超时检查器线程会在此时间间隔内检查池中的连接是否已过期。
jco.destination.max_get_client_time 如果应用分配了允许的最大连接数,则 ms 中等待连接的最长时间。

数据提取模式的行为

数据提取模式通过“数据传输流程”设置进行控制。使用流程链与使用开放式集线器目的地时的行为不同。

使用流程链时

数据传输流程级别的设置用于控制是执行完整加载还是增量加载。请求 ID 会以 SAP 向插件发送的通知的形式传送。该插件会读取与此单个请求 ID 关联的数据包数据。

使用没有请求 ID 的公开出价目标平台时

完整加载:首次运行该流水线会获取“打开的集线器”表中的所有可用请求 ID。该插件会读取与这些请求 ID 关联的数据包数据。

增量加载:下次运行相同的流水线时,系统会在上次提取的请求 ID 之后提取所有可用的增量请求 ID。该插件会读取与这些请求 ID 关联的数据包数据。

将公开集合目标平台与请求 ID 搭配使用时

完整加载:首次运行该流水线会获取大于指定请求 ID 的所有后续可用请求 ID。该插件会读取与这些请求 ID 关联的数据包数据。

增量加载:下次运行同一流水线时,系统会在上次提取的请求 ID 之后提取所有可用的增量请求 ID。该插件会读取与这些请求 ID 关联的数据包数据。

数据类型映射

下表显示了在 SAP BW 和 Cloud Data Fusion 中使用的数据类型之间的映射。

BW 数据类型 ABAP 类型 说明 (SAP) Cloud Data Fusion 数据类型
数字
INT1 b 1 个字节的整数 integer
INT2 s 2 个字节的整数 integer
INT4 i 4 个字节的整数 integer
INT8 8 8 个字节的整数 long
12 月 p 打包成采用 BCD 格式的数字 (DEC) decimal
DF16_DEC
DF16_RAW
a 十进制浮点 8 字节 IEEE 754r decimal
DF34_DEC
DF34_RAW
e 十进制浮点 16 字节 IEEE 754r decimal
FLTP f 二进制浮点数 double
字符
CHAR
LCHR
c 字符串 string
SSTRING
GEOM_EWKB
string 字符串 string
STRING string 字符串 CLOB bytes
NUMC
ACCP
n 数字文本 string
Byte
RAW
LRAW
x 二进制数据 bytes
RAWSTRING xstring 字节字符串 BLOB bytes
日期/时间
DATS d 日期 date
TIMS t 时间 time
TIMESTAMP utcl 时间戳
Utclong
timestamp

验证

点击验证获取架构

该插件会验证属性,并根据 SAP 中的元数据生成架构。它还会自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型。

运行数据流水线

  1. 部署流水线后,点击配置
  2. 选择资源
  3. 如果需要,请根据整体数据大小和流水线中使用的转换数量来更改执行器 CPU内存
  4. 点击保存
  5. 如需启动数据流水线,请点击运行

优化性能

优化插件配置

运行流水线时,请使用以下属性以获得最佳性能:

  • Cloud Data Fusion 插件属性中的要生成的分片数:这直接控制 Cloud Data Fusion 端的并行性。运行时引擎会在提取表记录时创建指定数量的分区和 SAP 连接。建议使用 816 之间的值,但是在 SAP 端进行适当的配置(为 SAP 中的工作进程分配适当的内存资源),最多可增加 32,甚至是 64

    如果值为 0 或留空(推荐),则系统会根据可用的 SAP 工作进程数量、要提取的记录以及软件包大小自动选择适当的值。

  • BW 数据传输流程属性中的数据包大小:用于控制单个数据包中的数据记录数量。默认值为 50,000。提高此值可能会提高性能,但会增加资源负载。如果您已经在使用较高的值,请将其调低,以便更好地并行执行提取操作。

Cloud Data Fusion 资源设置

推荐:每个执行器使用 1 个 CPU 和 4 GB 内存。此值适用于每个执行器进程。请在配置 > 资源对话框中设置这些值。

Dataproc 集群设置

推荐:至少,分配的 CPU 总数(在多个工作器之间)要大于预期的分片数量。请参阅插件配置

例如,如果您有 16 个分块,则在所有工作器之间定义 20 个或更多 CPU。分配 4 个用于协调的 CPU。

推荐:使用永久性 Dataproc 集群来缩短数据流水线运行时。这消除了可能需要几分钟或更长时间的预配步骤。在 Compute Engine 配置部分中设置此项。

支持详情

支持的 SAP 产品和版本

支持的来源:

  • SAP NW BW 7.5 及更高版本
  • SAP BW4HANA 2.0 SP9(包含 Open Hub Destination API;BW4HANA 的早期版本不支持 Open Hub Destination API)

支持 SAP 负载均衡(消息服务器)连接

基于 Open Hub 目的地的提取支持 SAP 负载均衡(消息服务器)连接,其中不使用 RFC 服务器。

基于流程链的提取不支持 SAP 负载均衡 (Message Server) 连接。原因在于,向客户端系统提供 data ready 通知时存在 SAP 限制,需要在 BW 环境中的每个 SAP 服务器上注册 RFC 服务器(插件监听器),这会增加连接器的占用空间,并可能会影响 SAP 性能和资源使用。如需了解详情,请参阅 SAP 说明 2572564(需要 SAP 支持登录才能查看)。

支持的 SAP 部署模型

该插件已使用在 Google Cloud上部署的 SAP 服务器进行测试。

支持的 SAP 对象

开放式集成平台目标位置的数据源:InfoProvider(InfoObject、InfoCube、DataStore 对象、高级 Data Store 对象、复合提供程序)

用于自动将数据传输流程自动执行到 Open Hub 目标位置的流程链。

使用 Oracle HTTP Server 从 SAP 提取数据的单独许可

您无需单独的许可即可使用 Oracle HTTP Server (OHS) 从 SAP 中提取数据;不过,请与您的 SAP 代表确认您的具体协议和用例。

预期的插件吞吐量

对于根据优化性能中的指南配置的环境,插件可以每小时提取大约 38 GB。实际性能可能会因 Cloud Data Fusion 和 SAP 系统负载或网络流量而异。

后续步骤