本指南介绍了如何部署、配置和运行 SAP BW Open Hub Batch Source 插件。您可以使用 SAP 作为 在 Cloud Data Fusion 中通过 BW Open Hub 服务。
此插件支持从 SAP 应用程序与 Cloud Data Fusion 进行批量数据集成。您可以从 Cloud Storage 存储分区中配置和执行批量数据传输, SAP DataSources 而无需编写任何代码
如需了解支持的 SAP 应用和用于提取的对象,请参阅 支持详情。详细了解如何运行 SAP 请参阅 SAP on Google Cloud 概览。
目标
- 配置 SAP BW 系统。
- 在 Cloud Data Fusion 环境中部署插件。
- 从 Cloud Data Fusion 下载 SAP 传输文件并将其安装在 SAP 中。
- 使用 Cloud Data Fusion 和 SAP BW Open Hub Batch Source 创建用于集成 SAP 数据的数据流水线。
准备工作
如需使用此插件,您需要具备以下方面的领域知识:
- 在 Cloud Data Fusion 中构建流水线
- 配置 SAP BW 或 BW4HANA 系统
用户角色
此页面上的任务由 Google Cloud 或 SAP 系统中具有以下角色的人员执行:
用户类型 | 说明 |
---|---|
Google Cloud 管理员 | 获分此角色的用户是 Google Cloud 帐号的管理员。 |
Cloud Data Fusion 用户 | 获分此角色的用户有权设计和运行数据流水线。他们至少被授予了 Data Fusion Viewer (roles/datafusion.viewer ) 角色。如果您使用的是基于角色的访问权限控制,则可能需要其他角色。 |
SAP 管理员 | 分配到此角色的用户是 SAP 系统的管理员。他们拥有从 SAP 服务网站下载软件的权限。它不是 IAM 角色。 |
SAP 用户 | 获分此角色的用户有权连接到 SAP 系统。它不是 IAM 角色。 |
SAP BW 的前提条件
您需要使用 SAP HANA Studio 来创建和修改数据传输流程 连锁店。
Cloud Data Fusion 的前提条件
- Cloud Data Fusion 实例需要 VPC 网络 创建过程。
- 需要 Cloud Data Fusion 实例 6.8.0 版或更高版本(任何版本均可)。
- 必须为分配给 Cloud Data Fusion 实例。如需了解详情,请参阅 授予服务账号用户权限。
- 您必须在 VPC 与 Google 的共享 VPC 网络。
配置 SAP BW 系统
SAP BW Open Hub 批量来源使用“远程函数模块”(RFM),必须在提取数据的各个 SAP 服务器上安装该模块。此 RFM 以 SAP 传输形式提供。
如需配置 SAP 系统,请按照以下步骤操作:
- Cloud Data Fusion 用户必须下载包含 SAP 传输的 zip 文件并将其提供给 SAP 管理员。如需了解详情,请参阅 设置 Cloud Data Fusion。
- SAP 管理员必须将 SAP 传输导入到 SAP 系统中并验证创建的对象。如需了解详情,请参阅 安装 SAP 传输。
- 可选:SAP 用户可以修改
根据其组织的安全性提供了角色“
/GOOG/BWOH_CDF_AUTH
” 政策。
安装 SAP 传输文件
为了在 Cloud Data Fusion 中设计和运行数据流水线,SAP 组件以 SAP 传输文件的形式提供,这些文件以 zip 格式归档 文件。当你需要时 在 Cloud Data Fusion Hub 中部署插件。
下面提供了 SAP 传输请求 ID 和关联文件 表:
SAP 传输
传输 ID | Cofile | 数据文件 | 内容 |
---|---|---|---|
BW1K900054 | K900054.BW1 | R900054.BW1 | BWOH Cloud Data Fusion 连接器 1.0 版 函数模块: /GOOG/BWOH_GET_PC_LOG /GOOG/BWOH_GET_PRO_CHA_DETAILS /GOOG/BWOH_API_OHS_ETL_READ /GOOG/BWOH_GET_PC_RUNS /GOOG/BWOH_SET_LAST_RUN /GOOG/BWOH_GET_PC_OHD_LIST |
BW1K900055 | K900055.BW1 | R900055.BW1 | 授权角色 /GOOG/BWOH_CDF_AUTH |
如需安装 SAP 传输,请按照以下步骤操作:
第 1 步:上传传输请求文件
- 登录 SAP 实例的操作系统。
- 使用 SAP 事务代码
AL11
获取DIR_TRANS
文件夹的路径。通常,该路径为/usr/sap/trans/
。 - 将 cofile 复制到
DIR_TRANS/cofiles
文件夹。 - 将数据文件复制到
DIR_TRANS/data
文件夹。 - 将“用户和组”以及数据文件设置为
<sid>adm
和sapsys
。
第 2 步:导入传输请求文件
SAP 管理员可以使用以下任一选项导入传输请求文件:
选项 1:使用 SAP 传输管理系统导入传输请求文件
- 以 SAP 管理员身份登录 SAP 系统。
- 输入事务 STMS。
- 点击概览 > 导入。
- 在“队列”列中,双击当前 SID。
- 依次点击 Extras > 其他请求 > 添加。
- 选择传输请求 ID,然后点击继续。
- 在导入队列中选择传输请求,然后点击请求>导入。
- 输入客户端编号。
在选项标签页上,选择覆盖原始文件和忽略无效的组件版本。
可选:选择将传输请求留在队列中,以便稍后导入。 这会导致请求以正确的顺序再次导入,并包含下一个 所有请求的导入。如果您必须 初步导入。
点击继续。
验证是否已导入函数模块和授权角色 使用任何适当的事务(例如
SE80
和PFCG
)成功完成。
选项 2:在操作系统级层导入传输请求文件
- 以 SAP 管理员身份登录 SAP 系统。
将适当的请求添加到导入缓冲区:
tp addtobuffer TRANSPORT_REQUEST_ID SID
例如:
tp addtobuffer BW1K900054 DD1
导入传输请求:
tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
将
NNN
替换为客户端编号。例如:tp import BW1K900054 DD1 client=100 U1238
使用适当的事务(如
SE80
和PFCG
)验证函数模块和授权角色是否已成功导入。
必需的 SAP 授权
如要在 Cloud Data Fusion 中运行数据流水线,您需要 SAP 用户。SAP 用户必须是 Communications
或 Dialog
类型。为避免使用 SAP 对话框资源,建议使用 Communications
类型。SAP
管理员可以使用 SAP 事务代码 SU01
创建用户。
需要获得 SAP 授权才能为 SAP 配置连接器。 特定于连接器的 SAP 授权对象包含在 传输请求。按照说明导入授权角色传输 安装 SAP 传输,将该 Role 部署到 系统并通过 PFCG 事务代码生成角色。
对于标准 SAP 授权对象,您的组织会管理权限 且拥有自己的安全机制您可以根据贵组织的安全政策维护授权对象。
创建流程链 (PC) 和数据传输流程 (DTP)
创建进程链和数据传输过程需要一些额外的操作 技能和背景知识。
背景概念
如需创建或修改 PC 和 DTP,请使用 SAP HANA Studio。
必备技能
- 您已使用转换来定义来源之间的数据流 和目标对象。
- 您熟悉基本 BW 和 HANA 概念,例如 DataStore 对象 (DSO)、数据转换、InfoCube、查询优化、HANA 建模和使用 HANA Studio 的 HANA 数据库功能。如需详细了解这些概念 请参阅有关 BW 和 HANA 的 SAP 教程。
提取类型
数据传输流程有两种数据提取模式:完整和增量。
完整:根据过滤条件选择来源中所有可用的数据 条件。如果数据来源是 以下 InfoProvider,只有完全提取模式可用:
- InfoObjects
- InfoSet
- 用于直接更新的 DataStore 对象
增量值:与 InfoPackage 不同,使用 DTP 进行增量传输不需要 显式初始化。使用增量提取执行 DTP 时 模式下,在提取之前的所有现有请求都会 然后自动初始化 Delta 值。
以下选项适用于提取模式为 Delta 的 DTP:
- 只获取一次 Delta 值
- 通过请求获取所有新数据请求
- 检索直至不再有新数据
软件包大小 (Package size):这是单个
数据包。默认值为 50,000
。
创建进程链
如需创建进程链 (PC),请在 SAP GUI 中使用事务 RSPC。定义 然后添加流程步骤和 DTP。如需了解详情,请参阅有关创建流程链的 SAP 文档。
HANA Studio 提供了各种用于监控和管理 PC 的选项。 如需了解详情,请参阅 SAP BW/4HANA 流程链运营。
使用进程链创建数据传输流程
前往您要用于数据传输流程的流程链的规划视图。在规划视图中,您可以使用 HANA Studio。如需了解详情,请参阅 创建数据传输流程。
如需详细了解配置选项,请参阅关于数据传输流程 (DTP) - SAP BW 7。
RFC 连接
如需通知回调系统(例如 SAP BW Open Hub Batch Source 插件),请执行以下操作: 必须更新进程链以使用 RFC 目标页面:
在 SM59 中,创建一个 TCP/IP 连接类型的 RFC 连接, 在 BI 中完成数据加载后,从 BW 通知目标系统。
双击 RFC 连接,确保在 RFC 连接中配置了计划 ID。每个 RFC 目标的 Program ID 必须是唯一的,以避免运行时监听器冲突。
使用进程链中新创建的 TCP/IP 连接来发送 通知,以便完成 Cloud Data Fusion 批量作业。名称 则进程链不区分大小写。必须在 在端到端集成流程中需要使用大写形式。
显示进程链和数据传输进程的日志
转到“Tcode : RSPC”,然后点击 Process Chains。
右键点击要显示其日志的进程链,然后 点击显示日志。
使用进程链时配置 Dataproc 集群
如需启用通过 RFC 服务器通信,您必须添加 SAP 网关端口
/etc/services
文件中的条目。
建议使用 init action
,
初始化集群时要执行的脚本。如需更多信息
请参阅初始化操作。
创建脚本文件并将其保存到 Cloud Storage 存储桶。以下 示例显示了脚本文件的内容:
gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services
在前面的示例中,请注意以下几点:
条目采用
sapgwxx 33xx/tcp
格式,其中XX
是 SAP 实例编号。已添加 SAP 实例
00
到04
的端口。
如果您使用的是临时解决方案或新创建的 或现有的永久性 Dataproc 集群。
临时 Dataproc 集群
如果您使用的是临时 Dataproc 集群,请将 init
脚本路径添加到
集群属性:
- 在作业监控器的 Cloud Data Fusion 的“流水线”页面中, 点击配置。
- 选择计算配置文件,然后点击自定义。
- 在高级设置下的初始化操作字段中,输入
init
脚本的路径。
新的永久性 Dataproc 集群
如果您使用的是新创建的永久性 Dataproc 集群,请使用 init
脚本来创建集群。例如:
gcloud dataproc clusters create cluster-name \
--region=${REGION} \
--initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
... other flags ...
现有的永久性 Dataproc 集群
如果您使用的是现有的永久性 Dataproc 集群,请按照以下步骤操作:
如果您已在未使用 init
脚本的情况下创建集群,
然后在
Dataproc 集群。
- 通过 SSH 连接到主节点和集群节点。
- 登录根用户 ID。
- 前往
/etc/
,然后在 VI 编辑器中打开/etc/services
文件。 - 添加条目
sapgwxx 33xx/tcp
。将xx
替换为您的 SAP 实例 数字。 - 保存
/etc/services
文件。
设置 Cloud Data Fusion
确保 Cloud Data Fusion 之间的通信已启用 和 SAP 服务器之间的通信。对于专用实例,请设置网络对等互连。在与 SAP 系统所在的项目建立网络对等互连后 无需额外配置即可连接到您的 Cloud Data Fusion 实例。SAP 系统和 Cloud Data Fusion 实例必须位于同一项目中。
Cloud Data Fusion 用户需执行的步骤
- 转到实例详情:
在 Google Cloud 控制台中,转到 Cloud Data Fusion 页面。
点击实例,然后点击相应实例的名称以转到实例详情页面。
- 检查实例是否已升级到 6.8.0 或更高版本。如果 实例为早期版本,则必须进行升级。
- 打开实例。当 Cloud Data Fusion 界面打开时,点击 Hub。
- 依次选择 SAP 标签页 > SAP。 如果看不到“SAP”标签页,请参阅 排查 SAP 集成问题。
- 点击部署 SAP BW 插件。 该插件会显示在 Studio 页面的来源菜单中。
SAP Admin 和 Google Cloud Admin 的操作步骤
SAP 管理员从 SAP 支持网站下载以下 JCo 工件并将其提供给 Google Cloud 管理员。
- 一个独立于平台 (
sapjco3.jar
) - 一个依赖于平台(在 Unix 上为
libsapjco3.so
)
如需下载文件,请按以下步骤操作:
- 前往 SAP 连接器 页面。
- 点击 SAP Java 连接器/工具和服务。您可以选择特定于平台的下载链接。
选择 Cloud Data Fusion 实例运行的平台:
- 如果您为自己项目中的虚拟机使用标准 Google Cloud 映像, (这是 Cloud Data Fusion 的默认集群),请选择 适用于 Intel 兼容处理器 64 位 x86 的 Linux。
- 如果您使用自定义映像,请选择相应的平台。
Google Cloud 管理员必须将 JCo 文件复制到 Cloud Storage 存储桶。提供 Cloud Data Fusion 用户,请将其输入到相应的插件属性中 (在 Cloud Data Fusion 中):SAP JCo 库 GCS 路径。请参阅 配置插件。
Google Cloud 管理员必须将这两个文件的读取权限授予设计环境的 Cloud Data Fusion 服务账号和执行环境的 Dataproc 服务账号。如需了解详情,请参阅 Cloud Data Fusion 服务账号。
配置插件
SAP BW Open Hub Batch Source 插件可以读取 SAP DataSource。
如要过滤记录,您可以为 SAP BW Open Hub Batch Source 配置以下属性。
以下指示器用于定义字段:
- (M):表示相应的字段支持宏
- (O):可选字段
标签:画布上的插件标签。
基本
在下面的属性列表中,(M) 表示该选项支持宏, 可用于集中管理 SAP 连接。例如,您 可以使用宏作为连接属性,并在运行时设置值 使用运行时参数或 Argument Setter 插件。
- 参考名称:用于唯一标识此沿袭来源的名称 以及为元数据添加注释
使用连接(开启/关闭切换开关):是否使用现有连接 (请参阅管理关联)。 如果您选择使用现有连接,则无需提供任何 SAP 连接详细信息。
Connection(浏览连接):选择要使用的现有连接。 您还可以使用宏函数
${conn(connection-name)}
。SAP 客户端 (M):要使用的 SAP 客户端。例如
100
。SAP Language (M):SAP 登录语言。例如
EN
。连接类型:SAP 连接类型 - 直接或负载均衡。 基于进程链的进程链不支持负载均衡连接 提取。如需了解详情,请参阅支持详细信息。
选择连接类型会更改可用字段。
对于直接连接,可使用以下字段:
- SAP Application Server Host (M):SAP 服务器名称或 IP 地址。
- SAP 系统编号 (M):SAP 系统编号。例如
00
。 - SAP 路由器 (M、O):路由器字符串。
对于负载均衡连接,可以使用以下字段:
- SAP Message Server Host (M):SAP 消息主机名或 IP 地址。
- SAP 消息服务器服务或端口号 (M):SAP 消息服务器服务或端口号。例如
sapms02
。 - SAP System ID (SID) (M):SAP 系统 ID。例如
N75
。 - SAP Logon Group Name (M):SAP 登录组名称。例如
PUBLIC
。
Use Process Chain (M):此字段包含两个选项。
如果您使用 Yes 选项启用进程链,则以下内容: 属性:
自动解决 PC 和 DTP 错误:控制在 会识别之前失败的运行停用后,该插件 生成具有相关错误的流水线。启用(默认)后,该插件会检查 SAP 中的流程链和数据传输流程状态。如果存在 插件会自动尝试 解决它们:
Data Transfer Process in error state
:插件删除上一个请求处于红色状态且错误为
previous request status has not been set
的进程链: 插件在获取请求 ID 后删除屏蔽请求 然后尝试运行 PC。进程链状态通知等待时间(分钟)(M、O): 等待指定时间(以分钟为单位),让进程链完成 数据暂存,并通知流水线开始提取。如果您指定
0
或留空,该值采用 10 分钟的默认值,该值为默认值。流程链 (M):SAP 流程链名称。例如
PC_RFC
。
如果使用 No 选项停用进程链,系统会启用以下属性:
- Open Hub Destination (M):要读取的 Open Hub 目标名称。
- 请求 ID (M,O):已运行的数据传输流程的请求 ID。
凭据
SAP JCo 详细信息
- GCP 项目 ID (M):用于唯一标识项目的 Google Cloud 项目 ID。您可以在 Google Cloud 控制台。
- SAP JCo 库 GCS 路径 (M):包含 用户上传的 SAP JCo 库文件。
- Get Schema:如果您希望插件生成架构,请点击此按钮 基于 SAP 的元数据,并自动映射 SAP 数据类型 与相应的 Cloud Data Fusion 数据类型相关联。 其作用与验证按钮相同。
如需详细了解客户端证书,请参阅在 SAP NetWeaver 应用服务器上将 X.509 客户端证书用于 ABAP。
高级
要生成的拆分数量 (M、O):拆分数量用于 对输入数据进行分区。分区越多,并行级别就越高,但需要的资源和开销也越多。对于本地 SAP 应用, 系统,如果界面中未指定该值,则拆分为 SAP 中可用的对话工作流。否则,优化分块 与用户指定的 50% 的可用工作流程进行比较。
建议:除非您熟悉 SAP 系统设置,否则请将此属性留空。
其他 SAP 连接属性 (M, O):设置用于替换 SAP JCo 默认值的其他 SAP JCo 属性。例如: 设置
jco.destination.pool_capacity = 10
会替换默认连接 存储容量下表列出了支持的 SAP JCo 属性:
属性 说明 jco.destination.peak_limit
可同时为目标位置创建的活跃连接的数量上限。 jco.destination.pool_capacity
目标保持打开状态的空闲连接数上限。值 0
的机制会导致没有连接池, 也就是说,连接会在每次请求后关闭。jco.destination.expiration_time
ms
中的时间,在此时间过后,内部池中保持的连接可以关闭。jco.destination.expiration_check_period
超时检查工具线程检查的时间间隔( ms
中的时间间隔) 池中的连接到期。jco.destination.max_get_client_time
ms
中等待连接的最长时间(如果最大值) 允许的连接数。
数据提取模式的行为
数据提取模式通过数据传输流程进行控制 设置。使用进程链与使用 打开 Hub 目标位置。
使用处理链时
数据传输处理级别的设置可控制是完整增量还是增量 。请求 ID 会以通知形式从 SAP 发送到 插件。插件会读取与此单个请求 ID 关联的数据包数据。
使用没有请求 ID 的 Open Hub 目标时
满载:首次运行流水线可获得所有可用数据, Open Hub 表中的请求 ID。该插件会读取与这些请求 ID 关联的数据包数据。
增量加载:下次运行相同的流水线时,系统会在上次提取的请求 ID 之后提取所有可用的增量请求 ID。插件 读取与这些请求 ID 关联的数据包数据。
通过请求 ID 使用 Open Hub 目标时
满载:首次运行流水线可获得所有后续可用流水线 请求 ID 大于指定请求 ID 的请求 ID。插件读取数据包数据 与这些请求 ID 相关联。
增量加载:下次运行同一流水线时,会提取所有 可用的增量请求 ID。插件会 与这些请求 ID 相关联的数据包数据。
数据类型映射
下表显示了 SAP BW 中使用的数据类型与 Cloud Data Fusion。
黑白数据类型 | ABAP 类型 | 说明 (SAP) | Cloud Data Fusion 数据类型 | |
---|---|---|---|---|
数字 | ||||
INT1 | b |
1 个字节的整数 | integer |
|
INT2 | s |
2 个字节的整数 | integer |
|
INT4 | i |
4 个字节的整数 | integer |
|
INT8 | 8 |
8 个字节的整数 | long |
|
12 月 | p |
打包成采用 BCD 格式的数字 (DEC) | decimal |
|
DF16_DEC DF16_RAW |
a |
十进制浮点 8 字节 IEEE 754r | decimal |
|
DF34_DEC DF34_RAW |
e |
十进制浮点 16 字节 IEEE 754r | decimal |
|
FLTP | f |
二进制浮点数 | double |
|
字符 | ||||
CHAR LCHR |
c |
字符串 | string |
|
第 串 GEOM_EWKB |
string |
字符串 | string |
|
STRING | string |
字符串 CLOB | bytes |
|
NUMC ACCP |
n |
数字文本 | string |
|
Byte | ||||
RAW LRAW |
x |
二进制数据 | bytes |
|
RAWSTRING | xstring |
字节字符串 BLOB | bytes |
|
日期/时间 | ||||
DATS | d |
日期 | date |
|
TIMS | t |
时间 | time |
|
TIMESTAMP | utcl |
TimeStamp Utclong |
timestamp |
验证
点击验证或获取架构。
该插件会验证属性,并根据 SAP 中的元数据生成架构。它还会自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型。
运行数据流水线
- 部署流水线后,点击配置。
- 选择资源。
- 如果需要,请根据整体数据大小和流水线中使用的转换数量来更改执行器 CPU 和内存。
- 点击保存。
- 如需启动数据流水线,请点击运行。
优化性能
优化插件配置
运行流水线时,请使用以下属性以获得最佳性能:
Cloud Data Fusion 插件属性中的要生成的分片数:这直接控制 Cloud Data Fusion 端的并行性。运行时引擎会在提取表记录时创建指定数量的分区和 SAP 连接。值 建议介于
8
到16
之间,但最高可增加32
或64
通过在 SAP 端进行适当的配置, 为 SAP 中的工作进程分配内存资源。如果值为
0
或留空(推荐),则系统会自动 根据可用的 SAP 工作数量选择合适的值, 要提取的记录和软件包大小。BW Data Transfer Process 属性中的 Package Size:用于控制 单个数据包中的数据记录数。默认值为
50,000
。提高此值可能会带来更好的效果, 从而增加资源负载如果您已经在使用较高的值,请将其降低,以便更好地并行执行提取操作。
Cloud Data Fusion 资源设置
建议:每个执行器使用 1 个 CPU 和 4 GB 内存。此值 适用于每个执行器进程。在 配置 > 资源对话框。
Dataproc 集群设置
推荐:至少,分配的 CPU 总数(在多个工作器之间)要大于预期的分片数量。请参阅 插件配置。
例如,如果您有 16 个分块,总共定义 20 个或更多 CPU, 所有工作器系统会计算 4 个 CPU 的开销, 协调。
推荐:使用永久性 Dataproc 集群来缩短数据流水线运行时。这样可以省去配置步骤 几分钟或更长时间。在 Compute Engine 配置部分中设置此项。
支持详情
支持的 SAP 产品和版本
支持的来源:
- SAP NW BW 7.5 及更高版本
- SAP BW4HANA 2.0 SP9(包含 Open Hub Destination API;更早版本 BW4HANA 版本不支持 Open Hub Destination API)
支持 SAP 负载均衡(消息服务器)连接
Open Hub 支持 SAP 负载均衡(消息服务器)连接 基于目的地的提取,不使用 RFC 服务器。
基于流程链的提取不支持 SAP 负载均衡 (Message Server) 连接。原因在于 SAP 在提供
向客户端系统发送 data ready
通知,这需要注册
BW 环境中每个 SAP 服务器上的 RFC 服务器(插件监听器),增加
并且可能影响 SAP 性能和
资源使用情况。如需了解详情,请参阅
SAP 说明 2572564
(需要登录 SAP 支持才能查看)。
受支持的 SAP 部署模型
我们已使用部署在 Google Cloud 上的 SAP 服务器对该插件进行测试。
支持的 SAP 对象
Open Hub 目标位置的数据源:InfoProvider(InfoObject、InfoCube、 DataStore 对象、高级数据存储对象、复合提供程序)
用于将数据传输流程自动执行到 Open 辐射目的地。
使用 Oracle HTTP Server 从 SAP 提取数据的单独许可
您无需另外获得许可即可使用 Oracle HTTP 服务器 (OHS) 从 SAP 提取数据;不过,请联系您的 SAP 代表 具体协议和用例。
预期的插件吞吐量
对于根据优化性能中的指南配置的环境,插件可以每小时提取大约 38 GB。实际效果可能会因 Cloud Data Fusion 和 SAP 系统负载或网络流量。
后续步骤
- 详细了解 Cloud Data Fusion。
- 详细了解 SAP on Google Cloud。