SAP ODP 插件概览

本指南介绍如何部署、配置和运行使用 SAP ODP 插件的数据流水线。您可以通过操作数据预配 (ODP) 将 SAP 用作在 Cloud Data Fusion 中基于批次和增量数据提取的来源。

此插件支持从 SAP 应用程序与 Cloud Data Fusion 进行批量数据集成。您无需编写代码即可配置和执行从 SAP DataSources 开始的批量数据传输。

如需了解支持的 SAP 应用和用于提取的 DataSource,请参阅常见问题解答。如需详细了解 SAP on Google Cloud,请参阅 SAP on Google Cloud 概览

目标

  • 配置 SAP ERP 系统(在 SAP 中激活 DataSource)。
  • 在 Cloud Data Fusion 环境中部署插件。
  • 从 Cloud Data Fusion 下载 SAP 传输文件并将其安装在 SAP 中。
  • 使用 Cloud Data Fusion 和 SAP ODP 创建用于集成 SAP 数据的数据流水线。

准备工作

要使用此插件,您需要具备以下方面的领域知识:

用户角色

此页面上的配置任务需要在 SAP 系统和 Google Cloud 中进行更改。您需要与这些系统的管理员合作来完成配置。

表 1:用户角色

用户类型 说明
Google Cloud Admin 分配有此角色的用户是 Google Cloud 帐号的管理员。
CDF User 分配有此角色的用户有权设计和运行数据流水线。这些角色至少被授予了 Cloud Data Fusion Viewer ([roles/datafusion.viewer](data-fusion/docs/access-control#roles)) 角色。如果您使用的是基于角色的访问权限控制,则可能需要 [additional roles](/data-fusion/docs/concepts/rbac#predefined-roles)。
SAP 管理员 分配有此角色的用户是 SAP 系统的管理员。他们可以从 SAP 服务网站下载软件。它不是 IAM 角色。
SAP 用户 分配有此角色的用户有权连接到 SAP 系统。它不是 IAM 角色。

ODP 提取的前提条件

  1. 必须在 SAP 系统中激活 DataSource。

  2. 必须在 DataSource 中填充数据。

  3. 必须启用 DataSource 才能进行 ODP 提取。要检查其是否已启用,请按以下步骤操作:

    1. 登录 SAP 系统。转到 t-code SE16N。
    2. 提供表名称 ROOSATTR 并在 OLTPSOURCE 中输入 DataSource 名称。
    3. 点击执行 (Execute),或按 F8
    4. 如果 EXPOSE_EXTERNAL 字段标记为 X,则 DataSource 可用于 ODP 提取。
  4. 如果此表中未列出 DataSource,或 EXPOSE_EXTERNAL 字段为空,请按照以下步骤公开 ODP 提取的 DataSource:

    1. 登录 SAP 系统。转到 t-code SA38。
    2. 提供程序名称 RODPS_OS_EXPOSE,然后点击执行
    3. 提供 DataSource 名称,然后点击释放 DataSource
    4. 保存对传输所做的更改。

数据提取模式

该插件支持以下数据提取模式:

  • 完整:提取所有数据。
  • 同步:根据 SAP 中先前的执行状态,确定是否对当前执行使用完整(所有数据)、增量(增量更改)或恢复(重复上次执行)提取模式。

DataSource 可过滤列

只有部分 DataSource 列可用于过滤条件(这是设计上的 SAP 限制)。

要获取字段信息,请按以下步骤操作:

  1. 登录 SAP 系统。转到 t-code RSA3。
  2. 提供 DataSource 名称,然后按 Enter

    您可以使用选择部分中显示的字段作为过滤条件。支持的操作包括等于介于(范围)。

配置 SAP ERP 系统

SAP ODP 使用远程函数模块 (RFM),它需要在提取数据的每个 SAP 服务器上安装。此 RFM 以 SAP 传输形式交付。

如需配置 SAP 系统,请按照以下步骤操作:

  1. Cloud Data Fusion 用户必须下载包含 SAP 传输的 zip 文件并将其提供给 SAP 管理员。如需下载此文件,请使用 Hub 中插件提供的链接。请参阅设置 Cloud Data Fusion
  2. SAP 管理员必须将 SAP 传输导入到 SAP 系统中并验证创建的对象。如需了解详情,请参阅安装 SAP 传输
  3. SAP 用户可以导入授权传输,也可以根据授权对象创建授权角色。如需详细了解授权对象,请参阅必需的 SAP 授权

激活 DataSource

如需提取数据,必须在来源 SAP 系统中激活 DataSource。要在 SAP 中激活 DataSource,请按照以下步骤操作:

  1. 转到事务代码 RSA5
  2. 展开 DataSources 列表。
  3. 点击搜索
  4. 提供 DataSource 名称,然后点击 Enter 键
  5. 如果搜索成功,则 DataSource 会显示在结果列表中。

    选择 DataSource 名称,然后点击 Enter 键

  6. 选择 DataSource 并点击激活 DataSource

  7. 创建对象目录条目对话框中,输入软件包名称,然后点击保存

  8. 提示可传输工作台请求对话框的请求字段中输入传输编号。点击 Enter 键

    在 SAP 中激活了所选的 DataSource。

安装 SAP 传输文件

需要 SAP 组件才能在 Cloud Data Fusion 中设计和运行数据流水线。它们以归档为 zip 文件的 SAP 传输文件的形式传送(一个传输请求由一个 cofile 和一个数据文件组成)。

传输请求 ID 和关联的文件在下表中提供:

表 2:SAP 传输

传输 ID Cofile 数据文件 内容
DE3K900057 K900057.DE3 R900057.DE3 启用了 RFC 的函数模块
DE3K900042 K900042.DE3 R900042.DE3 授权角色

将传输导入 SAP 系统后,系统会创建以下 SAP 对象:

  • 启用 RFC 的函数模块
    • /GOOG/ODP_DS_EXTRACT_DATA
    • /GOOG/ODP_DS_FETCH_DATA
    • /GOOG/ODP_DS_METADATA
  • 授权角色/GOOG/ODP_AUTH

如需安装 SAP 传输,请按照以下步骤操作:

第 1 步:上传传输请求文件

  1. 以 SAP 系统管理员身份登录 SAP 系统。
  2. 将 cofiles 复制到 /usr/sap/trans/cofiles 文件夹。
  3. 将数据文件复制到 /usr/sap/trans/data 文件夹。

第 2 步:导入传输请求文件

SAP 管理员可以使用以下任一选项导入传输请求文件:

选项 1:使用 SAP 传输管理系统导入传输请求文件
  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 输入事务 STMS。
  3. 点击概览 > 导入
  4. 在“队列”列中,双击当前 SID。
  5. 依次点击 Extras > 其他请求 > 添加
  6. 选择传输请求 ID,然后点击继续
  7. 在导入队列中选择传输请求,然后点击请求>导入
  8. 输入客户端编号。
  9. 选项标签页上,选择覆盖原始内容忽略无效组件版本(如果有)。

    (可选)如需安排稍后重新导入传输,请选择将传输请求保留在队列中以供稍后导入再次导入传输请求。这对于 SAP 系统升级和备份恢复非常有用。

  10. 点击继续

  11. 要验证导入作业,请使用 SE80SU01 等事务。

选项 2:在操作系统级层导入传输请求文件
  1. 以 SAP 系统管理员身份登录 SAP 系统。
  2. 通过运行以下命令向导入缓冲区添加适当的请求:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    例如:tp addtobuffer IB1K903958 DD1

  3. 通过运行以下命令导入传输请求:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    NNN 替换为客户端编号。例如:tp import IB1K903958 DD1 client=800 U1238

  4. 使用适当的事务(如 SE80SU01)验证函数模块和授权角色是否已成功导入。

必需的 SAP 授权

如要在 Cloud Data Fusion 中运行数据流水线,您需要 SAP 用户。SAP 用户必须是 CommunicationsDialog 类型。为避免使用 SAP 对话框资源,建议使用 Communications 类型。可以使用 SAP 事务代码 SU01 创建用户。

为 SAP 用户分配授权角色,使其能够在 Cloud Data Fusion 中设计和运行数据流水线。您可以分配授权角色 /GOOG/ODP_AUTH,它包含在随插件提供的 SAP 传输中,或者在 SAP 中手动创建授权角色。

如要手动创建授权角色,请按以下步骤操作:

  1. 在 SAP GUI 中,输入事务代码 PFCG 以打开角色维护窗口。
  2. 角色字段中,输入角色的名称。

    例如:zcdf_role

  3. 点击单个角色

    此时会打开创建角色窗口。

  4. 说明字段中,输入说明,然后点击保存

    例如:Authorizations for SAP ODP plugin

  5. 点击授权标签页。窗口的标题将更改为更改角色

  6. 编辑授权数据并生成配置文件下,点击 更改授权数据

    这时会打开选择模板窗口。

  7. 点击不选择模板

    这时会打开更改角色:授权窗口。

  8. 点击手动

  9. 提供以下 SAP 授权表中显示的授权。

  10. 点击保存

  11. 要激活授权角色,请点击生成图标。

表 3:SAP 授权

对象类 对象类文本 授权对象 授权对象文本 授权 文本
AAAB 跨应用授权对象 S_RFC RFC 访问权限授权检查 ACTVT 活动 16
AAAB 跨应用授权对象 S_RFC RFC 访问权限授权检查 RFC_NAME 允许访问的 RFC 对象名称 /GOOG/CDF_ODP_FG,
/GOOG/ODP_DS_EXTRACT_DATA,
/GOOG/ODP_DS_FETCH_DATA,
/GOOG/ODP_DS_METADATA,
DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FUNCTION_INTERFACE,
RODPS_REPL_ODP_CLOSE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAAB 跨应用授权对象 S_RFC RFC 访问权限授权检查 RFC_TYPE 允许访问的 RFC 对象类型 FUGR
FUNC
AAAB 跨应用授权对象 S_TCODE 事务开始时检查事务代码 TCD 事务代码 SM50
BC_A 基础:管理 S_ADMI_FCD 系统授权 S_ADMI_FCD 系统管理功能 PADM,
ST0R
BC_A 基础:管理 S_BTCH_ADM 后台处理:后台管理员 BTCADMIN 后台管理员 ID Y
BC_A 基础:管理 S_BTCH_JOB 后台处理:对后台作业的操作 JOBACTION 作业操作 RELE
BC_A 基础:管理 S_BTCH_JOB 后台处理:对后台作业的操作 JOBGROUP 群组的作业总结 RELE
RO 授权:BW Service API S_RO_OSOA SAP DataSource 授权 ACTVT 活动 03
RO 授权:BW Service API S_RO_OSOA SAP DataSource 授权 OLTPSOURCE DataSource (OSOA/OSOD) *
RO 授权:BW Service API S_RO_OSOA SAP DataSource 授权 OSOAAPCO DataSource 的应用组件 (OSOA/OSOD) *
RO 授权:BW Service API S_RO_OSOA SAP DataSource 授权 OSOAPART DataSource 的子对象 DATA
*如要限制用户通过特定 DataSource 运行 ODP 流水线,对于授权对象 S_RO_OSOA,请勿使用星号 (*)。请改为在 OLTPSOURCE 中提供所需的 DataSource 名称(例如 2LIS_02_ITM, 0MATERIAL_ATTR)。

设置 Cloud Data Fusion

确保 Cloud Data Fusion 实例和 SAP 服务器之间启用了通信。对于专用实例,请设置网络对等互连。在与托管 SAP 系统的项目建立网络对等互连后,无需额外配置即可连接到 Cloud Data Fusion 实例。SAP 系统和 Cloud Data Fusion 实例需要位于同一项目中。

Cloud Data Fusion 用户步骤

要为插件配置 Cloud Data Fusion 环境,请执行以下操作:

  1. 在 Google Cloud Console 中,转到 Cloud Data Fusion 实例页面。

    转到实例

  2. 选择所需的实例。

    实例详情页面会打开。

  3. 确保实例已升级到 6.4.0 或更高版本。如果实例为早期版本,则需要升级。

  4. 打开实例。当 Cloud Data Fusion 界面打开时,点击 Hub

  5. 选择 SAP 标签页 > SAP ODP

    如果 SAP 标签页未显示,请参阅排查 SAP 集成问题

  6. 点击部署 SAP ODP 插件

    该插件现在会显示在 Studio 页面的来源菜单中。

SAP Admin 和 Google Cloud Admin 步骤

SAP 管理员从 SAP 支持网站下载以下 JCo 工件并将其提供给 Google Cloud 管理员。

  • 一个与平台无关 (sapjco3.jar)
  • 一个依赖于平台(在 Unix 上为 libsapjco3.so)

如需下载文件,请运行以下命令:

  1. 转到 SAP 连接器页面。

  2. 点击 SAP Java 连接器/工具和服务。您可以选择特定于平台的下载链接。

  3. 选择 Cloud Data Fusion 实例运行的平台:

    1. 如果您针对集群中的虚拟机使用标准 Google Cloud 映像(Cloud Data Fusion 的默认设置),请选择适用于与 Intel 兼容的处理器 64 位 x86 的 Linux
    2. 如果您使用自定义映像,请选择相应的平台。
  4. Google Cloud 管理员必须将 JCo 文件复制到可读的 Cloud Storage 存储桶。提供 Cloud Data Fusion 用户的存储桶路径,以在 Cloud Data Fusion 的相应插件属性中输入该路径:SAP JCo 库 GCS 路径(请参阅配置插件)。

  5. Google Cloud 管理员必须将这两个文件的读取权限授予设计环境的 Cloud Data Fusion 服务帐号和执行环境的 Dataproc 服务帐号。如需了解详情,请参阅 Cloud Data Fusion 服务帐号

配置插件

SAP ODP 插件读取 SAP DataSource 的内容。

如要过滤记录,您可以为 SAP ODP 配置以下属性。

基本

  • 参考名称:用于唯一识别此来源以进行沿袭,注释元数据等操作的名称。
  • SAP 客户端:要使用的 SAP 客户端(例如100)。
  • SAP 语言:SAP 登录语言(例如EN)。
  • 连接类型:SAP 连接类型(直接连接或负载平衡连接)。选择某种类型将更改以下可用的字段:

    对于直接连接 {:#direct-connection}:

    • SAP 应用服务器主机:SAP 服务器名称或 IP 地址。
    • SAP 系统编号:SAP 系统编号(例如,00)。
    • SAP 路由器:路由器字符串。

    对于负载平衡连接

    • SAP 消息服务器主机:SAP 消息主机名称或 IP 地址。
    • SAP 消息服务器服务或端口号:SAP 消息服务器服务或端口号(例如,sapms02)。
    • SAP 系统 ID (SID):SAP 系统 ID(例如,N75)。
    • SAP 登录群组名称:SAP 登录群组名称(例如,PUBLIC)。
  • SAP DataSource 名称:SAP DataSources 名称(例如 2LIS_02_ITM)。

  • 获取架构按钮:基于 SAP 的元数据生成架构,并自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型(与验证按钮功能相同)。

  • 提取类型:插件支持以下两种数据提取:

    • 完整(所有数据):提取所有可用数据。
    • 同步(基于上次执行的自动选择):根据 SAP 中可用的先前执行类型和状态确定是否应运行完整、增量(增量)或恢复(从上次执行中恢复)模式。它会提取初始流水线执行(ODP 模式 F)的完整数据,并更改后续流水线执行中的数据(ODP 模式 D、R)。

      如需了解详情,请参阅提取类型

凭据

  • SAP 登录用户名:SAP 用户名。推荐:如果 SAP 登录用户名定期更改,请使用
  • SAP 登录密码:SAP 用户密码。推荐:对用户密码等敏感值使用安全的宏

SAP JCo 详细信息

  • GCP 项目 ID:用于唯一标识项目的 Google Cloud 项目 ID。您可以在 Google Cloud Console 的“信息中心”中找到它。
  • SAP JCo 库 GCS 路径:包含用户上传的 SAP JCo 库文件的 Cloud Storage 路径。

高级

  • SAP ODP 订阅者名称:标识从有效 DataSource 中提取的数据的有效 ODP 订阅者订阅者。此名称不得超过 32 个字符,且不得包含任何空格,且只能包含 a-zA-Z0-9_/。对于从同一数据源提取数据的不同管道,它必须是唯一的。如果留空或未指定,则执行框架使用项目 ID、命名空间和流水线名称的默认组合。如果此默认值超过 32 个字符,插件会自动截断该值。

  • 过滤条件选项 (等于):定义字段必须读取的值。元数据字段名称及其值对的列表是过滤条件选项。它指定从 DataSource 读取数据时要应用的过滤条件。系统仅提取满足过滤条件的记录。过滤条件键对应于架构中的字段,且必须是简单类型(不是 ARRAYRECORDUNION)。

  • 过滤条件选项(范围):定义必须读取字段值的下限和上限。它的格式为低和高。元数据字段名称及其值对的列表是过滤条件选项。它指定从 DataSource 读取数据时要应用的过滤条件。系统仅提取满足过滤条件的记录。过滤条件键对应于架构中的字段,且必须是简单类型(不是 ARRAY、RECORD 或 UNION)。

  • 要生成的分片数量:创建分区以并行提取表记录。运行时引擎会在提取表记录时创建指定数量的分区(和 SAP 连接)。将此属性设置为大于 16 的数字时要小心,因为更高的并行性增加了与 SAP 的并发连接数。建议使用 816 之间的值。如果值为 0 或留空,则系统会根据可用执行程序的数量和要提取的记录以及软件包大小选择适当的值。

  • 软件包大小(以 KB 为单位):要在单个 SAP 网络调用中提取的记录数。这是每次网络提取调用期间 SAP 存储在内存中的记录数。多个提取数据的数据流水线可能会使内存用量达到峰值,并可能因 Out of Memory 错误而导致失败。设置此属性时请谨慎操作。

    请输入正整数。如果要提取的记录数量少于 70000,且为 0 或留空,则插件会使用标准值 70000(或正确计算的值)。

    如果数据流水线因 Out of Memory 错误而失败,请减小软件包大小或增加可用于 SAP 工作进程的内存。

配置流水线

对于具有大量拆分(大于 16 个)的大型数据集(例如,几百万条记录),SAP 系统可能会发送重复记录。为避免出现这种情况,建议您在 Cloud Data Fusion 流水线中使用以下其中一种重复信息删除方法。

这两种方法中,您都可以使用 DataSource 的键字段执行重复信息删除。

  • 如果您在流水线中使用 BigQuery 接收器,请在 BigQuery 接收器中使用 Upsert 模式。在 BigQuery 接收器插件的表键部分中提供键字段。

  • 如果您未在流水线中使用 BigQuery 接收器,请使用在 SAP ODP 源插件之后插入流水线中的“删除重复信息”插件。在“删除重复信息”插件的“唯一字段”部分中提供键字段。

数据类型映射

表 4:SAP 数据类型与 Cloud Data Fusion 类型之间的映射

SAP 数据类型 ABAP 类型 说明 (SAP) Java 数据类型 CDAP 数据类型
数字
INT1 b 1 个字节的整数 int Schema.Type.INT
INT2 s 2 个字节的整数 int Schema.Type.INT
INT4 i 4 个字节的整数 int Schema.Type.INT
INT8 8 8 个字节的整数 long Schema.Type.LONG
12 月 p 打包成采用 BCD 格式的数字 (DEC) BigDecimal Schema.LogicalType.DECIMAL
DF16_DEC、
DF16_RAW
a 十进制浮点 8 字节 IEEE 754r BigDecimal Schema.LogicalType.DECIMAL
DF34_DEC、
DF34_RAW
e 十进制浮点 16 字节 IEEE 754r BigDecimal Schema.LogicalType.DECIMAL
FLTP f 二进制浮点数 Double Schema.LogicalType.DOUBLE
字符
CHAR、
LCHR
c 字符串 String Schema.Type.STRING
SSTRING、
GEOM_EWKB
string 字符串 String Schema.Type.STRING
STRING string 字符串 CLOB Byte [] Schema.Type.BYTES
NUMC、
ACCP
n 数字文本 String Schema.Type.STRING
Byte
RAW、
LRAW
x 二进制数据 Byte [] Schema.Type.BYTES
RAWSTRING xstring 字节字符串 BLOB Byte [] Schema.Type.BYTES
日期/时间
DATS d 日期 Date Schema.LogicalType.DATE
TIMS t 时间 Time Schema.LogicalType.TIME_MICROS
TIMS utcl (Utclong)、
时间戳
Timestamp Schema.LogicalType.TIMESTAMP_MICROS

验证

点击右上角的验证,或者点击获取架构

该插件会验证属性,并根据 SAP 中的元数据生成架构。它还会自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型。

运行数据流水线

  1. 部署流水线后,请点击顶部中心面板上的配置
  2. 选择资源
  3. 如果需要,请根据整体数据大小和流水线中使用的转换数量来更改执行器 CPU内存
  4. 点击保存
  5. 如需启动数据流水线,请点击运行

优化性能

该插件使用 Cloud Data Fusion 的同时载入功能。以下指南可帮助您配置运行时环境,以便为运行时引擎提供足够的资源,以实现预期的并行度和性能。

优化 SAP 配置

推荐:使用 SAP 通信用户,而不是对话框用户(这会使用较少的 SAP 系统资源)。此外,如果消息服务器可用在您的环境中,请使用负载平衡 SAP 连接,而不是直接连接。

如果您为分片数和软件包大小指定了值,则插件可以调整这些值,以免耗尽可用的 SAP 工作进程和内存。以下是所用 SAP 资源的上限:

  • 50% 的可用工作进程
  • 每个工作进程有 70% 的可用内存

优化插件配置

推荐:除非您对 SAP 系统的内存设置熟悉,否则请将要生成的分片数软件包大小留空。默认情况下,系统会自动调整这些值以获得更好的性能。

运行流水线时,请使用以下属性来确保获得最佳性能:

  • 要生成的分片数:这直接控制 Cloud Data Fusion 端的并行性。运行时引擎会在提取表记录时创建指定数量的分区(和 SAP 连接)。建议使用 816 之间的值,但是在 SAP 端进行适当的配置(为 SAP 中的工作进程分配适当的内存资源),最多可增加 32,甚至是 64

    如果值为 0 或留空,则系统会根据可用的 SAP 工作进程数量、要提取的记录以及软件包大小自动选择适当的值。

  • 软件包大小:在每次对 SAP 的网络调用中获取的每个数据包的大小(以字节为单位)。大小较小会导致频繁的网络调用重复相关开销。较大的软件包大小 (> 100 MB) 可能会减慢数据检索速度。0 或无输入默认为 50 MB。

提取类型

  • 如果提取类型为 Full,则插件始终从 DataSource 请求完整数据。
  • 如果提取类型为 Sync,则插件首先检查 SAP 中先前执行的状态。
    • 如果之前未执行,请选择完整 (F) 数据。
    • 如果之前的执行类型为完整 (F):
      • 如果执行成功完成,请在增量 (D) 模式下运行当前模式。
      • 否则,以完整 (F) 模式运行当前模式。这样可以恢复以前错误的数据。
    • 如果上一个执行类型是增量 (D) 或恢复 (R) 模式:
      • 如果执行成功完成,请在增量 (D) 模式下运行当前模式。
      • 否则,请在恢复 (R) 模式下运行当前模式。这样便可错误恢复之前的增量数据。

从同一 DataSource 提取多个流水线

目前不支持此功能。一次只能有一个流水线从一个 DataSource 中提取数据。

推荐:将 SAP ODP 订阅者名称字段留空,且不能运行多个从同一 DataSource 中提取数据的流水线。

Cloud Data Fusion 资源设置

推荐:每个执行器使用 1 个 CPU 和 4 GB 内存(此值适用于每个执行器进程)。请在配置 > 资源对话框中设置这些资源。

Dataproc 集群设置

推荐:分配的最少 CPU 总数(在多个工作器之间)要大于预期的分片数量(请参阅插件配置)。例如,如果您有 16 个分片,则在所有工作器之间定义 20 个或更多 CPU(分配 4 个用于协调的 CPU)。

推荐:使用永久性 Dataproc 集群来减少数据流水线运行时(这消除了可能需要几分钟或更长时间的预配步骤)。在 Compute Engine 配置部分中设置此项。

常见问题解答

支持哪些 SAP 产品和版本?

支持的来源:

  • SAP S4/HANA 1909 及更高版本。
  • SAP ERP6 NW 7.31 SP16 及更高版本。导入 SAP 说明 2232584 以在系统上启用其他 DataSource。
  • 基于 NW 7.31 SP16 或更高版本的 SAP ERP 系统。

支持哪些 SAP 部署模型?

该插件已使用在 Google Cloud 上部署的 SAP 服务器进行测试。

支持提取哪些类型的 SAP DataSource 进行提取?

该插件支持以下 DataSource 类型:

  • 交易数据
  • 主数据
  • 特性
  • 文本
  • 层次结构

使用此插件之前,是否有需要实现的 SAP 说明?

如果您需要启用其他 DataSource,请为 ERP6 系统实施以下备注:2232584:发布用于 ODP 复制的 SAP 提取器 (ODP SAPI)。此外部网站需要 SAP 登录。

数据量或记录宽度是否有限制?

对提取的行数或 DataSource 的大小没有定义限制。我们已经测试了在一次流水线运行中提取的多达 3.06 亿行,记录宽度为 1 KB。

什么是预期的插件吞吐量?

对于根据优化性能部分中的指南配置的环境,插件可以提取大约 38 GB/小时的数据。实际性能可能会因 CDF 和 SAP 系统负载、网络流量等而异。

后续步骤