SAP BW Open Hub 批处理来源

本指南介绍如何部署、配置和运行使用 SAP BW Open Hub Batch Source 插件的数据流水线。您可以将 SAP 用作在 Cloud Data Fusion 中通过 BW Open Hub Service 提取批量数据和增量数据提取数据的来源。

此插件支持从 SAP 应用程序与 Cloud Data Fusion 进行批量数据集成。您无需编写代码即可配置和执行从 SAP DataSources 开始的批量数据传输。

如需了解受支持的 SAP 应用和用于提取的对象,请参阅支持详情。如需详细了解如何在 Google Cloud 上运行 SAP,请参阅 SAP on Google Cloud 概览

目标

  • 配置 SAP BW 系统。
  • 在 Cloud Data Fusion 环境中部署插件。
  • 从 Cloud Data Fusion 下载 SAP 传输文件并将其安装在 SAP 中。
  • 使用 Cloud Data Fusion 和 SAP BW Open Hub 批处理来源创建数据流水线,以便集成 SAP 数据。

准备工作

如需使用此插件,您需要具备以下方面的领域知识:

用户角色

此页面上的任务由 Google Cloud 或 SAP 系统中具有以下角色的人员执行:

用户类型 说明
Google Cloud 管理员 获分此角色的用户是 Google Cloud 帐号的管理员。
Cloud Data Fusion 用户 获分此角色的用户有权设计和运行数据流水线。他们至少被授予了 Data Fusion Viewer (roles/datafusion.viewer) 角色。如果您使用的是基于角色的访问权限控制,则可能需要其他角色
SAP 管理员 分配到此角色的用户是 SAP 系统的管理员。他们拥有从 SAP 服务网站下载软件的权限。它不是 IAM 角色。
SAP 用户 获分此角色的用户有权连接到 SAP 系统。它不是 IAM 角色。

SAP BW 的前提条件

您需要使用 SAP HANA Studio 来创建和修改数据传输进程和处理链。

Cloud Data Fusion 的前提条件

  • 创建 Cloud Data Fusion 实例需要 VPC 网络。
  • 需要 Cloud Data Fusion 实例(版本 6.8.0 或更高版本,任何版本)。
  • 必须向分配给 Cloud Data Fusion 实例的服务帐号授予必需的角色。如需了解详情,请参阅授予服务帐号用户权限
  • 您必须在 VPC 与 Google 的共享 VPC 网络之间使用对等互连连接。

配置 SAP BW 系统

SAP BW Open Hub 批处理来源使用远程函数模块 (RFM),该模块必须安装在提取数据的每个 SAP 服务器上。此 RFM 以 SAP 传输的形式提供。

如需配置 SAP 系统,请按照以下步骤操作:

  1. Cloud Data Fusion 用户必须下载包含 SAP 传输的 zip 文件并将其提供给 SAP 管理员。如需了解详情,请参阅设置 Cloud Data Fusion
  2. SAP 管理员必须将 SAP 传输导入到 SAP 系统中并验证创建的对象。如需了解详情,请参阅安装 SAP 传输
  3. 可选:SAP 用户可以根据其组织的安全政策修改所传递角色 /GOOG/BWOH_CDF_AUTH 的 SAP Standard 授权对象。

安装 SAP 传输文件

为了在 Cloud Data Fusion 中设计和运行数据流水线,SAP 组件将以 SAP 传输文件的形式提供,而 SAP 传输文件会压缩为 zip 文件。当您在 Cloud Data Fusion Hub 中部署插件时,可以进行下载。

下载 SAP BW OH 传输 ZIP 文件

下表提供了 SAP 传输请求 ID 和关联文件:

SAP 传输

传输 ID Cofile 数据文件 内容
BW1K900054 K900054.BW1 R900054.BW1 BWOH Cloud Data Fusion Connector 1.0 版
函数模块:
/GOOG/BWOH_GET_PC_LOG
/GOOG/BWOH_GET_PRO_CHA_DETAILS
/GOOG/BWOH_API_OHS_ETL_READ
/GOOG/BWOH_GET_PC_RUNS
/GOOG/BWOH_SET_LAST_RUN
/GOOG/BWOH_GET_PC_OHD_LIST
BW1K900055 K900055.BW1 R900055.BW1 授权角色 /GOOG/BWOH_CDF_AUTH

如需安装 SAP 传输,请按照以下步骤操作:

第 1 步:上传传输请求文件

  1. 登录 SAP 实例的操作系统。
  2. 使用 SAP 事务代码 AL11 获取 DIR_TRANS 文件夹的路径。通常,该路径为 /usr/sap/trans/
  3. 将 cofile 复制到 DIR_TRANS/cofiles 文件夹。
  4. 将数据文件复制到 DIR_TRANS/data 文件夹。
  5. 将“用户和组”以及数据文件设置为 <sid>admsapsys

第 2 步:导入传输请求文件

SAP 管理员可以使用以下任一选项导入传输请求文件:

选项 1:使用 SAP 传输管理系统导入传输请求文件
  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 输入事务 STMS。
  3. 点击概览 > 导入
  4. 在“队列”列中,双击当前 SID。
  5. 依次点击 Extras > 其他请求 > 添加
  6. 选择传输请求 ID,然后点击继续
  7. 在导入队列中选择传输请求,然后点击请求>导入
  8. 输入客户端编号。
  9. 选项标签页上,选择覆盖原始文件忽略无效的组件版本

    可选:选择将传输请求保留在队列中以供稍后导入。这样,在下一次导入所有请求时,系统会以正确的顺序再次导入请求。如果您需要对各个请求进行初步导入,则此选项非常有用。

  10. 点击继续

  11. 使用任何适当的事务(例如 SE80PFCG)验证函数模块和授权角色是否已成功导入。

选项 2:在操作系统级层导入传输请求文件
  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 将适当的请求添加到导入缓冲区:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    例如:tp addtobuffer BW1K900054 DD1

  3. 导入传输请求:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    NNN 替换为客户端编号。例如:

    tp import BW1K900054 DD1 client=100 U1238
    
  4. 使用适当的事务(如 SE80PFCG)验证函数模块和授权角色是否已成功导入。

必需的 SAP 授权

如要在 Cloud Data Fusion 中运行数据流水线,您需要 SAP 用户。SAP 用户必须是 CommunicationsDialog 类型。为避免使用 SAP 对话框资源,建议使用 Communications 类型。SAP 管理员可以使用 SAP 事务代码 SU01 创建用户。

如需配置适用于 SAP 的连接器,需要 SAP 授权。特定于连接器的 SAP 授权对象会作为传输请求的一部分提供。按照安装 SAP 传输中的说明导入授权角色传输,以将角色引入您的系统中,并通过 PFCG 交易代码生成角色。

对于标准 SAP 授权对象,您的组织使用自己的安全机制管理权限。您可以根据组织的安全政策来维护授权对象。

创建进程链 (PC) 和数据传输进程 (DTP)

创建进程链和数据传输过程需要一些额外的技能和背景知识。

背景概念

如需创建或修改 PC 和 DTP,请使用 SAP HANA Studio。

必备技能

  • 您已使用转换来定义源对象与目标对象之间的数据流。
  • 您要熟悉基本的 BW 和 HANA 概念,例如使用 HANA Studio 的 DataStore 对象 (DSO)、数据转换、InfoCub、查询优化、HANA 建模和 HANA DB 功能。如需详细了解这些概念,请参阅有关 BW 和 HANA 的 SAP 教程

提取类型

数据传输过程有两种数据提取模式:完整和增量。

  • Full:它根据 DTP 中提及的过滤条件条件选择来源中的所有可用数据。如果数据源是以下 InfoProvider 之一,则只能使用完整提取模式:

    • InfoObjects
    • InfoSets
    • 用于直接更新的 DataStore 对象
  • Delta:与 InfoPackage 不同,使用 DTP 的 Delta 传输不需要显式初始化。首次使用增量提取模式执行 DTP 时,系统会从来源检索提取时间之前的所有现有请求,然后系统会自动初始化增量。

    以下选项适用于具有提取模式增量的 DTP:

    • 仅增量变化一次
    • 通过请求获取所有新数据请求
    • 在没有更多新数据之前检索

软件包大小:这是单个数据软件包中存在的数据记录数量。默认值为 50,000

创建进程链

如需创建进程链 (PC),请在 SAP GUI 中使用事务 RSPC。定义启动进程,然后添加进程步骤和 DTP。如需了解详情,请参阅有关创建进程链的 SAP 文档。

HANA Studio 提供了多种用于监控和管理 PC 的选项。如需了解详情,请参阅 SAP BW/4HANA 进程链操作

使用流程链创建数据传输流程

转到要用于数据传输流程的进程链的 Planning 视图。在 Planning 视图中,您可以使用 HANA Studio 创建 DTP。如需了解详情,请参阅有关创建数据传输流程的 SAP 文档。

如需详细了解配置选项,请参阅关于数据传输流程 (DTP) - SAP BW 7

RFC 连接

如需通知回调系统(例如 SAP BW Open Hub 批处理来源插件)数据可用,必须更新进程链以使用 RFC 目标位置:

  1. 在 SM59 中,创建类型为 TCP/IP 连接的 RFC 连接,以便在 BI 中的数据加载完成后,通过 BW 通知目标系统。

  2. 确保已在 RFC 连接中配置计划 ID,方法是双击 RFC 连接。每个 RFC 目标的节目 ID 必须是唯一的,以避免运行时监听器发生冲突。

  3. 使用进程链中新创建的 TCP/IP 连接发送通知,以便 Cloud Data Fusion 批量作业完成。进程链的名称不区分大小写。在端到端集成过程中,必须正确以大写形式指定它。

显示进程链和数据传输进程的日志

  1. 转到“Tcode : RSPC”,然后点击 Process Chains

  2. 右键点击要显示其日志的进程链,然后点击 Display Logs

使用进程链时配置 Dataproc 集群

如需通过 RFC 服务器进行通信,您必须在 Dataproc 集群节点的 /etc/services 文件中添加 SAP Gateway 端口条目。建议使用 init action,即初始化集群时要执行的脚本。如需了解详情,请参阅初始化操作

创建脚本文件并将其保存到 Cloud Storage 存储桶。以下示例展示了脚本文件的内容:

gs://cdf-sap-dependent-files/addgw.sh
#!/bin/bash
echo 'sapgw00 3300/tcp' >> /etc/services
echo 'sapgw01 3301/tcp' >> /etc/services
echo 'sapgw02 3302/tcp' >> /etc/services
echo 'sapgw03 3303/tcp' >> /etc/services
echo 'sapgw04 3304/tcp' >> /etc/services

在前面的示例中,请注意以下几点:

  • 条目的格式为 sapgwxx 33xx/tcp,其中 XX 是 SAP 实例编号。

  • 为 SAP 实例 0004 添加了端口。

如果您使用的是临时、新创建的永久性或现有的永久性 Dataproc 集群,请执行以下步骤。

临时 Dataproc 集群

如果您使用的是临时 Dataproc 集群,请将 init 脚本路径添加到集群属性中:

  1. 在作业监控器中,从 Cloud Data Fusion 的流水线页面中,点击配置
  2. 选择计算配置文件,然后点击自定义
  3. 高级设置下的 Initialization Actions 字段中,输入 init 脚本的路径。

新的永久性 Dataproc 集群

如果您使用的是新创建的永久性 Dataproc 集群,请在 gcloud 命令中使用 init 脚本来创建集群。例如:

gcloud dataproc clusters create cluster-name \
  --region=${REGION} \
  --initialization-actions=gs://cdf-sap-dependent-files/addgw.sh \
  ... other flags ...

现有的永久性 Dataproc 集群

如果您使用的是现有的永久性 Dataproc 集群,请按照以下步骤操作:

如果您在未使用 init 脚本的情况下创建集群,请在 Dataproc 集群的主节点和工作器节点中手动添加条目。

  1. 通过 SSH 连接到主节点和集群节点。
  2. 登录根用户 ID。
  3. 前往 /etc/,然后在 VI 编辑器中打开 /etc/services 文件。
  4. 添加条目 sapgwxx 33xx/tcp。将 xx 替换为您的 SAP 实例编号。
  5. 保存 /etc/services 文件。

设置 Cloud Data Fusion

确保 Cloud Data Fusion 实例与 SAP 服务器之间已启用通信。对于专用实例,请设置网络对等互连。与托管 SAP 系统的项目建立网络对等互连后,无需其他配置即可连接到 Cloud Data Fusion 实例。SAP 系统和 Cloud Data Fusion 实例必须位于同一项目内。

面向 Cloud Data Fusion 用户的步骤

  1. 前往实例详情:
    1. 在 Google Cloud 控制台中,转到 Cloud Data Fusion 页面。

    2. 点击实例,然后点击相应实例的名称以转到实例详情页面。

      转到实例

  2. 检查实例是否已升级到 6.8.0 或更高版本。如果实例为早期版本,您必须对其进行升级。
  3. 打开实例。当 Cloud Data Fusion 界面打开时,点击 Hub
  4. 依次选择 SAP 标签页 > SAP BW。 如果看不到“SAP”标签页,请参阅排查 SAP 集成问题
  5. 点击 Deploy SAP BW Plugin(部署 SAP BW 插件)。 该插件会显示在 Studio 页面上的源代码菜单中。

适用于 SAP Admin 和 Google Cloud Admin 的步骤

SAP 管理员从 SAP 支持网站下载以下 JCo 工件并将其提供给 Google Cloud 管理员。

  • 一个独立于平台 (sapjco3.jar)
  • 依赖于一个平台(Unix 上为 libsapjco3.so

如需下载文件,请按以下步骤操作:

  1. 转到 SAP 连接器页面。
  2. 点击 SAP Java 连接器/工具和服务。您可以选择特定于平台的下载链接。
  3. 选择 Cloud Data Fusion 实例运行的平台:

    1. 如果您对集群中的虚拟机使用标准 Google Cloud 映像(Cloud Data Fusion 的默认映像),请选择适用于 Intel 的兼容处理器 64 位 x86 的 Linux
    2. 如果您使用自定义映像,请选择相应的平台。
  4. Google Cloud 管理员必须将 JCo 文件复制到可读的 Cloud Storage 存储桶中。向 Cloud Data Fusion 用户提供存储桶路径,以便在 Cloud Data Fusion 的相应插件属性中输入该路径:SAP JCo Library GCS Path。请参阅配置插件

  5. Google Cloud 管理员必须将这两个文件的读取权限授予设计环境的 Cloud Data Fusion 服务账号和执行环境的 Dataproc 服务账号。如需了解详情,请参阅 Cloud Data Fusion 服务帐号

配置插件

SAP BW Open Hub 批处理来源插件可读取 SAP DataSource 的内容。

如需过滤记录,您可以为 SAP BW Open Hub 批处理来源配置以下属性。

以下指示器用于定义相关字段:

  • (M):表示相应字段支持宏
  • (O):可选字段

Label:画布上的插件标签。

基本

在下面的属性列表中,(M) 表示该选项支持宏,它们可用于集中管理 SAP 连接。例如,您可以对连接属性使用宏,并在运行时使用运行时参数或 Argument Setter 插件设置值。

  • 参考名称:用于为沿袭和注释元数据的此来源唯一标识的名称。
  • 使用连接(开启/关闭切换开关):是否使用现有连接(请参阅管理连接)。如果您选择使用现有连接,则无需提供任何 SAP 连接详细信息。

  • 连接(浏览连接):选择要使用的现有连接。您还可以使用宏函数 ${conn(connection-name)}

  • SAP 客户端 (M):要使用的 SAP 客户端。例如 100

  • SAP Language (M):SAP 登录语言。例如 EN

  • Connection Type:SAP 连接类型 - 直接或负载均衡。 基于进程链的提取不支持负载均衡连接。如需了解详情,请参阅支持详情

    选择连接类型会更改可用字段。

    对于直接连接,可以使用以下字段:

    • SAP Application Server Host (M):SAP 服务器名称或 IP 地址。
    • SAP 系统编号 (M):SAP 系统编号。例如 00
    • SAP Router(M、O):路由器字符串。

    对于负载均衡连接,您可以使用以下字段:

    • SAP Message Server Host (M):SAP 消息主机名或 IP 地址。
    • SAP Message Server Service 或端口号 (M):SAP 消息服务器服务或端口号。例如 sapms02
    • SAP 系统 ID (SID) (M):SAP 系统 ID。例如 N75
    • SAP Logon Group Name (M):SAP 登录组名称。例如 PUBLIC
  • Use Process Chain (M):此字段包含两个选项。

    如果您使用选项启用进程链,则会启用以下属性:

    • 自动解决 PC 和 DTP 错误:控制识别先前失败的运行时的行为。停用后,插件会使流水线失败,并显示相关错误。启用(默认)后,该插件会检查 SAP 中的进程链和 Data Transfer Process 状态。如果发现以下任何错误,该插件会自动尝试解决这些错误:

    • Data Transfer Process in error state:插件会删除上一个请求

    • 进程链处于红色状态且错误 previous request status has not been set:插件从进程链日志中获取请求 ID 后,会删除阻塞请求,然后尝试运行 PC。

    • 进程链状态通知等待时间(分钟)(M、O):等待进程链完成数据暂存并通知流水线开始提取的指定时间(分钟)。如果您指定 0 或将其留空,则该值会采用 10 分钟(默认值)。

    • Process Chain (M):SAP 进程链名称。例如 PC_RFC

    如果您使用 No 选项停用进程链,系统会启用以下属性:

    • Open Hub Destination (M):要读取的 Open Hub 目标名称。
    • 请求 ID(M、O):已运行的数据传输流程的请求 ID。

凭据

  • SAP Logon Username (M):SAP 用户名。建议:如果 SAP 登录用户名会定期更改,请使用
  • SAP Logon Password (M):SAP 用户密码。建议:对于敏感值(如用户密码),请使用安全宏

SAP JCo 详细信息

  • GCP Project ID (M):Google Cloud 项目 ID,用于唯一标识项目。您可以在 Google Cloud 控制台的“信息中心”内找到该密钥。
  • SAP JCo Library GCS Path (M):包含用户上传的 SAP JCo 库文件的 Cloud Storage 路径。
  • 获取架构:如果您希望插件根据 SAP 中的元数据生成架构,并自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型,请点击此选项。其功能与验证按钮相同。

如需详细了解客户端证书,请参阅在 SAP NetWeaver Application Server for ABAP 上使用 X.509 客户端证书

高级

  • Number of Splits to Generate (M, O):用于对输入数据进行分区的分屏数量。分区越多,并行程度越高,但需要的资源和开销也越多。对于 SAP 本地系统,如果未在界面中指定该值,则拆分占 SAP 中可用对话工作流程的 50%。否则,系统会在用户指定和 50% 的可用工作流之间优化分屏。

    建议:除非您熟悉 SAP 系统设置,否则请将该属性留空。

  • 其他 SAP Connection 属性(M、O):设置替换 SAP JCo 默认值的其他 SAP JCo 属性。例如,设置 jco.destination.pool_capacity = 10 会替换默认连接池容量。

    下表列出了支持的 SAP JCo 属性:

    属性 说明
    jco.destination.peak_limit 可为目标同时创建的活动连接数上限。
    jco.destination.pool_capacity 目标保持打开状态的空闲连接数上限。值为 0 表示没有连接池,也就是说,连接将在每次请求后关闭。
    jco.destination.expiration_time ms 中的时间,在此之后,内部池持有的连接可以关闭。
    jco.destination.expiration_check_period ms 中的时间间隔,超时检查工具线程检查池中的连接是否过期。
    jco.destination.max_get_client_time 如果应用分配了允许的最大连接数,则 ms 中等待连接的最大时间。

数据提取模式的行为

数据提取模式通过数据传输流程设置进行控制。使用进程链与使用 Open Hub 目的地时,行为有所不同。

使用进程链时

数据传输流程级别的设置用于控制是执行完整加载还是增量加载。请求 ID 以通知的形式从 SAP 发送到插件。插件会读取与此单个请求 ID 关联的数据包数据。

使用无请求 ID 的 Open Hub 目标时

完全加载:首次运行流水线时,会获取 Open Hub 表中所有可用的请求 ID。插件会读取与这些请求 ID 关联的数据包数据。

增量加载:下次运行同一流水线时,在上次提取的请求 ID 之后提取所有可用的增量请求 ID。插件会读取与这些请求 ID 关联的数据包数据。

通过请求 ID 使用 Open Hub 目标时

完全加载:首次运行流水线时,所有后续可用请求 ID 均大于指定请求 ID。插件会读取与这些请求 ID 关联的数据包数据。

增量加载:下次运行同一流水线时,在上次提取的请求 ID 之后提取所有可用的增量请求 ID。该插件会读取与这些请求 ID 关联的数据包数据。

数据类型映射

下表显示了 SAP BW 和 Cloud Data Fusion 中使用的数据类型之间的映射。

黑白数据类型 ABAP 类型 说明 (SAP) Cloud Data Fusion 数据类型
数字
INT1 b 1 个字节的整数 integer
INT2 s 2 个字节的整数 integer
INT4 i 4 个字节的整数 integer
INT8 8 8 个字节的整数 long
12 月 p 打包成采用 BCD 格式的数字 (DEC) decimal
DF16_DEC
DF16_RAW
a 十进制浮点 8 字节 IEEE 754r decimal
DF34_DEC
DF34_RAW
e 十进制浮点 16 字节 IEEE 754r decimal
FLTP f 二进制浮点数 double
字符
字符
LCHR
c 字符串 string
SSTRING
GEOM_EWKB
string 字符串 string
STRING string 字符串 CLOB bytes
NUMC
ACCP
n 数字文本 string
Byte
RAW
LRAW
x 二进制数据 bytes
RAWSTRING xstring 字节字符串 BLOB bytes
日期/时间
DATS d 日期 date
TIMS t 时间 time
TIMESTAMP utcl TimeStamp
Utclong
timestamp

验证

点击验证获取架构

该插件会验证属性,并根据 SAP 中的元数据生成架构。它会自动将 SAP 数据类型映射到相应的 Cloud Data Fusion 数据类型。

运行数据流水线

  1. 部署流水线后,点击配置
  2. 选择资源
  3. 如果需要,请根据整体数据大小和流水线中使用的转换数量来更改执行器 CPU内存
  4. 点击保存
  5. 如需启动数据流水线,请点击运行

优化性能

优化插件配置

运行流水线时,请使用以下属性以获得最佳性能:

  • Cloud Data Fusion 插件属性中的要生成的拆分数量:此选项直接控制 Cloud Data Fusion 端的并行性。运行时引擎会在提取表记录时创建指定数量的分区和 SAP 连接。建议采用 816 之间的值,但通过在 SAP 端为工作负载分配适当的内存资源,您可以通过在 SAP 端进行适当的配置,将值增加到 3264

    如果值为 0 或留空(推荐),系统将根据可用 SAP 工作进程的数量、要提取的记录以及软件包大小自动选择适当的值。

  • BW Data Transfer Process 属性中的 Package Size:用于控制单个数据包中存在的数据记录数量。默认值为 50,000。增加此值可能会提高性能,但资源负载会增加。如果您已在使用较高的值,请减少该值,以便更好地并行提取数据。

Cloud Data Fusion 资源设置

推荐:每个执行器使用 1 个 CPU 和 4 GB 内存。此值适用于每个执行器进程。在配置 > 资源对话框中设置这些值。

Dataproc 集群设置

建议:至少在工作器之间分配 CPU 总数,大于预期的拆分数量。请参阅插件配置

例如,如果您有 16 个分块,则针对所有工作器定义总共 20 个或更多 CPU。需要有 4 个 CPU 进行协调的开销。

建议:使用永久性 Dataproc 集群可缩短数据流水线运行时。这样就省去了预配步骤,此步骤可能需要几分钟或更长时间。在 Compute Engine 配置部分中设置此项。

支持服务详情

支持的 SAP 产品和版本

支持的来源:

  • SAP NW BW 7.5 及更高版本
  • SAP BW4HANA 2.0 SP9(包含 Open Hub Destination API;早期版本的 BW4HANA 不支持 Open Hub Destination API)

支持 SAP 负载均衡(消息服务器)连接

基于 Open Hub 目标位置的提取支持 SAP 负载均衡(消息服务器)连接,其中不使用 RFC 服务器。

基于进程链的提取不支持 SAP 负载均衡(消息服务器)连接。原因在于,在向客户端系统提供 data ready 通知时,SAP 存在一项限制,这就要求在 BW 环境中的每个 SAP 服务器上注册 RFC Server(插件监听器),从而增加连接器占用的空间,并可能会影响 SAP 性能和资源使用量。如需了解详情,请参阅 SAP 说明 2572564(需要登录 SAP 支持账号才能查看)。

支持的 SAP 部署模型

此插件已使用部署在 Google Cloud 上的 SAP 服务器进行测试。

支持的 SAP 对象

Open Hub 目标的数据源:InfoProvider(InfoObject、InfoCube、DataStore 对象、高级数据存储对象、复合提供程序)

进程链可自动将数据传输流程执行到 Open Hub 目的地。

使用 Oracle HTTP Server 从 SAP 提取数据的单独许可

使用 Oracle HTTP Server (OHS) 从 SAP 提取数据不需要另外的许可;但是,请与您的 SAP 代表联系,了解您的具体协议和用例。

预期的插件吞吐量

对于根据优化性能中的准则配置的环境,插件每小时可提取大约 38 GB 的数据。实际性能可能会因 Cloud Data Fusion 和 SAP 系统负载或网络流量而异。

后续步骤