SAP SLT 复制源

本页面介绍了如何实现从 SAP 实时复制数据。 迁移到 Google Cloud。通过 内容适用于 SAP SLT 复制SAP SLT 无 RFC 复制 Cloud Data Fusion Hub 中提供的插件。它显示了 支持 SAP Source System、SLT、Cloud Storage 和 Cloud Data Fusion 执行以下操作:

  • 使用 SAP SLT 将 SAP 元数据和表数据推送到 Google Cloud。
  • 创建一个 Cloud Data Fusion 复制作业,以读取 Cloud Storage 存储桶中的数据。

借助 SAP SLT Replication, 从 SAP 来源实时、持续地将数据 BigQuery。您可以配置和执行来自 SAP 的数据转移, 而无需编写任何代码。

Cloud Data Fusion SLT 复制过程如下所示:

  1. 数据来自 SAP 源系统。
  2. SLT 跟踪和读取数据并将其推送到 Cloud Storage。
  3. Cloud Data Fusion 从存储桶拉取数据并将其写入 BigQuery。

您可以从受支持的 SAP 系统(包括 Google Cloud 中托管的 SAP 系统)传输数据。

如需了解详情,请参阅 Google Cloud 上的 SAP 概览 以及支持详情

准备工作

要使用此插件,您需要具备以下方面的领域知识:

  • Cloud Data Fusion 中构建流水线
  • 使用 IAM 管理访问权限
  • 配置 SAP Cloud 和本地企业资源规划 (ERP) 系统

执行配置的管理员和用户

此页面上的任务由 Google Cloud 或 SAP 系统中具有以下角色的人员执行:

用户类型 说明
Google Cloud 管理员 获分此角色的用户是 Google Cloud 帐号的管理员。
Cloud Data Fusion 用户 获分此角色的用户有权设计和运行数据流水线。他们至少被授予了 Data Fusion Viewer (roles/datafusion.viewer) 角色。如果您使用的是基于角色的访问权限控制,则可能需要其他角色
SAP 管理员 分配到此角色的用户是 SAP 系统的管理员。他们拥有从 SAP 服务网站下载软件的权限。它不是 IAM 角色。
SAP 用户 获分此角色的用户有权连接到 SAP 系统。它不是 IAM 角色。

支持的复制操作

SAP SLT Replication 插件支持以下操作:

数据建模:此插件支持所有数据建模操作(记录 insertdeleteupdate)。

数据定义:如 SAP 说明 2055599 (需要登录 SAP 支持部门才能查看),具体来源有限制 SLT 会自动复制系统表结构更改。部分数据 不支持定义操作(您需要手动 传播它们)。

  • 支持:
    • 添加非键字段(在 SE11 中做出更改后,使用以下命令激活表 SE14)
  • 不支持:
    • 添加/删除键字段
    • 删除非键字段
    • 修改数据类型

SAP 要求

您的 SAP 系统中需要有以下项目:

  • 您在源 SAP 系统(嵌入式)上或作为专用 SLT 中心系统安装了 SLT Server 2011 SP17 或更高版本。
  • 您的源 SAP 系统是支持 DMIS 2011 的 SAP ECC 或 SAP S/4HANA SP17 或更高版本,例如 DMIS 2018、DMIS 2020。
  • 您的 SAP 界面插件 必须与 SAP Netweaver 版本兼容。
  • 您的支持套餐支持 /UI2/CL_JSONPL 12 或更高版本。 否则,请实现适用于 /UI2/CL_JSON 类的最新 SAP 说明 corrections(根据您的界面插件版本,例如 SAP) PL12 的备注 2798102。

  • 并实施了以下安全措施:

Cloud Data Fusion 要求

  • 您需要 Cloud Data Fusion 实例 6.4.0 版或更高版本(任何版本均可)。
  • 分配给 Cloud Data Fusion 实例的服务账号为 授予了所需角色(请参阅授予服务账号用户权限)。
  • 对于专用 Cloud Data Fusion 实例,需要有 VPC 对等互连。

Google Cloud 要求

创建存储桶

在创建 SLT 复制作业之前, 创建 Cloud Storage 存储桶。 该作业会将数据传输到存储桶,并且每 5 次刷新暂存存储桶 分钟。当您运行该作业时,Cloud Data Fusion 会读取 并将数据写入 BigQuery

如果在 Google Cloud 上安装了 SLT

SLT 服务器必须具有创建和修改 Cloud Storage 的权限 对象(在您创建的存储桶中)。

至少应向服务账号授予以下角色:

如果未在 Google Cloud 上安装 SLT

在 SAP 虚拟机和 Google Cloud 以允许连接到内部元数据端点(请参阅 为本地主机配置专用 Google 访问通道

如果无法映射内部元数据:

  • 根据运行 SLT 的基础架构的操作系统安装 Google Cloud CLI。

  • 在启用了 Cloud Storage 的 Google Cloud 项目中创建服务账号。

  • 在 SLT 操作系统上 使用服务账号授予对 Google Cloud 的访问权限

  • 为服务账号创建 API 密钥,并授权 Cloud Storage 相关范围。

  • 使用命令将 API 密钥导入之前安装的 gcloud CLI CLI。

  • 如需启用输出访问令牌的 gcloud CLI 命令,请执行以下操作: 在事务 SM69 工具中配置 SAP 操作系统命令, SLT 系统。

SAP 管理员会配置操作系统命令 SM69, 从 Google Cloud 中检索访问令牌。

创建脚本以输出访问令牌并配置 SAP 操作系统 命令,以从 SAP LT Replication Server 以用户 <sid>adm 的身份调用脚本 主机。

Linux

如需创建操作系统命令,请执行以下操作:

  1. 在 SAP LT Replication Server 主机上可访问的目录中 更改为 <sid>adm,创建一个包含以下几行内容的 bash 脚本:

    PATH_TO_GCLOUD_CLI/bin/gcloud auth print-access-token SERVICE_ACCOUNT_NAME
    
  2. 使用 SAP 界面,创建一个外部操作系统命令:

    1. 输入 SM69 事务。
    2. 点击创建
    3. 外部命令面板的命令部分中,输入 命令的名称,例如 ZGOOGLE_CDF_TOKEN
    4. 定义部分中:

      1. 操作系统命令字段中,输入 sh 作为 脚本文件扩展名。
      2. 操作系统命令的参数字段中,输入以下内容:

        /PATH_TO_SCRIPT/FILE_NAME.sh
        
    5. 点击保存

    6. 如需测试脚本,请点击执行

    7. 再次点击执行

    系统会返回 Google Cloud 令牌,并将其显示在 SAP 界面面板。

Windows

使用 SAP 界面,创建一个外部操作系统命令:

  1. 输入 SM69 事务。
  2. 点击创建
  3. 外部命令面板的命令部分,输入 命令的名称,例如 ZGOOGLE_CDF_TOKEN
  4. 定义部分中:

    1. 操作系统命令字段中输入 cmd /c
    2. 操作系统命令的参数字段中,输入以下内容:

      gcloud auth print-access-token SERVICE_ACCOUNT_NAME
      
  5. 点击保存

  6. 如需测试脚本,请点击执行

  7. 再次点击执行

系统返回 Google Cloud 令牌,并将其显示在 SAP 底部 界面中添加了此选项。

SLT 要求

SLT 连接器必须进行以下设置:

  • 连接器支持 SAP ECC NW 7.02、DMIS 2011 SP17 及更高版本。
  • 配置 SLT 和 Cloud Storage 系统。
  • 设置 SSL 证书:
    • Google Trust Services 代码库
      • GTS Root R1
      • GTS CA 1C3
    • 在 SAP 界面中,使用 STRUST 事务导入 将根证书和从属证书放入 SSL Client (Standard) PSE 文件夹中。
  • 必须为 HTTPS 设置 Internet Communications Manager (ICM)。请确保 在 SAP SLT 系统中维护和激活 HTTP 和 HTTPS 端口。 这可通过交易代码 SMICM > Services 进行核实。
  • 在托管 SAP SLT 系统的虚拟机上启用对 Google Cloud API 的访问权限。这样便可在 Google Cloud 服务之间进行私密通信,而无需通过公共互联网进行路由。
  • 确保网络可以支持所需的数据量和速度 在 SAP 基础架构与 Cloud Storage 之间传输数据。对于 安装成功后,Cloud VPN 和/或 Cloud Interconnect 建议。 流处理 API 的吞吐量取决于 配额, Cloud Storage 项目

配置 SLT 复制服务器

SAP 用户执行以下步骤。

在以下步骤中,您将 SLT 服务器连接到源系统和 Cloud Storage 中的存储桶,指定源系统、要复制的数据表以及目标存储桶。

配置 Google ABAP SDK

如需配置 SLT 以进行数据复制(每个 Cloud Data Fusion 实例一次),请按以下步骤操作:

  1. 如需配置 SLT 连接器,SAP 用户会在配置屏幕 (SAP Transaction /GOOG/CDF_SETTINGS) 中输入有关 Google Cloud 服务账号密钥的以下信息,以将数据传输到 Cloud Storage。使用事务 SE16 配置表 /GOOG/CDF_CLT_KY 中的以下属性,并记下此键:

    • NAME:您的服务账号密钥的名称(例如 CDFSLT
    • SERVICE ACCOUNT NAME:IAM 服务账号名称
    • SCOPE:服务账号的范围
    • PROJECT ID:您的 Google Cloud 项目的 ID
    • 可选:EXT OS 命令:仅在未安装 SLT 时使用此字段 在 Google Cloud 上
    • AUTH CLASS:如果在表 /GOOG/CDF_CLT_KY 中设置了操作系统命令, 请使用固定值:/GOOG/CDF_CL_GCP_AUTH

    • TOKEN REFRESH SEC:授权令牌刷新的时长

输入有关服务账号密钥的详细信息

创建复制配置

在事务代码中创建复制配置:LTRC

  • 在继续进行 LTRC 配置之前,请确保已在 SLT 和 Source SAP 系统之间建立 RFC 连接。
  • 对于一个 SLT 配置,可能会为多个 SAP 表分配 复制。
  1. 转到事务代码 LTRC 并点击新配置

    输入有关服务账号密钥的详细信息

  2. 输入配置名称说明,然后点击下一步

  3. 指定 SAP Source 系统 RFC 连接,然后点击下一步

    指定源系统 RFC 连接详细信息

  4. 在“目标系统连接详细信息”中,选择其他

  5. 展开 RFC 通信场景字段,选择 SLT SDK,然后点击下一步

  6. 转到指定传输设置窗口并输入应用 名称:ZGOOGLE_CDF

    指定传输设置

  7. 输入数据传输作业的数量 (Number of Data Transfer Jobs),即初始加载的数量 (Number of Initial Load) 作业计算作业数量。如需详细了解 请参阅 SAP LT Replication Server 性能优化指南

  8. 点击实时 > 下一步

  9. 检查配置,然后点击保存。请注意大规模转移 ID

    保存配置并记下批量传输 ID

  10. 要维护批量转移 ID 和 SAP 表详细信息,请运行 SAP 交易:/GOOG/CDF_SETTINGS

  11. 点击执行 (Execute),或按 F8

  12. 点击附加行图标以创建新条目。

    1. 输入 Mass Transfer IDMass Transfer KeyGCP 密钥名称。 和目标 GCS 存储分区。选中 Is Active 复选框并保存 更改。

      输入传输批量传输详细信息

  13. Configuration Name(配置名称)列中选择该配置,然后点击 数据配置

    选择数据预配

  14. 可选:自定义表格和字段名称。

    1. 点击自定义名称并保存。

    2. 点击显示

    3. 点击附加行创建按钮,以创建新条目。

    4. 输入要使用的 SAP 表名称和外部表名称 然后保存更改。

    5. 点击显示字段列中的查看按钮,以保持 表字段的映射

    6. 系统会打开一个包含建议的映射的页面。可选:修改 Temp 字段 名称字段说明,然后保存映射。

  15. 找到 LTRC 交易。

  16. 选择配置名称列中的值,然后点击数据 预配

  17. Table Name in Database 字段中输入表名称,然后选择 复制场景。

    选择复制场景

  18. 点击 Execute。这会触发 SLT SDK 实现, 将数据传输到 Cloud Storage 中的目标存储桶。

安装 SAP 传输文件

为了在 Cloud Data Fusion 中设计和运行复制作业,SAP 组件以 zip 文件中归档的 SAP 传输文件的形式交付。 当你需要时 在 Cloud Data Fusion Hub 中部署插件

下载 SAP SLT 传输 zip 文件

下面提供了 SAP 传输请求 ID 和关联文件 表:

传输 ID Cofile 数据文件 内容
ED1K900520 K900520.ED1 R900520.ED1 SAP BADI 实现 ES_IUUC_REPL_RUNTIME_OLO_EXIT
ED1K900337 K900337.ED1 R900337.ED1 授权角色 /GOOG/SLT_CDF_AUTH

如需安装 SAP 传输,请按以下步骤操作:

第 1 步:上传传输请求文件

  1. 登录 SAP 实例的操作系统。
  2. 使用 SAP 事务代码 AL11 获取 DIR_TRANS 文件夹的路径。通常,该路径为 /usr/sap/trans/
  3. 将 cofile 复制到 DIR_TRANS/cofiles 文件夹。
  4. 将数据文件复制到 DIR_TRANS/data 文件夹。
  5. 将“用户和组”以及数据文件设置为 <sid>admsapsys

第 2 步:导入传输请求文件

SAP 管理员可以使用 SAP 的 传输管理系统或操作系统:

SAP 传输管理系统

  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 输入事务 STMS。
  3. 点击概览 > 导入
  4. 在“队列”列中,双击当前 SID。
  5. 依次点击 Extras > 其他请求 > 添加
  6. 选择传输请求 ID,然后点击继续
  7. 在导入队列中选择传输请求,然后点击请求>导入
  8. 输入客户端编号。
  9. 选项标签页上,选择覆盖原始内容忽略无效组件版本(如果有)。

    可选:如需稍后重新导入传输, 点击将传输请求留在队列中以供稍后导入,然后 再次导入传输请求。这对于 SAP 系统非常有用 升级和备份恢复服务

  10. 点击继续

  11. 验证是否已导入函数模块和授权角色 使用 SE80PFCG 等事务成功完成。

操作系统

  1. 以 SAP 管理员身份登录 SAP 系统。
  2. 将请求添加到导入缓冲区:

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    例如:tp addtobuffer IB1K903958 DD1

  3. 导入传输请求:

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    NNN 替换为客户端编号。例如:tp import IB1K903958 DD1 client=800 U1238

  4. 使用适当的事务(如 SE80PFCG)验证函数模块和授权角色是否已成功导入。

必需的 SAP 授权

如要在 Cloud Data Fusion 中运行数据流水线,您需要 SAP 用户。SAP 用户必须是“通信”或“对话”类型。为防止使用 SAP 对话框资源,建议使用“通信”类型。SAP 可以创建用户 管理员(使用 SAP 事务代码 SU01)。

需要 SAP 授权才能维护和配置 SAP 的连接器(SAP 标准和新连接器授权对象的组合)。您可以根据组织的安全政策维护授权对象。以下列表介绍了连接器所需的一些重要授权:

  • 授权对象:授权对象 ZGOOGCDFMT 作为 Transport Request 角色的一部分交付。

  • 角色创建:使用事务代码 PFCG 创建角色。

    使用 SAP 事务代码来创建角色

  • 对于标准 SAP 授权对象,您的组织拥有自己的安全机制来管理权限。

  • 对于自定义授权对象,请在授权对象 ZGOOGCDFMT 的授权字段中提供值。

  • 对于精细的访问权限控制,ZGOOGCDFMT 提供了基于授权组的授权。具有授权组的完整访问权限、部分访问权限或无访问权限的用户将根据在其角色中分配的授权组获得访问权限。

  • /GOOG/SLT_CDF_AUTH:拥有所有授权群组的访问权限的角色。如需限制特定授权组的访问权限,请在配置中维护授权组 FICDF。

为来源创建 RFC 目标

在开始配置之前,请确保在来源和目标之间建立 RFC 连接。

  1. 转到事务代码 SM59

  2. 点击创建 > 连接类型 3 (ABAP Connection)

    创建事务代码

  3. Technical Settings 窗口中,输入有关 RFC 的详细信息 目标位置。

  4. 点击 Logon and Security(登录和安全)标签页以保留 RFC 凭据 (RFC) 用户和密码)。

  5. 点击保存

  6. 点击连接测试。测试成功后,您可以继续操作。

  7. 验证 RFC 授权测试是否成功。

  8. 依次点击实用工具 &gt; 测试 &gt; 授权测试

配置插件

如需配置插件,请从 Hub 部署该插件,创建 复制作业,然后使用 。

在 Cloud Data Fusion 中部署插件

Cloud Data Fusion 用户执行以下步骤。

在运行 Cloud Data Fusion 复制作业之前,请先部署 SAP SLT Replication 插件:

  1. 转到您的实例:

    1. 在 Google Cloud 控制台中,前往 Cloud Data Fusion 实例 页面。

      转到实例

    2. 在新实例或现有实例中启用复制功能:

      • 对于新实例,请点击创建实例,然后输入一个实例 点击添加加速器,然后选择复制 复选框,然后点击保存
      • 如需了解现有实例,请参阅 在现有实例上启用复制功能
    3. 点击查看实例,在 Cloud Data Fusion 网页界面。

  2. 点击 Hub

  3. 转到 SAP 标签页,点击 SAP SLT,然后点击 SAP SLT 复制 PluginSAP SLT No RFC Replication Plugin

  4. 点击部署

创建复制作业

SAP SLT Replication 插件使用 Cloud Storage API 暂存存储桶。

如需为数据传输创建复制作业,请按以下步骤操作 步骤:

  1. 在您打开的 Cloud Data Fusion 实例中,点击首页 &gt; 复制 &gt; 创建复制作业。如果没有 复制选项,为 实例

  2. 输入唯一的名称说明 复制作业。

  3. 点击下一步

配置来源

  1. 在以下字段中输入值以配置来源:

    • 项目 ID:您的 Google Cloud 项目的 ID(此字段为 )
    • Data Replication GCS Path: 包含要复制的数据。它必须是 SAP SLT 作业中的配置。在内部,提供的路径是 与 Mass Transfer IDSource Table Name 串联在一起:

      格式:gs://<base-path>/<mass-transfer-id>/<source-table-name>

      示例:gs://slt_bucket/012/MARA

    • GUID:SLT GUID - 分配给 SAP SLT Mass 的唯一标识符 转移 ID。

    • Mass Transfer ID:SLT 批量传输 ID 是唯一标识符。 分配给 SAP SLT 中的配置。

    • SAP JCo 库 GCS 路径:包含 用户上传的 SAP JCo 库文件。可以下载 SAP JCo 库 更新和导出配置。(在插件版本 0.10.0 中已移除)。

    • SLT 服务器主机 (SLT Server Host):SLT 服务器主机名或 IP 地址。(已移除 插件版本 0.10.0。)

    • SAP 系统编号 (SAP System Number):系统提供的安装系统编号 管理员(例如 00)。(在插件版本 0.10.0 中已移除)。

    • SAP 客户端:要使用的 SAP 客户端(例如 100)。(已移除 插件版本 0.10.0。)

    • SAP 语言 (SAP Language):SAP 登录语言(例如 EN)。(已移除 插件版本 0.10.0。)

    • SAP 登录用户名:SAP 用户名。(在插件版本 0.10.0 中已移除)。

      • 推荐:如果 SAP 登录用户名定期更改,请使用宏。
    • SAP 登录密码 (M):用于用户身份验证的 SAP 用户密码。

      • 建议:对敏感值使用安全宏,例如 密码。(在插件版本 0.10.0 中已移除)。
    • 当 CDF 作业停止时暂停 SLT 复制:尝试停止 SLT 复制作业(针对相关表)时, Cloud Data Fusion 复制作业停止。如果出现以下情况,则可能会失败: Cloud Data Fusion 中的作业意外停止。

    • 复制现有数据:指示是否复制现有数据 从源表中导入。默认情况下,这些作业会复制现有数据 从源表中导入。如果设置为 false,则来源中的任何现有数据 系统会忽略这些表,仅更改在作业启动后发生的更改 副本。

    • 服务账号密钥:与服务账号互动时使用的密钥 Cloud Storage该服务账号必须具有写入权限 Cloud Storage在 Google Cloud 虚拟机上运行时 应设置为 auto-detect,以使用连接到 虚拟机。

  2. 点击下一步

配置目标

为了将数据写入 BigQuery, 插件需要对 BigQuery 和预演工作区的写入权限 存储桶。更改事件首先从 SLT 到 Cloud Storage然后,这些文件会加载到 BigQuery。暂存表中的更改会合并到 最终目标表。

最终目标表包含源表中的全部原始列和一个额外的 _sequence_num 列。序列号可确保数据在复制器故障场景中不会重复或缺失。

  1. 在以下字段中输入值以配置来源:

    • 项目 ID:BigQuery 数据集的项目。在 Dataproc 集群上运行时,您可以将此项留空,这会导致使用集群的项目。
    • 凭据:请参阅凭据
    • 服务账号密钥:与 Cloud Storage 和 BigQuery 交互时要使用的服务账号密钥的内容。时间 应留空, 该集群使用集群的服务账号。
    • 数据集名称:要在 BigQuery 中创建的数据集的名称。它是可选的,并且在默认情况下,数据集名称与源数据库名称相同。有效名称只能包含字母、数字和下划线,且最大长度为 1024 个字符。在最终数据集名称中,任何无效字符都将替换为下划线,而任何超出长度限制的字符都将被截断。
    • 加密密钥名称:用于保护由此目标创建的资源的客户管理的加密密钥 (CMEK)。加密密钥名称必须为如下形式:projects/<project-id>/locations/<key-location>/keyRings/<key-ring-name>/cryptoKeys/<key-name>
    • 位置:BigQuery 数据集和 Cloud Storage 暂存存储桶的创建位置。例如,us-east1 表示区域存储桶,us 表示多区域存储桶(请参阅位置)。如果指定了现有存储桶,则会忽略此值,因为暂存存储桶和 BigQuery 数据集会在该存储桶所在的位置创建。
    • 暂存存储桶:在将更改事件在加载到暂存表之前,将这些事件写入到其中的存储桶。更改将写入包含复制器名称和命名空间的目录。请使用同一个存储桶 同一实例中的多个复制器之间。如果此文件是由 多个实例的复制器,请确保命名空间和名称 唯一,否则行为将处于未定义状态。存储桶必须与 BigQuery 数据集位于同一位置。如果未提供存储桶,则系统会为名为 df-rbq-<namespace-name>-<job-name>-<deployment-timestamp> 的每个作业创建一个新的存储桶。

    • 加载间隔(秒):将数据批加载到 BigQuery 之前等待的秒数。

    • 暂存表前缀:更改会首先写入暂存表,然后再合并到最终表。暂存表名称的生成方式是将此前缀附加到目标表名称。

    • 需要手动删除干预:当遇到删除表或删除数据库事件时,是否要求手动管理操作以删除表和数据集。设置为 true 时,复制器不会删除表或数据集。相反,它会失败并重试,直到表或数据集不存在为止。如果数据集或表不存在,则不存在 需要人工干预。事件会照常跳过。

    • 启用软删除:如果设为 true, 则记录的 _is_deleted 列会设置为 true。 否则,该记录将从 BigQuery 表中删除。 对于不按顺序生成事件的来源而言,此配置为空操作 和记录始终会从 BigQuery 表中软删除。

  2. 点击下一步

凭据

如果插件在 Dataproc 集群上运行,则服务账号 键应设置为自动检测。系统会自动从 集群环境

如果插件未在 Dataproc 集群上运行,则必须提供服务账号密钥的路径。您可以在以下位置找到服务账号密钥: Google Cloud 控制台中的 IAM 页面。请确保账号密钥 有权访问 BigQuery。服务账号密钥文件 必须在集群中的每个节点上可用,并且必须可供 运行作业的用户

限制

  • 表必须具有要复制的主键。
  • 不支持表重命名操作。
  • 支持部分表更改。
    • 现有的不可为 Null 的列可以更改为可为 Null 的列。
    • 可为新的表添加新的可为 Null 的列。
    • 对表架构进行的其他类型的更改将失败。
    • 对主键的更改不会失败,但现有数据不会失败 进行了重写,以遵循新主键上的唯一性。

选择表和转换

选择表和转换步骤中,系统会为以下对象选择表列表: SLT 系统中的复制选项。

  1. 选择要复制的表。
  2. 可选:选择其他架构操作,例如插入更新删除
  3. 如需查看架构,请点击表对应的要复制的列
  4. 可选:如需重命名架构中的列,请按以下步骤操作:

    1. 查看架构时,点击 Transform > 重命名
    2. 重命名字段中,输入新名称,然后点击应用
    3. 如需保存新名称,请依次点击刷新保存
  5. 点击下一步

可选:配置高级属性

如果您知道在一小时内要复制的数据量,则可以 选择相应的选项。

查看评估

查看评估步骤会扫描架构问题、功能缺失或 复制期间出现的连接问题。

  1. 查看评估页面上,点击查看映射

    如果出现任何问题,必须先解决问题,然后才能继续操作。

  2. 可选:如果您在选择表和表格时重命名了列 转换,请在此步骤中验证新名称是否正确。

  3. 点击下一步

查看摘要并部署复制作业

查看复制作业详情页面上,查看设置 然后点击部署复制作业

选择 Compute Engine 配置文件

  1. 部署复制作业后,从以下位置点击配置: Cloud Data Fusion 网页界面中的任何页面。

  2. 选择要用于运行此任务的 Compute Engine 配置文件 复制作业。

  3. 点击保存

    在 Cloud Data Fusion 网页界面中选择一个计算配置文件。

启动复制作业

  • 如需运行复制作业,请点击启动

在 Cloud Data Fusion 网页界面中启动复制作业

可选:优化效果

默认情况下,插件会配置为获得最佳性能。如需更多 请参阅运行时参数

SLT 和 Cloud Data Fusion 通信的性能取决于 以下因素:

  • 源系统上的 SLT 与专用的中央 SLT 系统(首选 选项)
  • SLT 系统上的后台作业处理
  • 源 SAP 系统上的对话工作流程
  • 分配给每个批量传输 ID 的后台作业进程的数量, LTRC 管理标签页
  • LTRS 设置
  • SLT 系统的硬件(CPU 和内存)
  • 使用的数据库(例如 HANA、Sybase 或 DB2)
  • 互联网带宽(SAP 系统和通过互联网的 Google Cloud 之间的连接)
  • 系统上已存在的利用率(负载)
  • 表中的列数。列越多,复制速度就越慢,延迟时间也会增加。

对于初始加载,建议使用 LTRS 设置中的以下读取类型:

SLT 系统 源系统 表类型 推荐的读取类型
[初始负载]
SLT 3.0 独立版本
[DMIS 2018_1_752 SP 2]
S/4 HANA 1909 透明(中/小)
透明(大)
聚簇表
1 项范围计算
1 项范围计算
4 个发送者队列
SLT 嵌入式
[S4CORE 104 HANA 1909]
不适用 透明(中/小)
透明(大)
聚簇表
1 项范围计算
1 项范围计算
4 个发送者队列
SLT 2.0 独立版本
[DMIS 2011_1_731 SP 17]
ECC NW 7.02 透明(中/小)
透明(大)
聚簇表
有 5 个发送者队列
有 5 个发送者队列
4 个发送者队列
SLT 嵌入式
[DMIS 2011_1_700 SP 17]
不适用 透明(中/小)
透明(大)
聚簇表
有 5 个发送者队列
有 5 个发送者队列
4 个发送者队列
  • 对于复制,请使用“无范围”以提高性能:
    • 只有在具有高延迟的日志记录表中生成积压时,才能使用范围。
    • 使用单范围计算:在 例如 SLT 2.0 和非 HANA 系统。
    • 使用单一范围计算:初始加载的读取类型可能会导致 BigQuery 中的重复记录。
  • 使用独立的 SLT 系统时,性能始终更好。
  • 在以下情况下,始终建议使用独立的 SLT 系统: 源系统已经很高了。

运行时参数

  • snapshot.thread.count:传递要启动的线程数 并行执行 SNAPSHOT/INITIAL 数据加载。默认情况下,它使用 Dataproc 集群中可用的 vCPU 的数量, 复制作业运行。

    建议:仅在需要精确控制的情况下设置此参数 并行线程数(例如,减少对 )。

  • poll.file.count:传递要从 数据复制 GCS 路径中提供的 Cloud Storage 路径 字段。默认为每次轮询 500,不过 可根据集群配置增加或减少。

    建议:只有在对 复制延迟时间值越小,延迟时间就越短。您可以使用它 提高吞吐量(如果无响应,请使用高于默认值的值)。

  • bad.files.base.path:传递基本 Cloud Storage 路径,其中 复制之前发现的所有错误或故障数据文件, 复制。在对数据有严格的要求时,此功能非常有用 并且必须使用某个特定位置来记录 传输。

    默认情况下,系统会从 Cloud Storage Data Replication Cloud Storage Path 字段中提供的路径 网页界面

    • 错误的数据文件最终路径模式:

      gs://BASE_FILE_PATH/MASS_TRANSFER_ID/SOURCE_TABLE_NAME/bad_files/REPLICATION_JOB_NAME/REPLICATION_JOB_ID/BAD_FILE_NAME
      

    • 示例:

      gs://slt_to_cdf_bucket/001/MARA/bad_files/MaraRepl/05f97349-7398-11ec-9443-8
      ac0640fc83c/20220205_1901205168830_DATA_INIT.xml
      

    判断文件有误的标准是已损坏或无效的 XML 文件,缺少 PK 或字段数据类型不匹配问题。

支持服务详情

支持的 SAP 产品和版本

  • SAP_BASIS 702 版本、SP 级别 0016 及更高版本。
  • SAP_ABA 702 版本、SP 级别 0016 及更高版本。
  • DMIS 2011_1_700 版本、SP 级别 0017 及更高版本。

支持的 SLT 版本

支持 SLT 版本 2 和 3。

受支持的 SAP 部署模型

作为独立系统或嵌入源系统中的 SLT。

在开始使用 SLT 之前需要实现的 SAP 说明

如果您的支持包不包含针对 PL 的 /UI2/CL_JSON 类更正 12 或更高版本,请针对 /UI2/CL_JSON 类更正实现最新的 SAP 说明, 例如 PL12 的 SAP 说明 2798102。

推荐:实施报告建议的 SAP 说明 CNV_NOTE_ANALYZER_SLT,基于中央或来源系统条件。对于 请参阅 SAP 说明 3016862 (需要 SAP 登录)。

如果已设置 SAP,则无需额外说明 。有关任何特定错误或问题,请参阅 中央 SAP 说明 SLT 版本。

数据量或记录宽度限制

提取的数据量和记录宽度没有定义限制。

SAP SLT Replication 插件的预期吞吐量

对于根据 优化性能,该插件可以提取到 初始加载每小时 13 GB,复制 (CDC) 每小时 3 GB。 实际性能可能会因 Cloud Data Fusion 和 SAP 系统而异 负载或网络流量

支持提取 SAP 增量(已更改的数据)

支持提取 SAP 增量。

必需:Cloud Data Fusion 实例的租户对等互连

将 Cloud Data Fusion 实例设为 使用内部 IP 地址创建如需详细了解租户对等互连,请参阅创建专用实例

问题排查

复制作业不断重启

如果复制作业不断自动重启,请提高 复制作业集群内存,然后重新运行 复制作业。

BigQuery 接收器中的重复项

如果您在 SAP SLT Replication 插件,当您的表过大时,会发生错误 会导致 BigQuery 接收器中出现重复的列。

为了防止出现此问题,对于加载数据,请移除并行作业。

错误场景

下表列出了一些常见的错误消息(引号内的文本将是 替换为运行时实际值):

邮件 ID 消息 建议采取的操作
CDF_SAP_SLT_01402 Service account type is not defined for SERVICE_ACCT_NAME_FROM_UI. 确保提供的 Cloud Storage 路径正确无误。
CDF_SAP_SLT_01403 Service account key provided is not valid due to error: ROOT_CAUSE. Please provide a valid service account key for service account type : SERVICE_ACCT_NAME_FROM_UI. 查看消息中显示的根本原因,并采取适当措施 操作。
CDF_SAP_SLT_01404 Mass Transfer ID could not be found. Please ensure that it exists in given GCS Bucket. 检查指定的批量传输 ID 的格式是否正确。
CDF_SAP_SLT_01502 The specified data replication GCS path 'slt_to_cdf_bucket_1' or Mass Transfer ID '05C' could not be found. Please ensure that it exists in GCS. 确保提供的 Cloud Storage 路径正确无误。
CDF_SAP_SLT_01400 Metadata file not found. The META_INIT.json file is not present or file is present with invalid format. 查看消息中显示的根本原因,并采取适当措施 操作。
CDF_SAP_SLT_03408 Failed to start the event reader. 查看消息中显示的根本原因,并采取适当措施 操作。
CDF_SAP_SLT_03409 Error while processing TABLE_NAME file for source table gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/TABLE_NAME /FILE_NAME. Root cause: ROOT_CAUSE. 查看消息中显示的根本原因,并采取适当措施 操作。
CDF_SAP_SLT_03410 Failed to replicate data for source table TABLE_NAME from file: gs://CLOUD_STORAGE_BUCKET_NAME/MT_ID/ TABLE_NAME/FILE_NAME. Root cause: ROOT_CAUSE. 查看消息中显示的根本原因,并采取适当措施 操作。
CDF_SAP_SLT_03411 Failed data replication for source table TABLE_NAME. Root cause: ROOT_CAUSE. 查看消息中显示的根本原因,并采取适当措施 操作。
CDF_SAP_SLT_03412 Failed to create target table for source table TABLE_NAME. Root cause: ROOT_CAUSE. 检查消息中显示的根本原因,并采取适当措施。

数据类型映射

下表显示了 SAP 中使用的数据类型之间的对应关系 和 Cloud Data Fusion。

SAP 数据类型 ABAP 类型 说明 (SAP) Cloud Data Fusion 数据类型
数字
INT1 b 1 个字节的整数 int
INT2 2 个字节的整数 int
INT4 i 4 个字节的整数 int
INT8 8 8 个字节的整数 long
DEC p 打包成采用 BCD 格式的数字 (DEC) decimal
DF16_DEC
DF16_RAW
a 十进制浮点 8 字节 IEEE 754r decimal
DF34_DEC
DF34_RAW
e 十进制浮点 16 个字节 IEEE 754r decimal
FLTP f 二进制浮点数 double
字符
CHAR
LCHR
c 字符串 string
SSTRING
GEOM_EWKB
字符串 字符串 string
STRING
GEOM_EWKB
字符串 字符串 CLOB bytes
NUMC
ACCP
n 数字文本 string
Byte
RAW
LRAW
x 二进制数据 bytes
RAWSTRING xstring 字节字符串 BLOB bytes
日期/时间
DATS d 日期 date
Tims t 时间 time
时间戳 utcl ( Utclong )
TimeStamp
timestamp

后续步骤