安排 Salesforce 转移作业
借助适用于 Salesforce 的 BigQuery Data Transfer Service,您可以自动安排和管理从 Salesforce 到 BigQuery 的周期性加载作业。
限制
Salesforce 转移作业受到以下限制:
- 适用于 Salesforce 的 BigQuery Data Transfer Service 仅支持 Salesforce Bulk API 连接到 Salesforce 实例,并且仅支持转移 Salesforce Bulk API 支持的实体。如需详细了解哪些实体受支持,请参阅“Bulk API 不支持实体”错误。
- 周期性转移作业之间的最短间隔时间为 15 分钟。周期性转移作业的默认间隔时间为 24 小时。
- BigQuery Data Transfer Service 使用 Salesforce Bulk API v1 连接到 Salesforce 端点以检索数据。
准备工作
以下部分介绍了在创建 Salesforce 转移作业之前需要执行的步骤。
Salesforce 前提条件
使用以下配置创建 Salesforce 关联的应用:
- 为应用生成安全令牌。
通过执行以下操作来允许使用 OAuth 用户名和密码流程:
- 在关联的应用中,点击 Setup(设置)。
在快速查找字段中,搜索 OAuth and OpenID Connect Settings(OAuth 和 OpenID Connect 设置),并将其启用。
执行以下操作,为关联的应用的用户启用自行授权:
- 在关联的应用中,点击 Setup(设置)。
- 在快速查找字段中,搜索 Manage connected apps(管理关联的应用)。
- 针对用于转移作业运行的关联的应用,点击 Edit(编辑)。
在 OAuth Policies(OAuth 政策)下,点击 Permitted Users(允许的用户)菜单,然后选择 All users may self-authorize(所有用户都可以自行授权)。
在 IP Relaxation(IP 放宽)下,选择 Relax IP restrictions(放宽 IP 限制)。
创建 Salesforce 转移作业时,您还必须具有以下 Salesforce 信息:
参数名称 | 说明 |
---|---|
clientId |
Salesforce 关联的应用的客户端 ID 或使用方密钥。 |
clientSecret |
Salesforce 关联的应用的 OAuth 客户端密钥或使用方密钥。 |
username |
Salesforce 账号的用户名。 |
password |
Salesforce 账号的密码。 |
securityToken |
Salesforce 账号的安全令牌。此安全令牌是附加到密码的字母数字代码(区分大小写)。从 Salesforce 配置的可信 IP 范围之外访问 Salesforce API 时,需要安全令牌。 |
BigQuery 前提条件
- 确认您已完成启用 BigQuery Data Transfer Service 所需的所有操作。
- 创建 BigQuery 数据集来存储数据。
- 如果您想要为 Pub/Sub 设置转移作业运行通知,请确保拥有
pubsub.topics.setIamPolicy
Identity and Access Management (IAM) 权限。如果您只是要设置电子邮件通知,则无需 Pub/Sub 权限。如需了解详情,请参阅 BigQuery Data Transfer Service 运行通知。
所需 BigQuery 角色
如需获得创建转移作业所需的权限,请让您的管理员为您授予 BigQuery Admin (roles/bigquery.admin
) IAM 角色。如需详细了解如何授予角色,请参阅管理访问权限。
此预定义角色可提供创建转移作业所需的权限。如需查看所需的确切权限,请展开所需权限部分:
所需权限
创建转移作业需要以下权限:
-
针对用户的
bigquery.transfers.update
权限 -
针对目标数据集的
bigquery.datasets.get
权限 -
针对目标数据集的
bigquery.datasets.update
权限
设置 Salesforce 数据转移作业
如需创建 Salesforce 数据转移作业,请执行以下操作:
控制台
在 Google Cloud 控制台中,转到 BigQuery 页面。
点击数据转移 > 创建转移作业。
在来源类型部分的来源中,选择 Salesforce。
在转移配置名称部分的显示名中,输入转移作业的名称。
在时间表选项部分中,执行以下操作:
在重复频率列表中,选择一个选项以指定此转移作业的运行频率。如需指定自定义重复频率,请选择自定义。如果您选择按需,则当您手动触发转移作业时,此转移作业会运行。
如果适用,请选择立即开始或在设置的时间开始,并提供开始日期和运行时间。
在目标设置部分的数据集中,选择您创建的用来存储数据的数据集。
在数据源详细信息部分中,执行以下操作:
- 对于自定义网域,输入自定义登录网域(如果适用)。如果您的 Salesforce 登录网址为
login.salesforce.com
或test.salesforce.com
,请将此字段留空。 在 Salesforce Url 字段中,选择 Salesforce 登录网址结尾的后缀。如果您选择
my.salesforce.com
或sandbox.my.salesforce.com
,这些值将作为您在自定义网域字段中提供的自定义网域的后缀。例如,如果您提供了自定义网域
mydomain
并选择了my.salesforce.com
,则登录网址为mydomain.my.salesforce.com
。对于用户名,输入 Salesforce 账号的用户名。
对于密码,输入 Salesforce 账号的密码。
对于安全令牌,输入 Salesforce 账号的安全令牌。
对于客户端 ID,输入 Salesforce 关联的应用使用方密钥。
对于客户端密钥,输入 Salesforce 关联的应用使用方密钥。
对于要转移的 Salesforce 对象,请点击浏览以选择要转移到 BigQuery 目标数据集的任何对象。
- 此外,您还可以在此字段中手动输入要包含在转移作业中的任何对象。
- 对于自定义网域,输入自定义登录网域(如果适用)。如果您的 Salesforce 登录网址为
在服务账号列表中,选择与您的 Google Cloud 项目关联的服务账号。所选服务账号必须具有所需的角色才能运行此转移作业。
如果您使用联合身份登录,则需要有服务账号才能创建转移作业。如果您使用 Google 账号登录,则转移作业的服务账号是可选的。
如需详细了解如何将服务账号用于数据转移,请参阅使用服务账号。
可选:在通知选项部分中,执行以下操作:
- 如需启用电子邮件通知,请点击电子邮件通知切换开关。启用此选项后,传输作业管理员会在传输作业运行失败时收到电子邮件通知。
- 如需为此转移作业启用 Pub/Sub 转移作业运行通知,请点击 Pub/Sub 通知切换开关。您可以选择主题名称,也可以点击创建主题来创建某个主题。
点击保存。
bq
输入 bq mk
命令并提供转移作业创建标志 --transfer_config
:
bq mk \ --transfer_config \ --project_id=PROJECT_ID \ --data_source=DATA_SOURCE \ --display_name=NAME \ --target_dataset=DATASET \ --params='PARAMETERS'
其中:
- PROJECT_ID(可选):您的 Google Cloud 项目 ID。如果未提供
--project_id
来指定具体项目,则系统会使用默认项目。 - DATA_SOURCE:数据源,
salesforce
。 - NAME:此标志表示转移配置的显示名称。转移作业名称可以是任何可让您在需要修改转移作业时识别该转移作业的名称。
- DATASET:转移作业配置的目标数据集。
PARAMETERS:所创建转移作业配置的参数(采用 JSON 格式)。例如
--params='{"param":"param_value"}'
。以下是 Salesforce 转移作业的参数:connector.authentication.oauth.clientId
:Salesforce 关联的应用的客户端 ID 或使用方密钥。connector.authentication.oauth.clientSecret
:Salesforce 关联的应用的 OAuth 客户端密钥或使用方密钥。connector.customDomainName
(可选):Salesforce 自定义登录网域(如果适用)。留空则使用默认登录网域login.Salesforce.com
。connector.authentication.username
:Salesforce 账号的用户名。connector.authentication.password
:Salesforce 账号的密码。connector.authentication.securityToken
:Salesforce 账号的安全令牌。assets
:要转移到 BigQuery 的 Salesforce 对象的路径。
例如,以下命令会使用所有必需参数在默认项目中创建 Salesforce 转移作业:
bq mk \ --transfer_config \ --target_dataset=mydataset \ --data_source=salesforce \ --display_name='My Transfer' \ --params='{"assets":["Account"], "connector.authentication.oauth.clientId": "1234567890", "connector.authentication.oauth.clientSecret":"ABC12345", "connector.customDomainName":"MyDomainName", "connector.authentication.username":"user1@force.com", "Connector.authentication.password":"abcdef1234", "connector.authentication.securityToken":"a1hghbb44lnl465lbl75b",}'
API
使用 projects.locations.transferConfigs.create
方法并提供一个 TransferConfig
资源实例。
价格
将 Salesforce 数据转移到 BigQuery 的功能处于预览版阶段时,您无需付费即可使用此功能。
排查转移作业设置问题
如果您在设置转移作业时遇到问题,请参阅 Salesforce 转移问题。
后续步骤
- 如需大致了解 BigQuery Data Transfer Service,请参阅 BigQuery Data Transfer Service 简介。
- 如需了解如何使用转移作业,包括获取有关转移作业配置的信息、列出转移作业配置以及查看转移作业的运行历史记录,请参阅处理转移作业。
- 了解如何通过跨云操作加载数据。