使用 Salesforce 批量来源插件分析 BigQuery 中的潜在客户数据
了解如何使用 Cloud Data Fusion 中的 Salesforce 批量来源插件来分析 BigQuery 中的潜在客户数据。
如需在 Google Cloud 控制台中直接遵循有关此任务的分步指导,请点击操作演示:
情况
假设有一位营销经理正在策划一个具有高度针对性的电子邮件营销活动来推广新产品,您在 Salesforce Sales Cloud 中有一个潜在客户列表。在创建有针对性的广告系列之前,为了更好地了解您的目标受众群体,您需要在 Cloud Data Fusion 中使用 Salesforce 批量来源插件来提取特定的潜在客户数据。
准备工作
- 登录您的 Google Cloud 账号。如果您是 Google Cloud 新手,请创建一个账号来评估我们的产品在实际场景中的表现。新客户还可获享 $300 赠金,用于运行、测试和部署工作负载。
-
在 Google Cloud Console 中的项目选择器页面上,选择或创建一个 Google Cloud 项目。
-
在 Google Cloud Console 中的项目选择器页面上,选择或创建一个 Google Cloud 项目。
-
启用 Cloud Data Fusion, BigQuery, Cloud Storage, and Dataproc API。
- 创建 Cloud Data Fusion 实例。
- 通过为 Cloud Data Fusion 创建 Salesforce 连接的应用来配置与 Salesforce API 的连接。
管理权限
创建并分配所需的自定义角色和权限。
创建自定义角色并添加权限
在 Google Cloud 控制台中,转到角色页面:
点击
创建角色。在书名字段中,输入
Custom Role-Tutorial
。点击
添加权限。在添加权限窗口中,选择以下权限,然后点击添加:
bigquery.datasets.create
bigquery.jobs.create
storage.buckets.create
点击创建。
为默认的 Compute Engine 服务帐号分配自定义角色
转到 Cloud Data Fusion 实例页面:
点击您实例的名称。
记下默认的 Compute Engine 服务帐号。实例详情页面包含此信息。
Cloud Data Fusion 默认 Compute Engine 服务帐号名称的格式为
CUSTOMER_PROJECT_NUMBER-compute@developer.gserviceaccount.com
。转到 IAM 页面:
在 Filer 栏中,输入您的默认 Compute Engine 服务帐号的名称。
对于默认的 Compute Engine 服务帐号,请点击
修改。点击
添加其他角色。在选择角色字段中,选择自定义角色教程。
点击保存。
配置 Cloud Data Fusion Salesforce Batch Source 插件
转到 Cloud Data Fusion 实例页面:
对于您的实例,点击查看实例。此时将打开 Cloud Data Fusion 网页界面。
前往 Studio 页面。
点击 Hub。
在搜索栏中,输入
Salesforce
。点击 Salesforce 插件,然后点击部署。
在 Salesforce 插件部署窗口中,点击完成。
部署完成后,系统会显示一个对话框,其中包含成功消息。
在该对话框中,点击创建流水线。
此时会显示 Cloud Data Fusion Studio 页面。
选择数据流水线 - 批量作为数据流水线的类型。
在来源菜单中,点击 Salesforce。
前往 Salesforce 节点,然后点击属性。系统随即会打开 Salesforce 插件属性页面。
在参考文件名称字段中,输入来源的名称。例如
Leads_generated
。在连接部分,点击使用连接切换开关。
点击浏览连接。系统随即会打开浏览连接窗口。
点击添加连接,然后选择 Salesforce。
在创建 Salesforce 连接窗口中,点击配置标签页并执行以下操作:
在名称字段中,输入用于标识连接的名称,例如
Salesforce_connection
。在凭据部分中,输入 Salesforce 帐号的以下详细信息:
- 用户名
- 密码
- 使用方密钥
- 使用方密钥
- 安全令牌
点击测试连接。 如果输入的详细信息正确无误,测试会成功,并显示“已成功连接”的消息。
点击创建。
选择 Salesforce_connection 并返回 Salesforce 插件属性页面。
从 Salesforce Batch Source 插件提取数据
在 Salesforce 插件属性页面的 SOQL 查询部分,输入以下查询:
Select LastName,FirstName,Company,Email,Phone,LeadSource,Industry,OwnerId,CreatedDate,LastModifiedDate,LastActivityDate from Lead where Status like '%Open%'
此查询从 sObject
Lead
中提取投放广告系列所需的潜在客户的详细信息。如需确定对象架构的有效性,请点击获取架构。
如需过滤广告系列投放特定日期或时间的记录,请使用以下字段:
- 上次修改日期晚于
- 上次修改时间早于
- 时长
- 偏移值
使用 Wrangler 插件转换数据
使用 Cloud Data Fusion 中的 Wrangler 插件清理并丰富您的数据:
返回 Studio 页面。
在转换菜单中,点击 Wrangler。
将 Wrangler 连接到 Salesforce Batch Source 插件。
前往 Wrangler 插件,然后点击属性。系统随即会打开 Wrangler 插件属性页面。
确保已填充输入架构。
点击 Wrangler。
在连接窗格中,选择一个有效的连接。
选择要转换的 sObject,例如
Lead
。使用所需指令转换数据:
keep :LastName,:FirstName,:Company,:Phone,:Email,:LeadSource,:OwnerId, :CreatedDate,:LastModifiedDate,:LastActivityDatemerge :FirstName :LastName :Name ' ' fill-null-or-empty :Email 'no email found' mask-number :Phone ########xxxxxxxx format-date :LastActivityDate yyyy-MM-dd HH:mm:ss drop :LastName,:FirstName
将数据加载到 BigQuery 中
返回 Studio 页面。
在接收器菜单中,点击 BigQuery。
前往 BigQuery 节点,然后点击属性。 系统随即会打开 BigQuery 插件属性页面。
在基本部分的参考名称字段中,输入用于标识此接收器的名称。例如
Leads_generated
。在数据集字段中,输入表所属的数据集。例如
Salesforce_Leads
。在表字段中,输入需要存储提取记录的表。例如
Incoming_Open_Leads
。要验证插件,请点击验证。
部署、安排和运行流水线
如需部署流水线,请点击部署。
如需使用调度器设置适当的刷新时间表,请按以下步骤操作:
- 点击计划。
输入以下详细信息:
- 流水线运行重复
- 重复频率
- 起价
- 最大并发运行数量
- 计算配置文件
点击保存并开始时间表。
如需运行流水线,请点击运行。
验证数据提取和注入
在 Google Cloud 控制台中,进入 BigQuery 页面:
搜索数据集
Salesforce_Leads
和表名称Incoming_Open_Leads
以查看提取的记录。如需运行查询,请点击查询。
分析潜在客户数据,更好地了解您的受众群体并大规模投放量身定制的广告系列。
清理
为避免因本页中使用的资源导致您的 Google Cloud 账号产生费用,请按照以下步骤操作。
删除 Cloud Data Fusion 实例
请按照以下说明删除 Cloud Data Fusion 实例。
删除项目
若要避免产生费用,最简单的方法是删除您为本教程创建的项目。
如需删除项目,请执行以下操作:
- 在 Google Cloud 控制台中,进入管理资源页面。
- 在项目列表中,选择要删除的项目,然后点击删除。
- 在对话框中输入项目 ID,然后点击关闭以删除项目。