Cloud Data Fusion 提供了 Dataplex 来源插件,用于从位于 Cloud Storage 或 BigQuery 资产中的 Dataplex 实体(表)读取数据。借助 Dataplex Source 插件,您可以将 Cloud Storage 资产中的数据视为表,并使用 SQL 查询过滤数据。
准备工作
创建 Cloud Data Fusion 实例(如果您还没有的话)。此插件适用于运行 Cloud Data Fusion 6.6 或更高版本的实例。
如需使用 Cloud Storage 中的表,您必须为数据湖配置元存储。
如需从 Cloud Storage 实体读取数据,必须将 Dataproc Metastore 附加到数据湖。
不支持 Cloud Storage 实体中的 CSV 数据。
在 Dataplex 项目中,为子网启用专用 Google 访问通道(通常设置为
default
),或将internal_ip_only
设置为false
。
限制
对于 Cloud Storage 素材资源:此插件不支持从 CSV 文件读取。它支持从 JSON、Avro、Parquet 和 ORC 格式读取数据。
对于 Cloud Storage 资产:分区开始日期和分区结束日期不适用。
所需的角色
如需获得管理角色所需的权限,请让管理员向您授予 Dataproc 服务代理和 Cloud Data Fusion 服务代理 (service-CUSTOMER_PROJECT_NUMBER@gcp-sa-datafusion.iam.gserviceaccount.com) 的以下 IAM 角色:
-
Dataplex Developer (
roles/dataplex.developer
) -
Dataplex Data Reader (
roles/dataplex.dataReader
) -
Dataproc Metastore Metadata User (
roles/metastore.metadataUser
) -
Cloud Dataplex Service Agent (
roles/dataplex.serviceAgent
) -
Dataplex Metadata Reader (
roles/dataplex.metadataReader
)
如需详细了解如何授予角色,请参阅管理对项目、文件夹和组织的访问权限。
将插件添加到流水线
在 Google Cloud 控制台中,前往 Cloud Data Fusion 实例页面。
您可以在该页面中管理实例。
点击查看实例,在 Cloud Data Fusion 界面中打开您的实例。
前往 Studio 页面,展开 Source 菜单,然后点击 Dataplex。
配置插件
在 Studio 页面上将此插件添加到流水线后,点击 Dataplex 来源以配置其属性。
如需详细了解配置,请参阅 Dataplex 来源参考文档。
可选:使用示例流水线入门
提供了示例流水线,包括 SAP 源到 Dataplex 接收器流水线和 Dataplex 源到 BigQuery 接收器流水线。
如需使用示例流水线,请在 Cloud Data Fusion 界面中打开您的实例,依次点击 Hub > 流水线,然后选择其中一个 Dataplex 流水线。系统会打开一个对话框,以帮助您创建数据流水线。
后续步骤
- 使用 Dataplex 接收器插件使用 Cloud Data Fusion 提取数据。