本文档介绍了如何使用元数据导入 API 方法和您自己的流水线,将 Dataplex Catalog 元数据从第三方系统导入 Dataplex。Dataplex Catalog 元数据由条目及其切面组成。
如果您想改用 Google Cloud管理的编排流水线来提取和导入元数据,我们建议您使用代管式连接流水线。借助托管式连接管道,您可以使用自己的连接器提取元数据,并以元数据导入 API 方法(元数据导入文件)可用作输入的格式生成输出。然后,您可以使用 Workflows 编排流水线任务。
您可以运行以下类型的元数据导入作业:
- 通过增量导入其方面来完全同步条目。适用于自定义条目。
- 仅增量导入方面。适用于属于自定义条目和系统条目的方面。对于自定义条目,您可以修改可选方面和必需方面。对于系统条目,您可以修改可选方面。
简要步骤
如需使用元数据导入 API 导入元数据,请按以下大致步骤操作:
确定作业范围。
此外,了解 Dataplex 如何为条目和方面应用比较逻辑和同步模式。
创建一个或多个元数据导入文件,用于定义要导入的数据。
将元数据导入文件保存在 Cloud Storage 存储分区中。
运行元数据导入作业。
本页中的步骤假定您熟悉 Dataplex Catalog 中的概念,包括条目组、条目类型和切面类型。如需了解详情,请参阅 Dataplex Catalog 概览。
准备工作
在导入元数据之前,请完成本部分中的任务。
所需的角色
为了确保 Dataplex 服务账号具有访问 Cloud Storage 存储分区的必要权限,请让您的管理员向 Dataplex 服务账号授予 Storage Object Viewer (roles/storage.objectViewer
) IAM 角色以及对存储分区的 storage.buckets.get
权限。
如需获得管理元数据作业所需的权限,请让您的管理员为您授予以下 IAM 角色:
-
在完整条目同步元数据作业中修改条目及其方面:
-
Dataplex Entry Type User (
roles/dataplex.entryTypeUser
) 角色(针对条目类型或定义条目类型的项目) -
针对切面类型或定义切面类型的项目的 Dataplex Aspect Type User (
roles/dataplex.aspectTypeUser
)
-
Dataplex Entry Type User (
-
修改仅包含方面信息的元数据作业中的必需方面:
-
Dataplex Entry Type User (
roles/dataplex.entryTypeUser
) 角色(针对条目类型或定义条目类型的项目) -
针对切面类型或定义切面类型的项目的 Dataplex Aspect Type User (
roles/dataplex.aspectTypeUser
)
-
Dataplex Entry Type User (
-
修改仅包含切面的元数据作业中的可选切面:对切面类型或定义切面类型的项目使用 Dataplex Aspect Type User (
roles/dataplex.aspectTypeUser
) 角色。请注意,在仅包含方面信息的元数据作业中修改可选方面时,您无需拥有关联条目类型的权限。 -
创建元数据作业:
-
针对项目或资源的 Dataplex Entry Group Importer (
roles/dataplex.entryGroupImporter
) -
项目或资源的 Dataplex Entry Owner (
roles/dataplex.entryOwner
)
-
针对项目或资源的 Dataplex Entry Group Importer (
-
查看元数据作业:
项目的 Dataplex Metadata Job Viewer (
roles/dataplex.metadataJobViewer
) -
创建、查看和取消元数据作业:针对项目的 Dataplex Metadata Job Owner (
roles/dataplex.metadataJobOwner
) 角色
如需详细了解如何授予角色,请参阅管理对项目、文件夹和组织的访问权限。
创建 Google Cloud 资源
准备以下 Google Cloud 资源:
- 为要导入的条目创建条目组。
- 为要导入的方面创建方面类型。
- 为要导入的条目创建条目类型。
- 如果您要运行仅包含方面信息的元数据作业,请为要导入的方面创建条目。
- 创建 Cloud Storage 存储分区以存储元数据导入文件。
元数据作业的组成部分
导入元数据时,请考虑元数据作业的以下组成部分:
- 作业范围:要包含在作业中的条目组、条目类型和切面类型。
- 同步模式:作业中的条目和方面如何更新。
- 元数据导入文件:用于定义要为作业中的条目和方面设置的值的文件。您可以在同一元数据作业中提供多个元数据导入文件。您将文件保存在 Cloud Storage 中。
- 比较逻辑:Dataplex 确定要修改哪些条目和方面的方式。
作业范围
作业范围用于定义您要包含在元数据作业中的条目组、条目类型和切面类型。导入元数据时,您可以修改作业范围内资源的条目和方面。
如需定义作业范围,请遵循以下准则:
条目组:指定要包含在作业中的单个条目组。 该作业仅修改属于此条目组的条目和方面。 条目组和作业必须位于同一区域。
条目类型:指定要包含在作业中的一种或多种条目类型。该作业仅修改属于这些条目类型的条目和方面。条目类型的位置必须与作业的位置一致,或者条目类型必须是全局性的。
方面类型:指定要包含在作业中的一个或多个方面类型。该作业仅修改属于这些方面类型的方面。切面类型的位置必须与工作地点一致,或者切面类型必须是全球性质。
您可以在创建元数据作业时指定作业范围。
同步模式
同步模式指定元数据作业中的条目和方面如何更新。您可以为条目和方面提供同步模式。根据您要导入的资源,系统支持以下同步模式组合。
目标 | 条目同步模式 | 宽高比同步模式 | 结果 |
---|---|---|---|
导入条目及其方面 | FULL |
INCREMENTAL |
作业范围内的所有条目都会被修改。 如果 Dataplex 中存在某个条目,但该条目未包含在元数据导入文件中,则在您运行元数据作业时,系统会删除该条目。 只有在元数据导入文件的 |
仅导入方面 | NONE |
INCREMENTAL |
如果切面属于作业的范围,并且元数据导入文件在 作业范围内条目对应的其他元数据不会被修改。 |
您可以在创建元数据作业时指定同步模式。
元数据导入文件
元数据导入文件是您要修改的条目和方面集合。它定义了要为属于这些条目和方面(即“维度”)的所有字段设置的值。您需要先准备该文件,然后再运行元数据作业。
请遵循以下一般准则:
- 您可以在同一元数据作业中提供多个元数据导入文件。
当您运行完整条目同步元数据作业时,您在文件中提供的条目会完全替换作业范围内任何资源的所有现有条目。这意味着,您必须包含作业中所有条目的值,而不仅仅是您要添加或更新的值。如需获取项目中当前条目的列表以用作起点,请使用
entries.list
API 方法。您必须在元数据作业中提供元数据导入文件。如果您想删除作业范围内条目的所有现有数据,请提供一个空的元数据导入文件。
您在文件中添加的所有条目和方面都必须属于您在作业范围内定义的条目组、条目类型和方面类型。
请使用以下部分中的详细准则创建元数据导入文件。
文件的结构
元数据导入文件中的每一行都包含一个 JSON 对象,该对象与一个导入项相对应。导入项是一种对象,用于描述要修改的条目及其附加的方面所对应的值。
您可以在单个元数据导入文件中提供多个导入项。不过,请勿在元数据作业中多次提供相同的导入项。使用换行符 (0x0a
) 将每个导入项分隔开来。
在每个导入项之间添加换行符的元数据导入文件如下例所示:
{ "entry": { "name": "entry 1", #Information about entry 1 }
{ "entry": { "name": "entry 2", #Information about entry 2 }
导入项的结构
元数据导入文件中的每个导入项都可以包含以下字段(请参阅 ImportItem
)。以下示例采用了换行格式以提高可读性,但在保存文件时,请仅在每个导入项后面添加换行符。请勿在单个导入项的字段之间添加换行符。
{
"entry": {
"name": "ENTRY_NAME",
"entryType": "ENTRY_TYPE",
"entrySource": {
"resource": "RESOURCE",
"system": "SYSTEM",
"platform": "PLATFORM",
"displayName": "DISPLAY_NAME",
"description": "DESCRIPTION",
"createTime": "ENTRY_CREATE_TIMESTAMP",
"updateTime": "ENTRY_UPDATE_TIMESTAMP"
},
"aspects": {
"ASPECT": {
"data": {
"KEY": "VALUE"
},
"aspectSource": {
"createTime": "ASPECT_CREATE_TIMESTAMP",
"updateTime": "ASPECT_UPDATE_TIMESTAMP"
}
},
# Additional aspect maps
},
"parentEntry": "PARENT_ENTRY",
"fullyQualifiedName": "FULLY_QUALIFIED_NAME"
},
"updateMask": "UPDATE_MASK_FIELDS",
"aspectKeys": [
"ASPECT_KEY",
# Additional aspect keys
],
}
替换以下内容:
entry
:条目及其附加的方面相关信息。在仅包含切面的元数据作业中,Dataplex 会忽略条目的所有选填字段(切面映射除外)。- ENTRY_NAME:条目的相对资源名称,格式为
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID/entries/ENTRY_ID
。 - ENTRY_TYPE:用于创建此条目的条目类型的相对资源名称,格式为
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
。 entrySource
:源系统中与条目所代表的数据资源相关的信息:- RESOURCE:源系统中的资源名称。
- SYSTEM:来源系统的名称。
- PLATFORM:包含源系统的平台。
- DISPLAY_NAME:易于理解的显示名称。
- DESCRIPTION:条目的说明。
- ENTRY_CREATE_TIMESTAMP:条目在源系统中创建的时间。
- ENTRY_UPDATE_TIMESTAMP:条目在源系统中更新的时间。
aspects
:附加到条目的方面。aspect
对象及其数据称为“方面映射”。ASPECT:附加到条目的方面。根据相应方面与条目的附加方式,使用以下任一格式:
- 如果相应方面直接附加到条目,请提供其相应方面类型的相对资源名称,格式为
PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID
。 - 如果相应方面附加到条目的路径,请提供相应方面类型的路径,格式为
PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID@PATH
。
- 如果相应方面直接附加到条目,请提供其相应方面类型的相对资源名称,格式为
KEY 和 VALUE:相应方面的内容,具体取决于其方面类型元数据模板。内容必须采用 UTF-8 编码。该字段的大小上限为 120 KB。
data
字典是必需的,即使它为空也是如此。ASPECT_CREATE_TIMESTAMP:在源系统中创建相应方面的时间。
ASPECT_UPDATE_TIMESTAMP:相应方面在源系统中更新的时间。
PARENT_ENTRY:父级条目的资源名称。
FULLY_QUALIFIED_NAME:可供外部系统引用的条目的名称。请参阅完全限定名称。
- ENTRY_NAME:条目的相对资源名称,格式为
UPDATE_MASK_FIELDS:要更新的字段,以相对于
Entry
资源的路径表示。每个字段之间用英文逗号分隔。在完整条目同步作业中,Dataplex 会包含可修改的条目的所有字段(包括方面)的路径。创建或重新创建条目时,系统会忽略
updateMask
字段。在仅处理方面元数据的作业中,将此值设置为
aspects
。ASPECT_KEY:要修改的方面。支持以下语法:
ASPECT_TYPE_REFERENCE
:与直接附加到条目的方面类型匹配。ASPECT_TYPE_REFERENCE@PATH
:与相应方面类型和指定路径匹配。ASPECT_TYPE_REFERENCE@*
:与所有路径的宽高比类型匹配。*@PATH
:与指定路径上的所有方面类型匹配。
将
ASPECT_TYPE_REFERENCE
替换为对相应方面类型的引用,格式为PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID
。在完整条目同步作业中,如果您将此字段留空,系统会将其视为确切指定指定条目中存在的各个方面。Dataplex 会隐式添加条目所有必需方面的键。
文件要求
元数据导入文件须满足以下要求:
- 该文件必须采用 JSON Lines 文件格式,即以换行符分隔的 JSON 文件。使用换行符 (
0x0a
) 将每个导入项分隔开来。 - 文件必须使用 UTF-8 字符编码。
- 支持的文件扩展名为
.jsonl
和.json
。 - 每个元数据导入文件的文件大小不得超过 1 GiB。元数据作业中所有数据的总大小上限为 3 GB。这包括与作业关联的所有文件和元数据。
- 您在文件中指定的条目和方面必须属于元数据作业的范围。
- 该文件必须上传到 Cloud Storage 存储分区。请勿将文件保存在名为
CLOUD_STORAGE_URI/deletions/
的文件夹中。
比较逻辑
Dataplex 会将您在元数据导入文件中提供的值和时间戳与项目中存在的值和时间戳进行比较,以确定要修改哪些条目和方面。
概括地说,当元数据导入文件中至少有一项建议的更改会在作业运行时更改项目的状态时,Dataplex 会更新项目中的值,而不会引入过时数据。元数据导入文件中的更新掩码字段或方面键字段中必须引用建议的更改。
比较逻辑因您运行的元数据作业类型而异。
完整条目同步作业
在完整条目同步元数据作业中,对于作业范围内的每个条目,Dataplex 都会执行以下操作之一:
- 创建条目和附加的方面。如果元数据导入文件包含项目中不存在的条目,Dataplex 会创建该条目和附加的方面。
- 删除条目和关联的方面。如果您的项目中存在条目,但元数据导入文件不包含该条目,Dataplex 会从您的项目中删除该条目及其附加的方面。
更新条目和附加的方面。如果元数据导入文件和项目中都存在某个条目,Dataplex 会评估与该条目关联的条目来源时间戳和方面来源时间戳,以确定要修改哪些值。然后,Dataplex 会执行以下一项或多项操作:
- 重新创建条目。如果元数据导入文件中的条目来源创建时间戳比项目中的相应时间戳更晚,Dataplex 会在项目中重新创建该条目。
- 更新条目。如果元数据导入文件中的条目来源更新时间戳比项目中的相应时间戳更晚,Dataplex 会更新项目中的条目。
- 创建一个方面。如果您的项目中不存在某个方面,但该方面包含在元数据导入文件中的方面映射、更新掩码字段和方面键字段中,Dataplex 会创建该方面。
- 删除某个方面。如果您的项目中存在某个方面,并且该方面包含在元数据导入文件的“更新掩码”字段和“方面键”字段中,但未包含在方面映射中,Dataplex 会删除该方面。
更新方面。如果您的项目中存在某个方面,并且该方面包含在元数据导入文件中的方面映射、更新掩码字段和方面键字段中,并且元数据导入文件中的方面来源更新时间戳比项目中的相应时间戳更晚,则 Dataplex 会更新该方面。
如果元数据导入文件中未提供方面来源更新时间戳,但相应条目已标记为更新,Dataplex 也会更新该方面。
不过,如果元数据导入文件中的至少一个方面的时间戳比项目中的相应时间戳更早,则 Dataplex 不会对关联的条目进行任何更新。
仅限某个方面的工作
在仅包含方面元数据的作业中,对于作业范围内的每个方面,Dataplex 都会执行以下操作之一:
- 创建一个方面。如果您的项目中不存在某个方面,但该方面包含在元数据导入文件中的方面映射、更新掩码字段和方面键字段中,Dataplex 会创建该方面。
删除某个方面。对于可选方面,如果该方面存在于您的项目中,并且包含在元数据导入文件的“更新掩码”字段和“方面键”字段中,但未包含在方面映射中,Dataplex 会删除该方面。
您无法删除必需的方面。
更新方面。如果您的项目中存在某个方面,并且该方面包含在元数据导入文件中的方面映射、更新掩码字段和方面键字段中,并且元数据导入文件中的方面来源更新时间戳比项目中的相应时间戳更晚,则 Dataplex 会更新该方面。
如果元数据导入文件中未提供方面来源更新时间戳,Dataplex 也会更新该方面。
Dataplex 会根据方面来源更新时间戳更新方面,而不管相应条目的条目来源更新时间戳如何。
创建元数据导入文件
在导入元数据之前,请为您的作业创建元数据导入文件。请按照以下步骤操作:
- 按照本文档前面介绍的准则准备元数据导入文件。
- 将文件上传到 Cloud Storage 存储分区。
您可以在同一元数据作业中提供多个元数据导入文件。如需提供多个文件,请将这些文件保存在同一 Cloud Storage 存储分区中。运行作业时,您需要指定存储分区,而不是指定特定文件。Dataplex 会从存储在存储分区中的所有文件(包括子文件夹中的文件)导入元数据。
运行元数据导入作业
创建元数据导入文件后,使用 API 运行元数据导入作业。
REST
如需导入元数据,请使用 metadataJobs.create
方法。
在使用任何请求数据之前,请先进行以下替换:
- PROJECT_NUMBER:您的 Google Cloud 项目编号或项目 ID。
- LOCATION_ID: Google Cloud 位置,例如
us-central1
。 - METADATA_JOB_ID:可选。元数据作业 ID。
CLOUD_STORAGE_URI:包含元数据导入文件的 Cloud Storage 存储分区或文件夹的 URI。如需详细了解文件要求,请参阅元数据导入文件。
- ENTRY_GROUP:作业范围内条目组的相对资源名称,格式为
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
。 请仅提供一个条目组。 如需了解详情,请参阅作业范围。 ENTRY_TYPE:作业范围内条目类型的相对资源名称,格式为
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
。 如需了解详情,请参阅作业范围。- ASPECT_TYPE:相应工作范围内方面类型的相对资源名称,格式为
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
。 在创建完整条目同步作业时为可选,在创建仅限方面作业时为必需。 如需了解详情,请参阅作业范围。 - ENTRY_SYNC_MODE:条目同步模式,例如
FULL
或NONE
。如需了解详情,请参阅同步模式。 - LOG_LEVEL:要捕获的日志级别,例如
INFO
或DEBUG
。如需了解详情,请参阅查看作业日志和排查问题。
HTTP 方法和网址:
POST https://dataplex.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION_ID/metadataJobs?metadataJobId=METADATA_JOB_ID
请求 JSON 正文:
{ "type": IMPORT, "import_spec": { "source_storage_uri": gs://CLOUD_STORAGE_URI/, "scope": { "entryGroups": [ ENTRY_GROUP ], "entry_types": [ ENTRY_TYPE ], "aspect_types": [ ASPECT_TYPE ] }, "entry_sync_mode": ENTRY_SYNC_MODE, "aspect_sync_mode": INCREMENTAL, "log_level": LOG_LEVEL } }
如需发送您的请求,请展开以下选项之一:
该响应用于标识长时间运行的操作。
获取元数据作业的详细信息
如需获取元数据作业的信息(例如作业的状态和修改的条目数量),请按以下步骤操作。如需详细了解如何排查作业失败问题,请参阅本文档的查看作业日志和排查问题部分。
REST
如需获取元数据作业的相关信息,请使用 metadataJobs.get
方法。
获取元数据作业列表
您可以获取最新元数据作业的列表。系统会定期从系统中删除已达到终止状态的旧作业。
REST
如需获取最新元数据作业的列表,请使用 metadataJobs.list
方法。
取消元数据作业
您可以取消不想运行的元数据作业。
REST
如需取消元数据作业,请使用 metadataJobs.cancel
方法。
查看作业日志和排查问题
使用 Cloud Logging 查看元数据作业的日志。如需了解详情,请参阅监控 Dataplex 日志。
您可以在创建元数据作业时配置日志级别。可用的日志级别如下:
INFO
:在整个作业级别提供日志。包含有关导入项的汇总日志,但未指定哪个导入项存在错误。DEBUG
:为每个导入项提供详细日志。使用调试级日志记录来排查特定导入项的问题。例如,使用调试级日志记录来确定作业范围中缺少的资源、不符合关联条目类型或方面类型的条目或方面,或元数据导入文件的其他错误配置。
验证错误
Dataplex 会根据项目中的当前元数据验证元数据导入文件。如果存在验证问题,作业状态可能会返回以下某种状态:
FAILED
:当元数据导入文件出现错误时发生。Dataplex 不会导入任何元数据,并且作业会失败。元数据导入文件中的错误示例包括:- 文件中的某个项无法解析为有效的导入项
- 文件中的条目或方面属于不属于作业范围的条目组、条目类型或方面类型
- 作业中多次指定了相同的条目名称
- 在方面映射或方面键中指定的方面类型不使用 PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID@OPTIONAL_PATH 格式
- 某个必需的方面被标记为待删除
SUCCEEDED_WITH_ERRORS
:当元数据导入文件可以成功解析,但导入文件中的项会导致项目中的条目处于不一致状态时,就会发生这种情况。Dataplex 会忽略此类条目,但会从文件中导入其余元数据。
使用作业日志排查错误。