本文档包含使用 Sensitive Data Protection。如需了解结算信息,请参阅价格页面。
这些限额适用于每个 Google Cloud 控制台项目,并由使用该项目的所有应用和 IP 地址共享。
您可以在 Google Cloud 控制台中设置较低的配额。
请求配额
敏感数据保护的当前 API 请求配额如下:
请求配额 | 值 |
---|---|
每分钟请求数 | 600 |
资源限制
敏感数据保护对存储的资源实施以下限制 每个项目。
资源 | 限额 |
---|---|
模板数量上限 | 1000 |
作业触发器数量上限 | 1000 |
运行的作业数量上限 | 1000 |
存储的信息类型数量上限 | 30 |
发现配置数量上限 | 100 |
内容检查和去标识化限制
Sensitive Data Protection 针对 检查和去标识化以文本或图片形式直接发送到 DLP API 的内容:
限制类型 | 用量限制 |
---|---|
每个请求常规自定义字典的数量上限 | 10 |
每个引用的大小上限(触发匹配的文本的上下文片段,随发现结果返回) | 4 KB |
表格值上限 | 5 万 |
每个请求的转换次数上限 | 100 |
每个集的检查规则数量上限 | 10 |
每个请求的最大发现结果数量 | 3000 |
对 projects.image.redact 的请求 |
4 MB |
默认请求大小限制 | 0.5 MB |
如果您需要检查大于这些限制的文件,请将这些文件存储在 Cloud Storage 中,然后运行检查作业。
存储检查限制
在检查 Google Cloud 存储区时,Sensitive Data Protection 会实施以下使用限制:
限制类型 | 使用量限额 |
---|---|
总扫描大小上限 | 2 TB |
每个引用的大小上限(触发匹配的文本的上下文片段,随发现结果返回) | 4 KB |
存储去标识化限制
当您对存储中的数据进行去标识化时,Sensitive Data Protection 会强制执行以下用量限制:
限制类型 | 用量限制 |
---|---|
文件大小上限 | 60,000 KB |
数据剖析限制
Sensitive Data Protection 对数据分析服务实施以下用量限额 数据。
这些限制在全球范围内适用于组织级和项目级的所有数据配置。
BigQuery 性能分析限制
限制类型 | 用量限制 |
---|---|
BigQuery 表数量上限 | 20 万 |
要剖析的所有 BigQuery 表中的总列数上限 | 2000 万 |
示例:组织级限制
假设您有一个包含两个文件夹的组织 为每个文件夹创建一个扫描配置。 通过这两项配置进行剖析的表总数不得超过 20 万个。所有这些表中的列总数不得超过 2000 万个。
示例:项目级限制
如果在项目级配置数据剖析,则该项目中的表总数不得超过 20 万个。所有这些表中的列总数不得超过 2000 万个。
Cloud SQL 性能剖析限制
限制类型 | 用量限制 |
---|---|
每个实例的数据库数上限 | 1,000 |
每个数据库的表数上限 | 20,000 |
自定义 infoType 限制
敏感数据保护对自定义 infoType 实施以下限制。
限制类型 | 使用量限额 |
---|---|
每个常规自定义字典在请求消息中直接传递的字词列表大小上限 | 128 KB |
每个常规自定义词典在 Cloud Storage 中指定为文件的单词列表的大小上限 | 512 KB |
每个常规自定义字典短语的组成部分(仅包含字母、仅包含数字、仅包含非字母字符或仅包含非数字字符的连续序列)的数量上限 | 40 |
每个请求所有已存储自定义字典的总大小上限 | 5 MB |
每个请求的内置和自定义 infoType 数量上限 | 150 |
每个自定义信息类型的检测规则数量上限 | 5 |
每个请求的自定义 infoType 数量上限 | 30 |
每个请求常规自定义字典的数量上限 | 10 |
正则表达式的最大长度 | 1000 |
存储的信息类型限制
限制类型 | 用量限制 |
---|---|
存储在 Cloud Storage 中的单个输入文件的大小上限 | 200 MB |
存储在 Cloud Storage 中的所有输入文件的总大小上限 | 1 GB |
存储在 Cloud Storage 中的输入文件的数量上限 | 100 |
BigQuery 中输入列的大小上限 | 1 GB |
BigQuery 中输入表行数的数量上限 | 5000000 |
输出文件的大小上限 | 500 MB |
Avro 扫描限制
通常,Avro 文件具有与敏感数据保护和 BigQuery 相同的限制。如果达到这些限制,则使用二进制扫描作为后备。以下限制适用于 Avro 文件的检查内容请求和检查存储作业:
限制类型 | 使用量限额 |
---|---|
单个 Avro 块的大小上限 | 100 MB |
单个 Avro 文件的大小上限 | 1 TB |
Avro 文件的列数上限 | 10000 |
嵌套字段的层级上限 | 15 |
PDF 和 Microsoft 产品的扫描限制
扫描以下类型的文件时,这些限制适用:
- Microsoft Word
- Microsoft Excel
- Microsoft PowerPoint
如果达到这些限制,则使用二进制扫描作为后备。
限制类型 | 用量限额 |
---|---|
Cloud Storage 中单个 PDF 的大小上限。超出此限制的文件将进行二进制文件扫描 | 30 MB |
Cloud Storage 中单个 Word 文件的大小上限。超出此限制的文件将进行二进制文件扫描 | 30 MB |
Cloud Storage 中单个 Excel 文件的大小上限。超出此限制的文件将进行二进制文件扫描 | 30 MB |
Cloud Storage 中单个 PowerPoint 文件的大小上限。超出此限制的文件将进行二进制文件扫描 | 30 MB |
即使您设置了最大字节数 文件。
增加配额
您可以在不超过相应上限值的前提下修改配额,方法是从 Google Cloud 信息中心的配额页面选择修改配额。 如需申请增加配额,请修改配额并输入要申请增加的额度和相关理由,然后提交您的更新信息。我们会在收到申请后通知您。并且可能会与您联系以详细了解您的申请。 审核申请后,无论您的申请是得到批准还是被拒绝,我们都会通知您。
配额依赖项
根据您正在使用的功能,您可能还需要额外的配额。
- Pub/Sub:如果您使用的是 Pub/Sub,则可能需要额外的配额。
- BigQuery:
- 在配额限制和其他限制适用的情况下,Streaming API 可用于保存检查作业的结果。
- 用于列出表中各行内容的
google.cloud.bigquery.storage.v1beta1.BigQueryStorage
受配额限制的约束。
了解服务中断
敏感数据保护的功能依赖于其他 Google Cloud 服务。由于存在这些依赖关系,因此, 敏感数据保护具有与这些产品相当的可靠性。
我们会尽最大努力反复重试,直到所有经常出现的错误都得到抑制为止,但如果这些服务发生中断,则可能会影响用户的体验。
您可以查看 Google Cloud 状态信息中心,了解所有已知的服务中断。此外,您还可以订阅 Google Cloud 状态信息中心更新 JSON Feed 或 RSS Feed,以获得推送更新。