配额和限制

本页面介绍 Cloud Storage 的配额和请求限制。您可以申请增加配额,但不能调整限制。

配额和限制随时可能更改。

存储桶

限制 备注
存储桶名称大小上限 63 个字符

如果名称包含句点 (.),则最多可包含 222 个字符。

每个项目的存储桶创建和删除速率上限 大约每 2 秒 1 个请求

在大多数情况下,应采用较少存储桶和较多对象的方案。例如,常见的设计方案是针对项目中的每个用户使用一个存储桶。但是,如果您设计的系统每秒会添加多个用户,则可选择多个用户共用一个存储桶(具有适当的权限)的设计,以避免存储桶创建速率限制成为瓶颈。

对可用性有高要求的应用不应在其关键路径中依赖存储桶的创建或删除。存储桶名称是某个集中式全局命名空间的一部分:对此命名空间存在任何依赖都会给您的应用造成单点故障。由于这个原因,加上存储桶的创建/删除限制,Cloud Storage 上高可用性服务的推荐做法是预先创建所有必需的存储桶。

每个存储桶的存储桶元数据更新速率上限 每秒一个更新 对单个存储桶的快速更新(例如,更改 CORS 配置)可能会导致节流错误。
每个存储桶中可授予 IAM 角色的主账号数量上限

所有 IAM 角色有 1,500 个主账号

旧式 IAM 角色有 100 个主账号

主账号示例包括个人用户、群组和网域等。如需了解详情,请参阅主账号类型
每个存储桶的 Pub/Sub 通知配置数量上限 100 项通知配置
设置为针对特定事件触发的 Pub/Sub 通知配置数量上限 10 项通知配置
Pub/Sub 通知配置中的自定义特性数量上限 10 个自定义特性

对象

限制 备注
对象大小上限 5 TiB

此限制适用于任何写入方法(包括 对象复合可续传上传分段上传)。虽然可以在单个上传请求中上传完整的 5 TiB,但这种长时间运行的上传更有可能发生失败;建议使用可续传上传来上传大型对象。

每个对象的所有自定义元数据键和值的总大小上限 8 KiB
对象名称大小上限 1024 个字节(UTF-8 编码)
写入同一对象名称的速率上限 每秒写入一次 以高于限制的速率写入同一对象名称可能会导致节流错误。如需了解详情,请参阅对象不变性
单个对象的对象元数据更新速率上限 每秒一个更新 以高于限制的速率更新对象元数据可能会导致节流错误。
存储桶中的对象写入速率上限 无限制 包括上传、更新和删除对象。存储桶一开始支持每秒大约 1,000 次写入,然后会根据需要进行调节
存储桶中的对象读取速率上限 无限制 包括读取对象数据、读取对象元数据和列出对象。存储桶一开始支持每秒大约 5,000 次对象读取,然后会根据需要进行调节。但请注意,存在带宽限制
访问控制列表条目 (ACL) 的数量上限 每个对象 100 个 ACL ACL 可以应用于各个用户、群组或网域。请参阅 ACL 范围
对象组合中的源对象数上限 单个复合请求中 32 个对象
构成复合对象的组件数量上限 无限制 虽然构成复合对象的组件数量不受限制,但与复合对象关联的 componentCount 元数据会在组件数量为 2,147,483,647 时达到饱和,并且最终的复合对象必须遵循 5 TiB 大小限制,该限制适用于 Cloud Storage 中的所有对象。

JSON API 请求

限制 备注
批量请求的请求总载荷上限 小于 10 MiB 单个请求中包含的调用不能超过 100 个。
列出 glob 模式的对象的大小上限 1024 个字节(UTF-8 编码)

XML API 请求

限制 备注
请求网址和 HTTP 标头的总大小上限 16 KiB
列出存储桶时可返回的存储桶数量上限 1,000 个存储桶 XML API 会按名称的字典顺序返回存储桶。
分段上传中的部分数上限 10,000 个部分 通过这些部分组合的对象必须遵循 5 TiB 大小限制,此限制适用于 Cloud Storage 中的所有对象。
分段上传中单个部分的大小上限 5 GiB
分段上传中单个部分的大小下限 5 MiB 分段上传的最后部分没有最小大小限制。 因此,此限制不会在某个分段上传时实施,而是在您尝试完成上传时实施。
分段上传及其上传的部分可以在存储桶中保持未完成或空闲的时长上限 无限制
可以为一个对象同时执行的不同分段上传的数量上限 无限制
完成可续传上传会话的时长上限 7 天 从启动可续传上传时开始计算时长。

服务账号的 HMAC 密钥

每个服务账号最多只能有 10 个 HMAC 密钥。删除的密钥不计入此限额。

资产清单报告

每个源存储桶最多只能有 100 项资产清单报告配置

带宽

配额 Notes
包含从 Cloud Storage 到 Google 服务的数据出站流量的每个单区域或双区域的带宽上限 对于大多数项目,每个区域的默认配额为 200 Gbps,但根据项目的结算账号历史记录可能会更低。

流向 Cloud CDN 和媒体 CDN 的出站流量不受此配额的约束。

每个区域都有单独的配额;但是,从 Cloud Storage 双区域到 Google 服务的数据出站流量会计入构成双区域的其中一个区域的每项目配额。例如,如果 us-central1 中的 Compute Engine 实例从 nam4 双区域中的存储桶读取数据,则带宽用量会计作 us-central1 区域的总体配额的一部分。

如需了解如何查看项目的 Google 出站流量限制,请参阅查看和管理配额

如需了解如何查看项目的 Google 出站流量用量,请参阅带宽监控

您可以按项目申请增加单区域的配额。如果您要增加双区域的配额,应针对构成双区域的一个或两个区域提出增加申请。

Google 服务从给定多区域中的存储桶访问数据的出站流量带宽上限 对于大多数项目,每个区域的默认配额为 200 Gbps,但根据项目的结算账号历史记录可能会更低。

流向 Cloud CDN 和媒体 CDN 的出站流量不受此配额的约束。

给定多区域中的每个区域都有单独的配额。例如,假设项目 my-project 对其内的所有区域都有 200 Gbps 的多区域 Google 出站流量带宽配额。在此场景中,us-east1 区域在支持从 us 多区域中的存储桶到 Google 服务的数据出站流量时具有 200 Gbps 的带宽,us-west1 区域在支持从 us 多区域中的存储桶到 Google 服务的数据出站流量时具有 200 Gbps 的带宽。

如需了解如何查看项目的 Google 出站流量限制,请参阅查看和管理配额

如需了解如何查看项目的 Google 出站流量用量,请参阅带宽监控

您可以按项目申请增加配额。请注意,对于具有高 Google 服务出站流量费率的工作负载,通常应使用位于单区域或双区域的存储桶。对于在 Google 服务中运行大型工作负载的现有多区域存储桶,您可以使用 Storage Transfer Service 将数据移动到单区域或双区域存储桶

互联网请求从单区域或双区域中的存储桶访问数据的出站流量带宽上限 对于大多数项目,每个区域的默认配额为 200 Gbps,但根据项目的结算账号历史记录可能会更低。

由于缓存未命中而流向 Cloud CDN 和媒体 CDN 的出站流量会计入此配额中。

从 Cloud Storage 双区域到互联网的数据出站流量会计入构成双区域的其中一个区域的每项目配额。例如,如果用户将 nam4 双区域的存储桶中的数据下载到个人计算机,则带宽用量会计作 us-central1 区域或 us-east1 区域的总体配额的一部分。

如需了解如何查看项目的互联网出站流量限制,请参阅查看和管理配额

如需了解如何按区域查看项目的互联网出站流量用量,请参阅带宽监控

您可以按项目申请增加单区域的配额。如果您要增加双区域的配额,应针对构成双区域的一个或两个区域提出增加申请。

互联网请求从给定多区域中的存储桶访问数据的出站流量带宽上限 对于大多数项目,每个区域的默认配额为 200 Gbps,但根据项目的结算账号历史记录可能会更低。

由于缓存未命中而流向 Cloud CDN 和媒体 CDN 的出站流量会计入此配额中。

多区域内的区域具有单独的多区域互联网出站流量配额。例如,假设 my-project 向世界各地的客户发送位于 us 多区域的存储桶中的数据。在此场景中,us 多区域内的不同区域使用自己的互联网出站流量配额,因为数据从存储桶发送到世界不同地区。通常,互联网出站流量配额计入地理位置最靠近数据目标位置的区域。

如需了解如何查看项目的互联网出站流量限制,请参阅查看和管理配额

如需了解如何按区域查看项目的互联网出站流量用量,请参阅带宽监控

您可以按项目申请增加配额

当项目的带宽超过某个位置的配额时,对受影响存储桶的请求可能会受到限制或可能被拒绝,并显示可重试 429 - rateLimitExceeded 错误,其中包含超出配额的详细信息。如需了解如何监控带宽,请参阅带宽用量