存储选项


Compute Engine 为虚拟机提供了多种存储选项。以下每种存储选项都具有不同的价格和性能特征:

  • Google Cloud Hyperdisk 卷是 Compute Engine 的网络存储,具有可配置的性能和可动态调整大小的卷。与 Persistent Disk 相比,它们可提供明显更高的性能、灵活性和效率。
  • Persistent Disk 卷提供高性能和冗余网络存储。每个 Persistent Disk 卷跨数百个物理磁盘条带化
    • 默认情况下,虚拟机使用可用区级 Persistent Disk,并将数据存储在单个可用区(例如 us-west1-c)内的卷上。
    • 您还可以创建区域级 Persistent Disk 卷,以便在两个可用区之间的磁盘之间同步复制数据,并在某个可用区不可用时提供保护。
  • 本地 SSD 磁盘是直接挂接到与您的虚拟机相同的服务器的物理硬盘。它们可以提供更好的性能,但时间很短。
  • Cloud Storage 存储桶:提供经济实惠的对象存储。
  • 您还可以将 Filestore 与虚拟机搭配使用,以实现高性能文件存储。

每个存储选项都具有不同的价格和性能特征。如需了解费用比较,请参阅磁盘价格。如果您不确定使用哪个选项,最常见的解决方案是向虚拟机添加 Persistent Disk 卷

简介

默认情况下,每个 Compute Engine 虚拟机都有一个包含操作系统的启动磁盘。启动磁盘数据通常存储在 Persistent Disk 卷上。当您的应用需要额外的存储空间时,您可以为虚拟机预配以下一个或多个存储卷。

如需详细了解每种存储方案,请参阅下表:

平衡
Persistent Disk
SSD
Persistent Disk
标准
Persistent Disk
极端
Persistent Disk
平衡 Hyperdisk Hyperdisk Extreme Hyperdisk Throughput 本地 SSD Cloud Storage 存储桶
存储类型 经济实惠、可靠的块存储 快速、可靠的块存储 高效、可靠的块存储 最高性能的 Persistent Disk 块存储选项,IOPS 可自定义 满足要求苛刻的工作负载的高性能,且兼顾预算要求 具有可自定义的 IOPS 的最快块存储选项 经济实惠且以吞吐量为导向的块存储,吞吐量可自定义 高性能本地块存储 经济实惠的对象存储
每个磁盘的最小容量 可用区级:10 GiB
区域级:10 GiB
可用区级:10 GiB
区域级:10 GiB
可用区级:10 GiB
区域级:200 GiB
500 GiB 4 GiB 64 GiB 2 TiB 375 GiB、3 TiB(使用 Z3 不适用
每个磁盘的最大容量 64 TiB 64 TiB 64 TiB 64 TiB 64 TiB 64 TiB 32 TiB 375 GiB,
3 TiB(使用 Z3
不适用
容量增量 1 GiB 1 GiB 1 GiB 1 GiB 1 GiB 1 GiB 1 GiB 取决于机器类型 不适用
每个虚拟机的容量上限 257 TiB* 257 TiB* 257 TiB* 257 TiB* 512 TiB* 512 TiB* 512 TiB* 36 TiB 几乎无限
访问范围 可用区 可用区 可用区 可用区 可用区 可用区 可用区 实例 全球
数据冗余 可用区级和多可用区级 可用区级和多可用区级 可用区级和多可用区级 可用区级 可用区级 可用区级 可用区级 单区域、双区域或多区域
静态加密
自定义加密密钥
操作方法 添加极端 Persistent Disk 添加 Hyperdisk 添加本地 SSD 连接存储桶

* 如果您正在考虑创建大于单个磁盘大小上限的逻辑卷,请查看逻辑卷大小如何影响性能。

本地 SSD 的容量增量取决于每个虚拟机允许的 SSD 磁盘(分区)数量,该数量因机器类型而异。如需了解详情,请参阅选择有效的本地 SSD 数量

除了 Google Cloud 提供的存储选项外,您还可以在虚拟机上部署替代存储解决方案。

块存储资源具有不同的性能特征。在确定虚拟机的正确块存储类型时,请考虑您的存储大小和性能要求。

如需了解每种磁盘类型的性能限制,请参阅:

在多写入者模式下创建的 Persistent Disk 卷具有特定的 IOPS 和吞吐量限制。如需了解详情,请参阅多写入者模式下的 Persistent Disk 的性能

Persistent Disk

Persistent Disk 卷是持久性网络存储设备,虚拟机 (VM) 实例可以像访问桌面设备或服务器中的物理磁盘一样访问它们。每个 Persistent Disk 卷上的数据分布在多个物理磁盘中。Compute Engine 为您管理物理磁盘和数据分布,以确保冗余和最佳性能。

Persistent Disk 卷的位置与虚拟机无关,因此即使在删除虚拟机后,您也可以分离或移动 Persistent Disk 卷以保留数据。Persistent Disk 性能会随大小自动调节,因此您可以调整现有 Persistent Disk 卷的大小或向虚拟机添加更多 Persistent Disk 卷,以满足您的性能和存储空间需求。

Persistent Disk 类型

配置永久性磁盘时,您可以选择以下某种磁盘类型:

  • 均衡永久性磁盘 (pd-balanced)
    • 性能 (pd-ssd) 永久性磁盘的替代方案
    • 性能与费用的平衡。对于大多数虚拟机形式(非常大的磁盘类型除外),这些磁盘具有与 SSD 永久性磁盘相同的最大 IOPS,并且每 GiB 的 IOPS 更低。这种磁盘类型提供的性能适合大多数通用应用,价位介于标准永久性磁盘和性能 (pd-ssd) 永久性磁盘之间。
    • 以固态硬盘 (SSD) 作为支持。
  • 性能 (SSD) 永久性磁盘 (pd-ssd)
    • 适用于需要比标准永久性磁盘更短延迟时间和更多 IOPS 的企业应用和高性能数据库。
    • 专为单数位毫秒级延迟而设计;观察到的延迟时间因应用而异。
    • 以固态硬盘 (SSD) 作为支持。
  • 标准永久性磁盘 (pd-standard)
    • 适用于主要使用顺序 I/O 的大型数据处理工作负载。
    • 以标准硬盘 (HDD) 作为支持。
  • 极端永久性磁盘 (pd-extreme)
    • 为随机访问工作负载和批量吞吐量提供始终如一的优越性能。
    • 专为高端数据库工作负载而设计。
    • 允许您预配目标 IOPS。
    • 以固态硬盘 (SSD) 作为支持。
    • 适用于有限数量的机器类型

如果您在 Google Cloud 控制台中创建磁盘,则默认磁盘类型为 pd-balanced。如果您使用 gcloud CLI 或 Compute Engine API 创建磁盘,则默认磁盘类型为 pd-standard

如需了解机器类型支持,请参阅以下内容:

Persistent Disk 的耐用性

磁盘耐用性通过一组关于硬件故障、灾难性事件的可能性、Google 数据中心的隔离实践和工程流程以及每种磁盘类型使用的内部编码的假设,来表示典型年份中典型磁盘的数据丢失概率。Persistent Disk 数据丢失事件非常罕见,且在记录中一直是由于协调硬件故障、软件错误或两者结合所造成的。Google 还采取了许多措施来降低业界范围的静默数据损坏风险。 Google Cloud 客户的人为错误(例如客户意外删除磁盘)不在 Persistent Disk 耐用性的支持范围内。

由于其内部数据编码和复制机制,区域级永久性磁盘发生数据丢失的风险极小。区域级 Persistent Disk 提供的副本数量是可用区级 Persistent Disk 数量的两倍,这些副本分布在同一区域内的两个可用区之间,因此可提供高可用性,并且如果整个数据中心丢失且无法恢复(虽然从未发生过这种情况),则可将其用于灾难恢复。如果主可用区在长时间服务中断期间不可用,则可立即访问第二个可用区中的副本。

请注意,耐用性是每种磁盘类型的汇总,不代表包含财务补偿规定的服务等级协议 (SLA)。

下表显示了每种磁盘类型的设计耐用性。99.999% 的耐用性意味着,如果有 1,000 个磁盘,您可能一百年都不会丢失一个磁盘。

可用区级标准 Persistent Disk 可用区级平衡 Persistent Disk 可用区级 SSD Persistent Disk 可用区级极端 Persistent Disk 区域级标准 Persistent Disk 区域级平衡 Persistent Disk 区域级 SSD Persistent Disk
高于 99.99% 高于 99.999% 高于 99.999% 高于 99.9999% 高于 99.999% 高于 99.9999% 高于 99.9999%

可用区级 Persistent Disk

易用性

Compute Engine 可为您处理大多数磁盘管理任务,因此您无需处理分区、冗余磁盘阵列或子卷管理。通常,您不需要创建更大的逻辑卷,但是您可以将辅助挂接 Persistent Disk 的容量扩展到每个虚拟机 257 TiB,并根据需要将这些做法应用于 Persistent Disk 卷。 如果将 Persistent Disk 卷的格式设置为具有单个文件系统但无分区表,则可以节省时间并获得最佳性能。

如果需要将数据分别存储到多个唯一卷中,请创建额外磁盘,而不是将现有磁盘划分为多个分区。

当您在 Persistent Disk 卷上需要额外空间时,请调整磁盘大小,而不是重新分区和设置格式。

性能

Persistent Disk 性能是可预测的,可随预配容量线性调节,直到达到虚拟机的预配 vCPU 限制。如需详细了解性能调节限制和优化,请参阅配置磁盘以满足性能要求

标准 Persistent Disk 卷可以经济高效地处理有序读写操作,但并不适合处理高速率的随机每秒输入/输出操作 (IOPS)。如果应用需要高速率的随机 IOPS,请使用 SSD 或极端 Persistent Disk。SSD Persistent Disk 的设计旨在确保将延迟时间控制在数毫秒以内。观察到的延迟时间因应用而异。

Compute Engine 会自动优化 Persistent Disk 卷的性能和扩缩功能。您无需为了获得最佳性能而绑定多个磁盘或预热磁盘。当您需要更多的磁盘可用空间或更优的性能时,可以调整磁盘大小和添加更多 vCPU,以添加更多存储空间、吞吐量和 IOPS。 Persistent Disk 的性能取决于挂接到虚拟机的 Persistent Disk 总容量和虚拟机具有的 vCPU 数。

对于启动设备,可使用标准 Persistent Disk 来降低费用。小型的 10 GiB Persistent Disk 卷适用于基本启动和软件包管理应用场景。不过,为了确保性能稳定,让启动设备得到更广泛的利用,请使用平衡 Persistent Disk 作为启动磁盘。

每个 Persistent Disk 写入操作都计入虚拟机的累积网络出站流量。这意味着 Persistent Disk 写入操作受到虚拟机的网络出站流量上限的限制。

可靠性

Persistent Disk 具有内置冗余,可保护您的数据免受设备故障的影响,并通过数据中心维护事件确保数据可用性。系统会针对所有 Persistent Disk 操作计算校验和,因此我们可以确保您所读取的内容就是您所写入的内容。

此外,您还可以创建 Persistent Disk 的快照,以防止因用户错误而导致数据丢失。它为增量快照,即使您对附加到正在运行的虚拟机的磁盘创建快照,也只需要几分钟时间。

多写入者模式

您能够以多写入者模式将 SSD Persistent Disk 同时挂接到两个 N2 虚拟机,以便两个虚拟机都能读写该磁盘。

多写入者模式下的 Persistent Disk 可提供共享块存储功能,并为构建高可用性共享文件系统和数据库奠定了基础架构基础。这些专用文件系统和数据库应设计为使用共享块存储,并使用 SCSI Persistent Reservations 等工具处理虚拟机之间的缓存连贯性。

但是,具有多写入者模式的 Persistent Disk 通常不应直接使用,并且请注意,许多文件系统(如 EXT4、XFS 和 NTFS)都不支持使用共享块存储。如需详细了解在虚拟机之间共享 Persistent Disk 的最佳做法,请参阅最佳做法

如果您需要全托管式文件存储,可以在 Compute Engine 虚拟机上装载 Filestore 文件共享

如需为新的 Persistent Disk 卷启用多写入者模式,请创建新的 Persistent Disk,并在 gcloud CLI 中指定 --multi-writer 标志或在 Compute Engine API 中指定 multiWriter 属性。如需了解详情,请参阅在虚拟机之间共享 Persistent Disk 卷

Persistent Disk 加密

数据在虚拟机外部传输到 Persistent Disk 存储空间之前,Compute Engine 会自动加密数据。每个 Persistent Disk 都会使用系统定义的密钥或客户提供的密钥进行加密。 Google 以用户无法控制的方式在多个物理磁盘上分布 Persistent Disk 数据。

删除 Persistent Disk 卷时,Google 会舍弃加密密钥,导致数据无法恢复。此过程是不可逆转的。

如果要控制用于加密数据的加密密钥,请使用自己的加密密钥创建磁盘

限制

  • 您不能将 Persistent Disk 卷挂接到其他项目中的虚拟机。

  • 在只读模式下,您最多可以将一个平衡永久性磁盘挂接到 10 个虚拟机。

  • 对于具有至少 1 个 vCPU 的自定义机器类型或预定义机器类型,最多可以挂接 128 个 Persistent Disk 卷。

  • 每个 Persistent Disk 卷的大小可达到 64 TiB,因此无需管理磁盘阵列即可创建大型逻辑卷。每个虚拟机只能挂接有限容量的总 Persistent Disk 空间和有限数量的单个 Persistent Disk 卷。预定义机器类型和自定义机器类型具有相同的 Persistent Disk 限制。

  • 大多数虚拟机最多可以挂接 128 个 Persistent Disk 卷,最多可挂接 257 TiB 的总磁盘可用空间。虚拟机的总磁盘可用空间包括了启动磁盘的大小。

  • 共享核心机器类型最多只能挂接 16 个 Persistent Disk 卷和 3 TiB 的总 Persistent Disk 空间。

  • 创建大于 64 TiB 的逻辑卷可能需要注意一些特殊事项。如需详细了解较大的逻辑卷性能,请参阅逻辑卷大小

区域级 Persistent Disk

区域级 Persistent Disk 卷的存储特性与可用区级 Persistent Disk 类似。但区域级 Persistent Disk 卷可在同一区域中的两个可用区之间提供持久耐用的数据存储和复制功能。

如果您要在 Compute Engine 上设计稳健可靠的系统高可用性服务,请使用结合了其他最佳做法(例如使用快照备份数据)的区域级 Persistent Disk。区域级 Persistent Disk 卷也适用于区域级代管式实例组

万一发生罕见的可用区服务中断,您通常可以使用 --force-attach 标志将区域级 Persistent Disk 上运行的工作负载故障切换到另一个可用区。借助 --force-attach 标志,您可以将区域级 Persistent Disk 挂接到备用虚拟机,即使由于磁盘不可用而无法将其与原始虚拟机分离也没有问题。如需了解详情,请参阅区域级 Persistent Disk 故障切换。您无法强制将可用区永久性磁盘挂接到虚拟机。

性能

与使用 Persistent Disk 快照相比,区域级 Persistent Disk 卷可用于需要更低恢复点目标 (RPO)恢复时间目标 (RTO) 的工作负载。

当多个可用区的数据冗余比写入性能更重要时,可选择区域级 Persistent Disk。

与可用区级 Persistent Disk 一样,区域级 Persistent Disk 可以在配备了更多 vCPU 的虚拟机上实现更高的 IOPS 和吞吐量性能。如需详细了解此限制和其他限制,请参阅配置磁盘以满足性能要求

当您需要更多的磁盘可用空间或更优的性能时,可以调整区域磁盘大小以添加更多存储空间、吞吐量和 IOPS。

可靠性

Compute Engine 将区域级 Persistent Disk 的数据复制到创建磁盘时所选择的可用区。每个副本的数据分布在该可用区内的多个物理机器中,以确保冗余。

与可用区级 Persistent Disk 类似,您可以创建 Persistent Disk 的快照,以防止因用户错误而导致数据丢失。它为增量快照,即使您对附加到正在运行的虚拟机的磁盘创建快照,也只需要几分钟时间。

限制

  • 您只能将区域级永久性磁盘挂接到使用 E2N1N2N2D 机器类型的虚拟机。
  • 您无法通过映像创建区域级永久性磁盘。
  • 使用只读模式时,您最多可以将一个区域级平衡永久性磁盘挂接到 10 个虚拟机实例。
  • 区域级标准永久性磁盘的大小下限为 200 GiB。
  • 您只能增加区域级永久性磁盘卷的容量,而不能减小其大小。
  • 区域级永久性磁盘卷与可用区级永久性磁盘卷具有不同的性能特征。如需了解详情,请参阅块存储性能
  • 如果您通过克隆可用区级磁盘来创建区域级永久性磁盘,则两个可用区级副本在创建时不会完全同步。创建后,您一般可以在 3 分钟内使用区域级磁盘克隆。不过,您可能需要等待几十分钟,磁盘才会完全复制,恢复点目标 (RPO) 才会接近于零。了解如何检查区域级永久性磁盘是否已完全复制

Google Cloud Hyperdisk

Google Cloud Hyperdisk 是 Google 的新一代块存储产品。通过分流和动态扩容存储处理,它可以将存储性能与虚拟机类型和大小分离开来。Hyperdisk 可提供明显更高的性能、灵活性和效率。

  • 平衡 Hyperdisk

    适用于 Compute Engine 的 Hyperdisk Balanced 功能非常适合各种使用场景,例如业务线 (LOB) 应用、Web 应用和中层数据库,这些都不需要 Hyperdisk Extreme 的性能。

    Hyperdisk Balanced 卷可让您动态调整工作负载的容量、IOPS 和吞吐量。

  • Hyperdisk Extreme

    Hyperdisk Extreme 提供最快的块存储。它适用于需要最高吞吐量和 IOPS 的高端工作负载。

    借助 Hyperdisk Extreme 卷,您可以动态地调整工作负载的容量和 IOPS。

  • Hyperdisk Throughput

    Hyperdisk Throughput 非常适合横向扩容分析,包括 Hadoop 和 Kafka、费用敏感型应用的数据硬盘以及冷存储。

    借助 Hyperdisk Throughput 卷,您可以针对工作负载动态调整容量和吞吐量。您可以更改预配的吞吐量级别,而无需停机或中断工作负载。

Hyperdisk 卷的创建和管理方式与 Persistent Disk 类似,此外,您还可以设置预配的 IOPS 或吞吐量级别并随时更改该值。从 Persistent Disk 到 Hyperdisk 没有直接迁移路径。您可以改为创建快照并将快照还原到新的 Hyperdisk 卷。

如需详细了解 Hyperdisk,请参阅关于 Hyperdisk

Hyperdisk 的耐用性

磁盘耐用性根据设计,表示典型磁盘在典型年份中丢失数据的概率。耐用性是使用一组关于硬件故障的假设计算得出,例如:

  • 发生灾难性事件的可能性
  • 隔离做法
  • Google 数据中心的工程流程
  • 每种磁盘类型使用的内部编码

Hyperdisk 数据丢失事件极其罕见。Google 还采取了许多措施来降低业界范围的静默数据损坏风险。

Google Cloud 客户的人为错误(例如客户意外删除磁盘)不在 Hyperdisk 耐用性的支持范围内。

下表显示了每种磁盘类型的设计耐用性。99.999% 的耐用性意味着,如果有 1,000 个磁盘,您可能一百年都不会丢失一个磁盘。

平衡 Hyperdisk Hyperdisk Extreme Hyperdisk Throughput
高于 99.999% 高于 99.9999% 高于 99.999%

Hyperdisk 加密

Compute Engine 在写入 Hyperdisk 卷时会自动加密您的数据。

本地 SSD 磁盘数量

本地 SSD 磁盘以物理方式挂接到托管虚拟机的服务器。 与标准永久性磁盘或 SSD 永久性磁盘相比,本地 SSD 磁盘的吞吐量更高,延迟时间更短。您存储在本地 SSD 磁盘上的数据仅在停止或删除虚拟机之前保留。您可以将多个本地 SSD 磁盘挂接到虚拟机,具体取决于 vCPU 的数量。

每个本地 SSD 磁盘的大小固定为 375 GiB。如需更多存储空间,请在创建虚拟机时将多个本地 SSD 磁盘添加到虚拟机。可挂接到虚拟机的本地 SSD 磁盘的最大数量取决于机器类型和使用的 vCPU 数量。

本地 SSD 磁盘上的数据持久性

请查看本地 SSD 数据持久性,了解哪些事件会保留您的本地 SSD 数据,以及哪些事件会导致您的本地 SSD 数据不可恢复。

本地 SSD 磁盘的限制

本地 SSD 具有以下限制:

  • 您可以使用 c3d-standard-360-lssd 机器类型创建最多具有 32 个本地 SSD 磁盘(12 TiB 本地 SSD 磁盘可用空间)的虚拟机。
  • 您可以使用 c3-standard-176-lssd 机器类型创建最多具有 32 个本地 SSD 磁盘(12 TiB 本地 SSD 磁盘可用空间)的虚拟机。
  • 您可以使用 N1、N2 和 N2D 机器类型创建最多具有 16 或 24 个本地 SSD 磁盘(分别为 6 TiB 或 9 TiB 本地 SSD 空间)的虚拟机。
  • 对于 Z3(预览版),您可以创建具有 176 个 vCPU 和最多 12 个本地 SSD 磁盘(即 36 TiB 本地 SSD 磁盘可用空间)的虚拟机。
  • 对于 C2、C2D、A2 标准、M1 和 M3 机器类型,您可以创建最多具有 8 个本地 SSD 磁盘(总共 3 TiB 本地 SSD 空间)的虚拟机。
  • 对于 A2 Ultra 机器类型,高达 3 TiB 的本地 SSD 与机器类型捆绑在一起。您可以创建一个最多具有 8 个本地 SSD 磁盘(每个磁盘 375 GiB)的虚拟机。
  • 对于 A3 机器类型,机器类型中捆绑了 6 TiB 的本地 SSD。您可以创建一个具有 16 个本地 SSD 磁盘(每个磁盘 375 GiB)的虚拟机。
  • 如需达到 IOPS 上限,请使用具有 32 个或更多 vCPU 的虚拟机。
  • 具有共享核心机器类型的虚拟机无法挂接本地 SSD 磁盘。
  • 您不能将本地 SSD 磁盘挂接到 E2、Tau T2D、Tau T2A、H3 和 M2 机器类型。
  • 您不能将客户提供的加密密钥用于本地 SSD 磁盘。Compute Engine 在数据写入本地 SSD 存储空间时会自动加密数据。

本地 SSD 和机器类型

您可以将本地 SSD 磁盘挂接到 Compute Engine 上可用的大多数机器类型,如机器系列比较表中所示。不过,根据每种机器类型,您可以挂接的本地 SSD 磁盘数量会受到相应的限制。如需了解详情,请参阅选择有效的本地 SSD 磁盘数量

性能

本地 SSD 磁盘提供极高的 IOPS 和极低的延迟。与永久性磁盘不同,您必须自行管理本地 SSD 磁盘的分割。

本地 SSD 性能取决于多种因素。如需了解详情,请参阅本地 SSD 性能优化本地 SSD 性能

Cloud Storage 存储桶

Cloud Storage 存储桶是适用于虚拟机的一种存储方案,该方案的灵活性、可扩缩性和耐用性最强。如果应用不需要永久性磁盘本地 SSD 带来的低延迟优势,您可以将数据存储在 Cloud Storage 存储桶中。

如果延迟时间和吞吐量不是优先考虑项,并且您必须在多个虚拟机或可用区之间轻松共享数据,请将虚拟机连接到 Cloud Storage 存储桶

Cloud Storage 存储桶的属性

请参阅以下部分,了解 Cloud Storage 存储桶的行为和特征。

性能

Cloud Storage 存储桶的性能取决于您选择的存储类别以及存储桶相对于虚拟机的位置。

使用虚拟机所在位置的 Cloud Storage Standard Storage 类别虽然可以提供与 Persistent Disk 相当的性能,但延迟时间较长且吞吐量一致性较低。在双区域使用 Standard Storage 类别可以将数据冗余地存储在两个区域中。为了在使用双区域时获得最佳性能,您的虚拟机应位于双区域中的其中一个区域。

Nearline Storage、Coldline Storage 和 Archive Storage 类别主要用于长期数据归档。与 Standard Storage 类别不同,这些类别存储期限最短,并且会产生数据检索费用。 因此,它们最适合长期存储不经常访问的数据。

可靠性

所有 Cloud Storage 存储桶都具有内置冗余功能,可保护您的数据免受设备故障的影响,并通过数据中心维护事件确保数据可用性。系统会针对所有 Cloud Storage 操作计算校验和,以帮助确保您所读取的内容就是您所写入的内容。

灵活性

不同于 Persistent Disk,Cloud Storage 存储桶不限于虚拟机所在的可用区。此外,您可以同时在多个虚拟机的存储桶中读取和写入数据。例如,您可以将多个可用区中的虚拟机配置为在同一个存储桶中读取和写入数据,而不是将数据复制到多个可用区的 Persistent Disk 中。

Cloud Storage 加密

数据在虚拟机外部传输到 Cloud Storage 存储桶之前,Compute Engine 会自动加密数据。在虚拟机上将文件写入存储桶之前,无需进行加密。

就像 Persistent Disk 卷一样,您可以使用自己的加密密钥加密存储桶。

对 Cloud Storage 存储桶执行数据读写操作

使用 gcloud storage 命令行工具Cloud Storage 客户端库从 Cloud Storage 存储桶写入和读取文件。

gcloud storage

默认情况下,gcloud storage 命令行工具安装在使用公共映像的大多数虚拟机上。 如果您的虚拟机没有 gcloud storage 命令行工具,您可以安装它

  1. 使用 SSH 或其他连接方法连接到您的 Linux 虚拟机连接到 Windows 虚拟机

    1. 在 Google Cloud 控制台中,转到虚拟机实例页面。

      转到“虚拟机实例”

    2. 在虚拟机实例列表中,点击要连接的实例所在行中的 SSH

      实例名称旁边的 SSH 按钮。

  2. 如果您以前从未在此虚拟机上使用过 gcloud storage,请使用 gcloud CLI 设置凭据。

    gcloud init

    或者,如果您的虚拟机配置为使用具有 Cloud Storage 范围的服务账号,则可以跳过此步骤。

  3. 使用 gcloud storage 工具创建存储桶、将数据写入存储桶,以及从这些存储桶读取数据。如需在特定存储桶中写入或读取数据,您必须具有对该存储桶的访问权限。您能够从任何可公开访问的存储桶读取数据。

    或者,您也可以将数据流式传输到 Cloud Storage。

客户端库

如果您已将虚拟机配置为使用具有 Cloud Storage 范围的服务账号,则可以使用 Cloud Storage API 对 Cloud Storage 存储桶执行数据写入和读取操作。

  1. 连接到虚拟机

    1. 在 Google Cloud 控制台中,转到虚拟机实例页面。

      转到“虚拟机实例”

    2. 在虚拟机实例列表中,点击要连接的实例所在行中的 SSH

      实例名称旁边的 SSH 按钮。

  2. 根据您的首选语言安装并配置客户端库

  3. 如有必要,请按照插入代码示例在虚拟机上创建 Cloud Storage 存储桶

  4. 按照插入代码示例写入数据读取数据,并在应用中添加用于对 Cloud Storage 存储桶执行文件写入或读取操作的代码。

后续步骤