优化 Hyperdisk 性能


预配 Google Cloud Hyperdisk 卷后,您的应用和操作系统可能需要进行性能调整以满足您的性能需求。

在以下部分中,我们将介绍几个可以进行调整以获得更好性能的关键因素,以及如何将其中一些因素应用于特定类型的工作负载。

使用较高的 I/O 队列深度

与本地挂接的磁盘(例如本地固态硬盘)相比,Hyperdisk 卷的延迟时间更高,因为它们是网络附加设备。它们可以提供非常高的 IOPS 和吞吐量,但您需要确保并行完成足够的 I/O 请求。并行完成的 I/O 请求数称为 I/O 队列深度

下表显示建议的 I/O 队列深度,以确保您可以达到特定的性能级别。这些表对典型延迟时间略微高估,以显示保守的建议。该示例假定您使用的是 16 KB 的 I/O 大小。

所需的 IOPS 队列深度
500 1
1000 2
2,000 4
4000 8
8000 16
16,000 32
32000 64
64,000 128
100000 200
200,000 400
320,000 640
所需的吞吐量(MB/秒) 队列深度
8 1
16 2
32 4
64 8
128 16
256 32
512 64
1000 128
1200 153

确保您的 CPU 有空闲时间

读取和写入 Hyperdisk 卷需要使用虚拟机提供的 CPU 周期。如果您的虚拟机实例缺乏 CPU,则您的应用将无法管理上述 IOPS。为了实现非常高而且一致的 IOPS 级别,需要让 CPU 能够有空闲时间来处理 I/O 操作。

查看 Hyperdisk 性能指标

您可以在 Cloud Monitoring(Google Cloud 的集成式监控解决方案)中查看磁盘性能指标。您可以使用这些指标来观察在不同的应用工作负载下的磁盘和其他虚拟机资源的性能。

如需了解详情,请参阅查看磁盘性能指标

您还可以使用控制台中的可观测性页面来查看磁盘性能指标

后续步骤