性能

了解 Cloud Filestore 的预期平均性能和推荐的性能设置。

预期性能

下表显示了 Cloud Filestore 实例层级和大小对应的预期性能。对于此处未明确提及的所有实例大小,性能应与实例大小成线性比例关系。

层级 大小 (TB) 读取 (Tput) 读取 (IOPS) 写入 (Tput) 写入 (IOPS)
标准 1 100 MB/秒 600 100 MB/秒 1000
标准 10+ 180 MB/秒 1000 120 MB/秒 5000
优质 2.5+ 1.2 GB/秒 60000 350 MB/秒 25000

因各种问题(例如在客户端或服务器上使用缓存、用于客户端虚拟机实例的 Compute Engine 机器类型,以及测试的工作负载),任何给定实例的性能都可能与上面报告的数字不同。

推荐的客户端机器类型

我们建议为客户端虚拟机实例使用 n1-standard-8 或性能更优的 Compute Engine 机器类型。这样客户端便可以为容易缓存的工作负载实现大约 16Gbps 的读取带宽。

Linux 客户端装载选项

建议使用默认的 NFS 装载选项,尤其是使用 hard 装载并将 rsizewsize 选项设置为 1 MB,以便在 Linux 客户端虚拟机实例上实现最佳性能。要详细了解 NFS 装载选项,请参阅 nfs

测试性能

如果您使用的是 Linux,则可以使用 fio 工具来对读写吞吐量和 IOPS 执行基准化分析。本部分中的示例介绍了您可能需要执行的常规基准化分析。为实现最高性能,您可能需要从多个客户端虚拟机实例运行 fio。

以下示例对最大写入吞吐量执行基准化分析:

fio --ioengine=sync --direct=0 \
--fsync_on_close=1 --randrepeat=0 --nrfiles=1  --name=seqwrite --rw=write \
--bs=1m --size=20G --end_fsync=1 --fallocate=none  --overwrite=0 --numjobs=1 \
--directory=/mnt/gcfs --loops=10

以下示例对最大写入 IOPS 执行基准化分析:

fio --ioengine=sync --direct=0 \
--fsync_on_close=1 --randrepeat=0 --nrfiles=1  --name=randwrite --rw=randwrite \
--bs=4K --size=1G --end_fsync=1 --fallocate=none  --overwrite=0 --numjobs=80 \
--sync=1 --directory=/mnt/standard --loops=10

以下示例对最大读取吞吐量执行基准化分析:

fio --ioengine=sync --direct=0 \
--fsync_on_close=1 --randrepeat=0 --nrfiles=1  --name=seqread --rw=read \
--bs=1m --size=240G --end_fsync=1 --fallocate=none  --overwrite=0 --numjobs=1 \
--directory=/mnt/ssd --invalidate=1 --loops=10

以下示例对最大读取 IOPS 执行基准化分析:

fio --ioengine=sync --direct=0 \
--fsync_on_close=1 --randrepeat=0 --nrfiles=1  --name=randread --rw=randread \
--bs=4K --size=1G --end_fsync=1 --fallocate=none  --overwrite=0 --numjobs=20 \
--sync=1 --invalidate=1 --directory=/mnt/standard  --loops=10
此页内容是否有用?请给出您的反馈和评价:

发送以下问题的反馈:

此网页
Cloud Filestore 文档