Halaman ini menjelaskan performa rata-rata yang diharapkan dan setelan performa yang direkomendasikan untuk Filestore. Bagian ini juga menunjukkan cara menguji performa instance Filestore.
Performa yang diharapkan
Setiap tingkat layanan Filestore memberikan tingkat performa yang berbeda. Performa instance tertentu dapat berbeda dari angka yang diharapkan karena berbagai faktor, seperti penggunaan caching, jumlah VM klien, jenis mesin VM klien, dan beban kerja yang diuji.
Tabel berikut menunjukkan performa yang diharapkan dari instance Filestore berdasarkan tingkat layanan dan kapasitas yang dikonfigurasi:
Performa | Kapasitas | IOPS baca dan tulis | Throughput baca dan tulis (MiB/dtk) |
---|---|---|---|
BASIC_HDD |
1 TiB hingga 10 TiB | 600/1.000 | 100/100 |
BASIC_HDD |
10 TiB hingga 63,9 TiB | 1.000/5.000 | 180/120 |
BASIC_SSD |
2,5 TiB hingga 63,9 TiB | 60.000/25.000 | 1.200/350 |
ZONAL |
1 TiB | 9.200/2.600 | 260/88 |
ZONAL |
9,75 TiB | 89.700/25.350 | 2.535/858 |
ZONAL |
10 TiB | 92.000/26.000 | 2.600/880 |
ZONAL |
100 TiB | 920.000/260.000 | 26.000/8.800 |
REGIONAL |
1 TiB | 12.000/4.000 | 120/100 |
REGIONAL |
9,75 TiB | 117.000/39.000 | 1.170/975 |
REGIONAL |
10 TiB | 92.000/26.000 | 2.600/880 |
REGIONAL |
100 TiB | 920.000/260.000 | 26.000/8.800 |
ENTERPRISE |
1 TiB | 12.000/4.000 | 120/100 |
ENTERPRISE |
10 TiB | 120.000/40.000 | 1.200/1.000 |
Tabel sebelumnya menunjukkan performa yang diharapkan pada kapasitas minimum dan maksimum untuk setiap tingkat layanan. Di antara batas ini, performa diskalakan secara linear seiring kapasitas diskalakan. Misalnya, jika Anda melipatgandakan kapasitas instance perusahaan dari 1 TiB menjadi 2 TiB, performa instance yang diharapkan akan berlipat ganda dari 12.000/4.000 IOPS baca dan tulis menjadi 24.000/8.000 IOPS baca dan tulis.
Dalam skenario satu dan beberapa klien, Anda harus meningkatkan jumlah koneksi TCP dengan opsi pemasangan nconnect
untuk mencapai performa NFS maksimum. Sebaiknya tentukan hingga
7
koneksi untuk tingkat layanan zonal dan hingga 2
koneksi untuk
tingkat regional dan perusahaan. Secara umum, semakin besar kapasitas berbagi file
dan semakin sedikit VM klien yang terhubung, semakin banyak performa yang Anda dapatkan dengan
menentukan koneksi tambahan dengan nconnect
.
Jenis mesin klien yang direkomendasikan
Sebaiknya gunakan jenis mesin Compute Engine, seperti n2-standard-8
,
yang menyediakan bandwidth keluar sebesar 16 Gbps
. Bandwidth keluar ini memungkinkan
klien mencapai bandwidth baca sekitar 16 Gbps
untuk beban kerja yang cocok dengan cache. Untuk konteks tambahan, lihat Bandwidth jaringan.
Opsi pemasangan klien Linux
Sebaiknya gunakan opsi pemasangan NFS berikut, terutama pemasangan hard
, async
, serta opsi rsize
dan wsize
, untuk mendapatkan performa terbaik pada instance VM klien Linux. Untuk mengetahui informasi selengkapnya tentang opsi mount NFS, lihat nfs.
Opsi default | Deskripsi |
---|---|
hard |
Klien NFS mencoba kembali permintaan NFS tanpa batas waktu. |
timeo=600 |
Klien NFS menunggu 600 desisekon (60 detik) sebelum mencoba ulang permintaan NFS. |
retrans=3 |
Klien NFS mencoba permintaan NFS tiga kali sebelum mengambil tindakan pemulihan lebih lanjut. |
rsize=262144 |
Klien NFS dapat menerima maksimum 262.144 byte dari server NFS per permintaan READ . Catatan: Untuk instance tingkat dasar, tetapkan nilai rsize ke 1048576 . |
wsize=1048576 |
Klien NFS dapat mengirim maksimum 1.048.576 byte (1 MiB) ke server NFS per permintaan WRITE . |
resvport |
Klien NFS menggunakan port sumber dengan hak istimewa saat berkomunikasi dengan server NFS untuk titik pemasangan ini. |
async |
Klien NFS menunda pengiriman operasi tulis aplikasi ke server NFS hingga kondisi tertentu terpenuhi. Perhatian: Menggunakan opsi sync akan mengurangi performa secara signifikan. |
Performa VM klien tunggal dan beberapa klien
Tingkat layanan Filestore yang skalabel dioptimalkan performanya untuk beberapa VM klien, bukan satu VM klien.
Untuk instance zonal, regional, dan perusahaan, setidaknya empat VM klien diperlukan untuk memanfaatkan performa penuh. Tindakan ini memastikan bahwa semua VM di cluster Filestore yang mendasarinya digunakan sepenuhnya.
Untuk konteks tambahan, cluster Filestore terkecil yang skalabel memiliki empat VM. Setiap VM klien hanya berkomunikasi dengan satu VM cluster Filestore, terlepas dari jumlah koneksi NFS per klien yang ditentukan menggunakan opsi mount nconnect
. Jika menggunakan satu VM klien, operasi baca dan tulis hanya
dilakukan dari satu VM cluster Filestore.
Meningkatkan performa di seluruh resource Google Cloud
Operasi di beberapa resource Google Cloud, seperti menyalin data dari Cloud Storage ke instance Filestore menggunakan gcloud CLI, dapat berjalan lambat. Untuk membantu mengurangi masalah performa, coba hal berikut:
Pastikan bucket Cloud Storage, VM klien, dan instance Filestore berada di region yang sama.
Dual-region memberikan opsi performa maksimal untuk data yang disimpan di Cloud Storage. Jika menggunakan opsi ini, pastikan resource lain berada di salah satu region tunggal yang terdapat dalam region ganda. Misalnya, jika data Cloud Storage Anda berada di
us-central1,us-west1
, pastikan VM klien dan instance Filestore Anda berada dius-central1
.Sebagai titik referensi, verifikasi performa VM yang terpasang PD dan bandingkan dengan performa instance Filestore.
Jika VM yang terpasang PD memiliki performa yang serupa atau lebih lambat jika dibandingkan dengan instance Filestore, hal ini mungkin menunjukkan bottleneck performa yang tidak terkait dengan Filestore. Untuk meningkatkan performa dasar pengukuran resource non-Filestore, Anda dapat menyesuaikan properti gcloud CLI yang terkait dengan upload komposit paralel. Untuk mengetahui informasi selengkapnya, lihat Cara alat dan API menggunakan upload gabungan paralel.
Jika performa instance Filestore jauh lebih lambat daripada VM yang terpasang PD, coba sebarkan operasi ke beberapa VM.
Hal ini membantu meningkatkan performa operasi baca dari Cloud Storage.
Untuk instance zonal, regional, dan perusahaan, setidaknya empat VM klien diperlukan untuk memanfaatkan performa penuh. Tindakan ini memastikan bahwa semua VM di cluster Filestore yang mendasarinya digunakan sepenuhnya. Untuk mengetahui informasi selengkapnya, lihat Performa VM klien tunggal dan beberapa klien.
Menguji performa
Jika menggunakan Linux, Anda dapat menggunakan alat fio untuk menetapkan tolok ukur throughput baca dan tulis serta IOPS untuk instance tingkat dasar. Perhatikan bahwa metode ini untuk benchmark performa tidak direkomendasikan untuk instance zonal, regional, dan perusahaan.
Contoh di bagian ini menunjukkan benchmark umum yang mungkin ingin Anda jalankan. Anda mungkin perlu menjalankan fio dari beberapa instance VM klien untuk mencapai performa maksimum.
Contoh berikut menjalankan benchmark throughput tulis maksimum:
fio --ioengine=libaio --filesize=32G --ramp_time=2s \ --runtime=5m --numjobs=16 --direct=1 --verify=0 --randrepeat=0 \ --group_reporting --directory=/mnt/nfs \ --name=write --blocksize=1m --iodepth=64 --readwrite=write
Contoh berikut menjalankan benchmark IOPS tulis maksimum:
fio --ioengine=libaio --filesize=32G --ramp_time=2s \ --runtime=5m --numjobs=16 --direct=1 --verify=0 --randrepeat=0 \ --group_reporting --directory=/mnt/nfs \ --name=randwrite --blocksize=4k --iodepth=256 --readwrite=randwrite
Contoh berikut menjalankan benchmark throughput baca maksimum:
fio --ioengine=libaio --filesize=32G --ramp_time=2s \ --runtime=5m --numjobs=16 --direct=1 --verify=0 --randrepeat=0 \ --group_reporting --directory=/mnt/nfs \ --name=read --blocksize=1m --iodepth=64 --readwrite=read
Contoh berikut menjalankan benchmark IOPS baca maksimum:
fio --ioengine=libaio --filesize=32G --ramp_time=2s \ --runtime=5m --numjobs=16 --direct=1 --verify=0 --randrepeat=0 \ --group_reporting --directory=/mnt/nfs \ --name=randread --blocksize=4k --iodepth=256 --readwrite=randread