Google Cloud memperhitungkan bandwidth per instance virtual machine (VM), bukan per virtual network interface (vNIC) atau alamat IP. Jenis mesin VM menentukan rasio traffic keluar maksimum yang memungkinkan; tetapi, Anda hanya dapat mencapai tingkat traffic keluar maksimum yang dimungkinkan dalam situasi tertentu.
Halaman ini menguraikan ekspektasi, yang berguna saat merencanakan deployment Anda. Halaman ini mengategorikan bandwidth menggunakan dua dimensi:
- Traffic keluar atau masuk: Seperti yang digunakan pada halaman ini, traffic keluar dan masuk selalu dari perspektif VM Google Cloud:
- Paket yang dikirim dari VM Google Cloud menyusun traffic egress (keluarnya).
- Paket yang dikirim ke VM Google Cloud menyusun traffic ingress (masuknya).
- Cara paket dirutekan: Paket dapat dirutekan dari VM pengirim atau ke VM penerima menggunakan rute yang next hop-nya berada dalam jaringan VPC atau rute di luar jaringan VPC.
Baik antarmuka jaringan virtual (vNIC) tambahan maupun alamat IP tambahan per vNIC tidak meningkatkan bandwidth masuk atau keluar untuk VM. Misalnya, VM C3 dengan 22 vCPU dibatasi hingga total bandwidth traffic keluar 23 Gbps. Jika Anda mengonfigurasi VM C3 dengan dua vNIC, VM masih dibatasi dengan total bandwidth keluar sebesar 23 Gbps, bukan bandwidth 23 Gbps per vNIC.
Semua informasi di halaman ini berlaku untuk VM Compute Engine, serta produk yang bergantung pada VM Compute Engine. Misalnya, node Google Kubernetes Engine adalah VM Compute Engine.
Ringkasan bandwidth
Tabel berikut menggambarkan ekspektasi bandwidth berdasarkan apakah paket dikirim dari (egress) atau diterima oleh (ingress) VM dan metode perutean paket.
Traffic Keluar
Ekspektasi bandwidth | |
---|---|
Memilih rute dalam jaringan VPC |
|
Memilih rute di luar jaringan VPC |
|
Masuk
Ekspektasi bandwidth | |
---|---|
Memilih rute dalam jaringan VPC |
|
Memilih rute di luar jaringan VPC |
|
Bandwidth keluar
Google Cloud membatasi bandwidth keluar (egress) menggunakan tingkat traffic keluar maksimum per VM berdasarkan jenis mesin VM yang mengirim paket dan apakah tujuan paket dapat diakses menggunakan rute dalam jaringan VPC atau rute di luar jaringan VPC. Bandwidth keluar mencakup paket yang dikeluarkan oleh semua NIC VM dan data yang ditransfer ke semua persistent disk yang terhubung ke VM.
Bandwidth traffic keluar maksimum per VM
Bandwidth traffic keluar maksimum per VM umumnya adalah 2 Gbps per vCPU, tetapi ada beberapa perbedaan dan pengecualian, bergantung pada seri mesin. Tabel berikut menunjukkan rentang batas maksimum bandwidth keluar untuk traffic yang dirutekan dalam jaringan VPC hanya untuk paket jaringan standar, bukan performa jaringan per Tier_1 VM.
Seri mesin | Batas traffic keluar maksimum per VM yang terendah tanpa jaringan Tier_1 | Batas traffic keluar maksimum per VM tertinggi tanpa jaringan Tier_1 |
---|---|---|
E2 | 1 Gbps | 16 Gbps |
C3 | 23 Gbps | 100 Gbps |
C3D | 20 Gbps | 100 Gbps |
T2D | 10 Gbps | 32 Gbps |
N2, C2, N2D, dan C2D | 10 Gbps | 32 Gbps |
N4 | 10 Gbps | 50 Gbps |
H3 | T/A | 200 Gbps |
Z3 | 23 Gbps | 100 Gbps |
N1 (tidak termasuk VM dengan 1 vCPU) | 10 Gbps | 32 Gbps di platform CPU Intel Skylake 16 Gbps di platform CPU yang lebih lama dari Intel Skylake |
Jenis mesin N1 dengan 1 vCPU, f1-micro, dan g1-small | 2 Gbps | 2 Gbps |
A3, A2, dan G2 | T/A | Berdasarkan jenis GPU |
Anda dapat menemukan bandwidth traffic keluar maksimum per VM untuk setiap jenis mesin yang tercantum pada halaman kelompok mesin spesifiknya:
- Kelompok mesin tujuan umum
- Kelompok mesin yang dioptimalkan untuk penyimpanan
- Kelompok mesin yang dioptimalkan untuk komputasi
- Kelompok mesin yang dioptimalkan untuk memori
- Kelompok mesin yang dioptimalkan akselerator
Bandwidth traffic keluar maksimum per VM tidak dijamin. Bandwidth traffic keluar yang sebenarnya dapat diturunkan sesuai dengan faktor-faktor seperti daftar tidak lengkap berikut:
- Driver Ethernet Tamu—gVNIC menawarkan performa yang lebih baik daripada antarmuka jaringan VirtIO
- Ukuran paket
- Overhead protokol
- Jumlah alur
- Setelan driver Ethernet pada OS tamu VM, seperti pengurangan beban checksum dan pengurangan beban segmentasi TCP (TSO)
- Kemacetan jaringan
- Jika persistent disk bersaing dengan traffic keluar jaringan lain, 60% dari bandwidth jaringan maksimum diberikan ke operasi tulis Persistent Disk, dan tersisa 40% untuk traffic keluar jaringan lain. Lihat Faktor yang memengaruhi performa disk dalam dokumentasi Persistent Disk untuk mengetahui detail selengkapnya.
Untuk mendapatkan bandwidth traffic keluar maksimum per VM sebesar mungkin:
- Aktifkan performa jaringan per VM Tier_1 dengan jenis mesin yang dioptimalkan untuk komputasi dan tujuan umum yang lebih besar.
- Gunakan unit transmisi maksimum (MTU) jaringan VPC terbesar yang didukung oleh topologi jaringan Anda. MTU yang lebih besar dapat mengurangi overhead header paket dan meningkatkan throughput data payload.
Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC
Dari perspektif VM pengirim dan untuk alamat IP tujuan yang dapat diakses dengan menggunakan rute dalam jaringan VPC, Google Cloud membatasi traffic keluar menggunakan aturan ini:
- Bandwidth keluar maksimum per VM: Bandwidth keluar maksimum per VM yang dijelaskan di bagian Bandwidth keluar maksimum per VM.
- Bandwidth traffic keluar antar-regional per project: Jika VM pengirim dan tujuan internal atau next hop berada di region berbeda, Google Cloud menerapkan batas bandwidth traffic keluar antar-regional maksimum. Sebagian besar pelanggan cenderung tidak mencapai batas ini. Untuk pertanyaan tentang batasan ini, ajukan kasus dukungan.
- Batas Cloud VPN dan Cloud Interconnect: Saat mengirim traffic dari VM ke tujuan alamat IP internal yang dapat dirutekan oleh tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect, bandwidth keluar dibatasi oleh:
- Bandwidth dan kecepatan paket maksimum per tunnel Cloud VPN
- Kecepatan paket dan bandwidth maksimum per lampiran VLAN
- Untuk sepenuhnya menggunakan bandwidth dari beberapa tunnel VPN Cloud hop berikutnya atau lampiran VLAN Cloud Interconnect menggunakan perutean ECMP, Anda harus menggunakan beberapa koneksi TCP (5 tuple unik).
Tujuan yang dapat dirutekan dalam jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses dari perspektif VM pengirim dengan rute yang next hop-nya bukan gateway internet default:
- Alamat IPv4 internal regional di rentang alamat IPv4 sekunder subnet dan IPv4 primer subnet,
termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
- Alamat IPv4 internal utama antarmuka jaringan (vNIC) VM penerima. (Saat VM pengirim terhubung ke alamat IPv4 eksternal vNIC lain, paket dirutekan menggunakan gateway internet default next hop, sehingga Traffic keluar ke tujuan di luar jaringan VPC akan diterapkan.)
- Alamat IPv4 internal dalam rentang IP alias dari vNIC VM penerima.
- Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
- Alamat IPv4 internal global untuk resource tujuan berikut:
- Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
- Alamat IPv6 dari rentang alamat IPv6
/96
yang ditetapkan ke dual-stack yang menerima vNIC VM. - Alamat IPv6 dari rentang alamat IPv6
/96
dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
- Alamat IPv6 dari rentang alamat IPv6
- Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC atau dengan rute kustom dalam jaringan VPC yang tidak menggunakan next hop gateway internet
default:
- Alamat IPv6 dari rentang alamat IPv6
/96
yang ditetapkan ke dual-stack yang menerima vNIC VM. - Alamat IPv6 dari rentang alamat IPv6
/96
dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.
- Alamat IPv6 dari rentang alamat IPv6
- Tujuan lain yang dapat diakses menggunakan rute jaringan VPC berikut:
- Rute dinamis
- Rute statis kecuali yang menggunakan next hop gateway internet default
- Rute kustom peering
Daftar berikut mengurutkan traffic dari VM penerima ke tujuan internal, dari bandwidth yang setinggi mungkin hingga yang terendah:
- Antar-VM di zona yang sama
- Antar-VM di zona berbeda di region yang sama
- Antar-VM di region yang berbeda
- Dari VM ke API dan layanan Google Cloud menggunakan Akses Google Pribadi atau akses Google API dari alamat IP eksternal VM. Hal ini mencakup endpoint Private Service Connect untuk Google API.
Traffic keluar ke tujuan di luar jaringan VPC
Dari perspektif VM pengirim dan untuk alamat IP tujuan di luar jaringan VPC, Google Cloud membatasi traffic keluar ke rasio berikut yang tercapai lebih dahulu:
Bandwidth traffic keluar per VM: Bandwidth maksimum untuk semua koneksi dari VM ke tujuan di luar jaringan VPC adalah lebih kecil Bandwidth traffic keluar maksimum per VM dan salah satu tarifnya:
- 25 Gbps, jika jaringan Tier_1 diaktifkan
- 7 Gbps, jika jaringan Tier_1 tidak diaktifkan
- 1 Gbps untuk VM H3
- 7 Gbps per NIC fisik untuk seri mesin yang mendukung beberapa NIC fisik seperti A3.
Misalnya, meskipun instance
n2-standard-16
memiliki bandwidth keluar maksimum per VM sebesar 32 Gbps, bandwidth keluar per VM dari instancen2-standard-16
ke tujuan eksternal adalah 25 Gbps atau 7 Gbps, tergantung pada apakah jaringan Tier_1 diaktifkan.Rasio traffic keluar maksimum per alur: Bandwidth maksimum untuk setiap koneksi 5 tuple unik, dari VM ke tujuan di luar jaringan VPC adalah 3 Gbps, kecuali pada H3, di mana adalah 1 Gbps.
Bandwidth keluar internet per project: Bandwidth maksimum untuk semua koneksi dari VM di setiap region project ke tujuan di luar jaringan VPC ditentukan oleh kuota Bandwidth keluar internet project.
Tujuan di luar jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses melalui rute dalam jaringan VPC VM pengirim yang next hop-nya adalah gateway internet default:
- Alamat IPv4 dan IPv6 eksternal global untuk Load Balancer Jaringan proxy eksternal dan Load Balancer Aplikasi eksternal
- Alamat IPv4 eksternal regional untuk resource Google Cloud, termasuk alamat IPv4 eksternal vNIC VM, alamat IPv4 eksternal untuk penerusan protokol eksternal, Load Balancer Jaringan passthrough eksternal, dan paket respons ke gateway Cloud NAT.
- Alamat IPv6 eksternal regional di subnet dual-stack dengan rentang alamat IPv6 eksternal yang digunakan oleh alamat IPv6 eksternal VM dual-stack, penerusan protokol eksternal, dan Load Balancer Jaringan passthrough eksternal, asalkan subnet tersebut berada di jaringan VPC yang tidak di-peering dan terpisah, serta rentang alamat IPv6 tujuan dapat diakses menggunakan rute di jaringan VPC VM pengirim yang selanjutnya hop-nya adalah internet default. Jika subnet dual-stack dengan rentang alamat IPv6 eksternal terletak di jaringan VPC yang sama atau di jaringan VPC yang di-peering, lihat artikel Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
- Tujuan eksternal lainnya yang dapat diakses menggunakan rute statis di jaringan VPC VM pengirim asalkan next hop-nya untuk rute tersebut adalah gateway internet default.
Untuk mengetahui detail tentang resource Google Cloud yang menggunakan jenis alamat IP eksternal, lihat Alamat IP eksternal.
Bandwidth masuk
Google Cloud menangani bandwidth masuk (ingress) bergantung pada cara paket masuk dirutekan ke VM penerima.
Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC
VM penerima dapat menangani paket masuk sebanyak jenis mesin, sistem operasi, dan kondisi jaringan lainnya yang diizinkan. Google Cloud tidak menerapkan pembatasan bandwidth yang disengaja pada paket masuk yang dikirim ke VM jika paket masuk dikirimkan menggunakan rute dalam jaringan VPC:
- Rute subnet di jaringan VPC VM penerima
- Rute subnet peering di jaringan VPC yang di-peering
- Rute di jaringan lain yang next hop-nya adalah tunnel Cloud VPN, lampiran Cloud Interconnect (VLAN), atau VM peralatan Router yang terletak di jaringan VPC VM penerima
Tujuan untuk paket yang dirutekan dalam jaringan VPC meliputi:
- Alamat IPv4 internal utama antarmuka jaringan VM penerima (vNIC). Alamat IPv4 internal utama adalah alamat IPv4 internal regional yang berasal dari rentang alamat IPv4 utama subnet.
- Alamat IPv4 internal dari rentang IP alias vNIC VM penerima. Rentang IP alias dapat berasal dari rentang alamat IPv4 utama subnet atau salah satu rentang alamat IPv4 sekundernya.
- Alamat IPv6 dari rentang alamat IPv6
/96
yang ditetapkan ke dual-stack yang menerima vNIC VM. Rentang IPv6 VM dapat berasal dari rentang subnet IPv6 berikut:- Rentang alamat IPv6 internal.
- Rentang alamat IPv6 eksternal saat paket yang masuk dirutekan secara internal ke VM penerima menggunakan salah satu rute jaringan VPC yang tercantum sebelumnya di bagian ini.
- Alamat IPv4 internal dari aturan penerusan yang digunakan oleh protokol internal yang diteruskan ke VM penerima atau Load Balancer Jaringan passthrough internal, di mana VM penerima merupakan backend load balancer. Alamat IPv4 aturan penerusan internal berasal dari rentang alamat IPv4 utama subnet.
- Alamat IPv6 internal dari rentang IPv6
/96
dari aturan penerusan yang digunakan oleh penerusan protokol internal ke VM penerima atau Load Balancer Jaringan passthrough internal, dengan VM penerima adalah backend dari load balancer. Alamat IPv6 aturan penerusan internal berasal dari rentang alamat IPv6 internal subnet. - Alamat IPv6 eksternal dari rentang IPv6
/96
dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke VM penerima atau Load Balancer Jaringan passthrough eksternal, dengan VM penerima adalah backend dari load balancer saat paket yang masuk dirutekan dalam jaringan VPC menggunakan salah satu rute yang tercantum sebelumnya di bagian ini. Alamat IPv6 aturan penerusan eksternal berasal dari rentang alamat IPv6 eksternal subnet. - Alamat IP dalam rentang tujuan rute statis kustom yang menggunakan VM penerima sebagai VM next hop (
next-hop-instance
ataunext-hop-address
). - Alamat IP dalam rentang tujuan rute statis kustom menggunakan next hop
Load Balancer Jaringan passthrough internal (
next-hop-ilb
), jika VM penerima adalah backend untuk load balancer tersebut.
Traffic masuk ke tujuan di luar jaringan VPC
Google Cloud menerapkan batas bandwidth berikut untuk paket masuk yang dikirim ke VM penerima menggunakan rute di luar jaringan VPC. Jika load balancing digunakan, batas bandwidth akan diterapkan satu per satu ke setiap VM penerima.
Untuk rangkaian mesin yang tidak mendukung beberapa NIC fisik, pembatasan bandwidth masuk yang berlaku berlaku secara kolektif untuk semua NIC virtual. Batasnya adalah tarif pertama yang ditemukan:
- 1.800.000 paket per detik
- 30 Gbps
Untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3, batasan bandwidth masuk yang berlaku berlaku untuk setiap NIC fisik. Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:
- 1.800.000 paket per detik per NIC fisik
- 30 Gbps per NIC fisik
Tujuan untuk paket yang dirutekan menggunakan rute di luar jaringan VPC meliputi:
- Alamat IPv4 eksternal yang ditetapkan dalam konfigurasi akses NAT one-to-one pada salah satu antarmuka jaringan (NIC) VM penerima.
- Alamat IPv6 eksternal dari rentang alamat IPv6
/96
yang ditetapkan ke vNIC dari VM penerima dual-stack saat paket masuk diarahkan menggunakan rute di luar jaringan VPC VM penerima. - Alamat IPv4 eksternal dari aturan penerusan yang digunakan oleh protokol eksternal yang diteruskan ke VM penerima atau Load Balancer Jaringan passthrough eksternal, tempat VM penerima merupakan backend load balancer.
- Alamat IPv6 eksternal dari rentang IPv6
/96
dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke VM penerima atau Load Balancer Jaringan passthrough eksternal, dengan VM penerima adalah backend dari load balancer saat paket yang masuk dirutekan menggunakan rute di luar jaringan VPC. - Respons masuk yang ditetapkan yang diproses oleh Cloud NAT
Bingkai Jumbo
Untuk menerima dan mengirim bingkai jumbo, konfigurasi jaringan VPC yang digunakan oleh VM Anda; tetapkan unit transmisi maksimum (MTU) ke nilai yang lebih besar, hingga 8896.
Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.
Untuk menggunakan bingkai jumbo dengan driver gVNIC, Anda harus menggunakan driver
versi 1.3 atau yang lebih baru. Tidak semua image publik Google Cloud menyertakan versi driver ini. Untuk
mengetahui informasi selengkapnya tentang dukungan sistem operasi untuk bingkai jumbo, lihat
tab Networking features di
halaman Operating system details. Versi image yang menunjukkan dukungan penuh untuk bingkai jumbo mencakup
driver gVNIC yang telah diupdate, meskipun OS tamu menampilkan versi driver gve sebagai
1.0.0
.
Jika menggunakan OS image yang tidak memiliki dukungan penuh untuk bingkai jumbo,
Anda dapat menginstal driver gVNIC versi v1.3.0 atau yang lebih baru secara manual. Google
menyarankan penginstalan versi driver gVNIC yang ditandai Latest
untuk mendapatkan manfaat dari
fitur tambahan dan perbaikan bug. Anda dapat mendownload driver gVNIC dari GitHub.
Untuk mengupdate versi driver gVNIC secara manual di OS tamu, lihat Penggunaan pada sistem operasi yang tidak didukung.
Menerima dan mengirim antrean
Setiap vNIC VM diberi sejumlah antrean penerimaan dan transmisi untuk memproses paket dari jaringan.
- Receive Queue (RX): Antrean untuk menerima paket. Saat vNIC menerima paket dari jaringan, vNIC memilih deskriptor untuk paket yang masuk dari antrean, memprosesnya, dan menyerahkan paket tersebut ke OS tamu melalui antrean paket yang terpasang ke inti vCPU menggunakan interupsi. Jika antrean RX penuh dan tidak ada buffer yang tersedia untuk menempatkan paket, paket akan dihapus. Hal ini biasanya dapat terjadi jika aplikasi terlalu menggunakan core vCPU yang juga terpasang ke antrean paket yang dipilih.
- Transmit Queue (TX): Antrean untuk mengirimkan paket. Saat OS tamu mengirim paket, deskriptor dialokasikan dan ditempatkan dalam antrean TX. vNIC kemudian memproses deskripsi dan mengirimkan paket itu.
Alokasi antrean default
Kecuali jika Anda menetapkan jumlah antrean untuk NIC secara eksplisit, Anda dapat membuat model algoritma yang digunakan Google Cloud untuk menetapkan jumlah antrean RX dan TX per vNIC dengan cara berikut:
Gunakan salah satu metode berikut, bergantung pada jenis antarmuka jaringan Anda:
- VirtIO: Bagi jumlah vCPU dengan jumlah NIC, lalu hapus
sisanya —
[number of vCPUs/number of NICs]
. - gVNIC: Bagi jumlah vCPU dengan jumlah NIC, lalu bagi
hasilnya dengan 2 dan hapus sisanya —
[number of vCPUs/number of NICs/2]
.
Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan).
- VirtIO: Bagi jumlah vCPU dengan jumlah NIC, lalu hapus
sisanya —
Jika jumlah yang dihitung kurang dari 1, tetapkan setiap vNIC satu antrean.
Menentukan apakah jumlah yang dihitung lebih besar dari jumlah antrean maksimum per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:
- Dengan menggunakan virtIO
atau driver kustom, jumlah maksimum antrean per vNIC adalah
32
. Jika jumlah yang dihitung lebih besar dari32
, abaikan angka yang dihitung, dan tetapkan setiap antrean vNIC 32. - Dengan menggunakan gVNIC, jumlah maksimum antrean per vNIC adalah
16
. Jika jumlah yang dihitung lebih besar dari16
, abaikan jumlah yang dihitung, dan tetapkan setiap antrean vNIC 16.
- Dengan menggunakan virtIO
atau driver kustom, jumlah maksimum antrean per vNIC adalah
Contoh berikut menunjukkan cara menghitung jumlah default antrean:
Jika VM menggunakan VirtIO dan memiliki 16 vCPU dan 4 NIC, jumlah yang dihitung adalah
[16/4] = 4
. Google Cloud menetapkan empat antrean untuk setiap vNIC.Jika VM menggunakan gVNIC dan memiliki 128 vCPU dan dua NIC, jumlah yang dihitung adalah
[128/2/2] = 32
. Google Cloud menetapkan jumlah antrean maksimum per vNIC ke setiap vNIC. Google Cloud menetapkan antrean16
per vNIC.
Pada sistem Linux, Anda dapat menggunakan ethtool
untuk mengonfigurasi vNIC dengan antrean yang lebih sedikit daripada jumlah antrean yang ditetapkan Google Cloud per vNIC.
Alokasi antrean kustom
Selain Alokasi antrean default, Anda dapat menetapkan jumlah antrean kustom (total RX dan TX) ke setiap vNIC saat membuat VM baru menggunakan Compute Engine API.
Jumlah antrean kustom yang Anda tentukan harus mematuhi aturan berikut:
Jumlah antrean minimum yang dapat Anda tetapkan per vNIC adalah satu.
Jumlah antrean maksimum yang dapat Anda tetapkan ke setiap vNIC adalah jumlah yang lebih rendah dari jumlah vCPU atau jumlah antrean maksimum per vNIC, berdasarkan jenis driver:
Jika Anda menetapkan jumlah antrean kustom ke semua NIC VM, jumlah penetapan perhitungan antrean harus kurang dari atau sama dengan jumlah vCPU yang ditetapkan ke instance VM.
Anda dapat membuat kelebihan jumlah antrean khusus untuk NIC Anda. Dengan kata lain, Anda dapat memiliki jumlah antrean yang ditetapkan ke semua NIC untuk VM yang lebih besar dari jumlah vCPU untuk VM Anda. Untuk membuat jumlah antrean kustom menjadi berlebih, Anda harus memenuhi ketentuan berikut:
- Anda menggunakan gVNIC sebagai jenis vNIC untuk semua NIC yang dikonfigurasi untuk VM.
- VM Anda menggunakan jenis mesin dari seri mesin N2, N2D, C2 dan C2D.
- Anda telah mengaktifkan jaringan Tingkat_1 untuk VM.
- Anda menentukan jumlah antrean khusus untuk semua NIC yang dikonfigurasi untuk VM.
Dengan langganan berlebih antrean, jumlah antrean maksimum untuk VM adalah 16 kali lipat jumlah NIC. Jadi, jika memiliki 6 NIC yang dikonfigurasi untuk VM dengan 30 vCPU, Anda dapat mengonfigurasi maksimum (16 * 6), atau 96 antrean kustom untuk VM Anda.
Contoh
Jika VM memiliki 8 vCPU dan 3 NIC, jumlah antrean maksimum untuk VM adalah jumlah vCPU, atau 8. Anda dapat menetapkan 1 antrean ke
nic0
, 4 antrean kenic1
, dan 3 antrean kenic2
. Dalam contoh ini, Anda selanjutnya tidak dapat menetapkan 4 antrean kenic2
sambil menyimpan dua penetapan antrean vNIC lainnya karena jumlah antrean yang ditetapkan tidak boleh melebihi jumlah vCPU (8).Jika VM memiliki 96 vCPU dan 2 NIC, Anda dapat menetapkan kedua NIC hingga 32 antrean masing-masing saat menggunakan driver virtIO, atau hingga 16 antrean masing-masing saat menggunakan driver gVNIC. Dalam contoh ini, jumlah antrean yang ditetapkan selalu kurang dari jumlah vCPU.
Anda juga dapat menetapkan jumlah antrean kustom untuk hanya beberapa NIC, sehingga Google Cloud dapat menetapkan antrean ke NIC yang tersisa. Jumlah antrean yang dapat Anda tetapkan per vNIC masih tunduk pada aturan yang disebutkan sebelumnya. Anda dapat membuat model kelayakan konfigurasi, dan, jika konfigurasi memungkinkan, jumlah antrean yang ditetapkan Google Cloud ke NIC yang tersisa dengan proses ini:
Hitung jumlah antrean untuk NIC menggunakan penetapan antrean kustom. Untuk contoh VM dengan 20 vCPU dan 6 NIC, misalnya Anda menetapkan
nic0
5 antrean,nic1
6 antrean,nic2
4 antrean, dan membiarkan Google Cloud menetapkan antrean untuknic3
,nic4
, dannic5
. Dalam contoh ini, jumlah antrean yang ditetapkan secara kustom adalah5+6+4 = 15
.Kurangi jumlah antrean yang ditetapkan secara kustom dengan jumlah vCPU. Jika selisihnya tidak setidaknya sama dengan jumlah NIC yang tersisa yang harus ditetapkan antrean oleh Google Cloud, Google Cloud akan menampilkan error. Melanjutkan contoh VM yang terdiri dari 20 vCPU dan jumlah
15
antrean yang ditetapkan secara kustom, Google Cloud memiliki20-15 = 5
antrean tersisa untuk ditetapkan ke NIC lainnya (nic3
,nic4
,nic5
).Bagi selisih dari langkah sebelumnya dengan jumlah NIC yang tersisa dan buang sisa —
⌊(number of vCPUs - sum of assigned queues)/(number of remaining NICs)⌋
. Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan) yang setidaknya sama dengan satu, karena batasan yang dijelaskan di langkah sebelumnya. Google Cloud menetapkan jumlah antrean untuk setiap NIC lainnya yang cocok dengan jumlah yang dihitung, selama jumlah yang dihitung tidak lebih besar dari jumlah maksimum antrean per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:- Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk
setiap vNIC yang tersisa lebih besar dari
32
, Google Cloud akan menetapkan setiap antrean32
vNIC yang tersisa. - Dengan gVNIC, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih besar dari
16
, Google Cloud akan menetapkan setiap antrean16
vNIC yang tersisa.
- Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk
setiap vNIC yang tersisa lebih besar dari
Mengonfigurasi jumlah antrean kustom
Untuk membuat VM yang menggunakan jumlah antrean kustom untuk satu atau beberapa vNIC, selesaikan langkah-langkah berikut.
gcloud
- Jika Anda belum memiliki jaringan VPC dengan satu subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buatlah.
- Gunakan perintah
gcloud compute instances create
untuk membuat VM. Ulangi flag--network-interface
untuk setiap vNIC yang ingin Anda konfigurasi untuk VM, dan sertakan opsiqueue-count
.
gcloud compute instances create VM_NAME \ --zone=ZONE \ --machine-type=MACHINE_TYPE \ --network-performance-configs=total-egress-bandwidth-tier=TIER_1 \ --network-interface=network=NETWORK_NAME_1,subnet=SUBNET_1,nic-type=GVNIC,queue-count=QUEUE_SIZE_1 \ --network-interface=network=NETWORK_NAME_2,subnet=SUBNET_2,nic-type=GVNIC,queue-count=QUEUE_SIZE_2
Ganti kode berikut:
VM_NAME
: name untuk VM baruZONE
: zona untuk membuat VMMACHINE_TYPE
: jenis mesin VM. Jenis mesin yang Anda tentukan harus mendukung jaringan gVNIC dan Tier_1.NETWORK_NAME
: nama jaringan yang dibuat sebelumnyaSUBNET_*
: nama salah satu subnet yang dibuat sebelumnyaQUEUE_SIZE
: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.
Terraform
- Jika Anda belum memiliki jaringan VPC dengan satu subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buatlah.
Buat VM dengan jumlah antrean tertentu untuk vNIC menggunakan resource
google_compute_instance
. Ulangi parameter--network-interface
untuk setiap vNIC yang ingin Anda konfigurasi untuk VM, dan sertakan parameterqueue-count
.# Queue oversubscription instance resource "google_compute_instance" "VM_NAME" { project = "PROJECT_ID" boot_disk { auto_delete = true device_name = "DEVICE_NAME" initialize_params { image="IMAGE_NAME" size = DISK_SIZE type = "DISK_TYPE" } } machine_type = "MACHINE_TYPE" name = "VM_NAME" zone = "ZONE" network_performance_config { total_egress_bandwidth_tier = "TIER_1" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_1 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_1" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_2 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_2" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_3 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_3"" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_4 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_4"" } }
Ganti kode berikut:
VM_NAME
: name untuk VM baruPROJECT_ID
: ID project untuk membuat VM. Kecuali jika Anda menggunakan jaringan VPC Bersama, project yang Anda tentukan harus sama dengan project tempat semua subnet dan jaringan dibuat.DEVICE_NAME
: Nama yang akan dikaitkan dengan boot disk di OS tamuIMAGE_NAME
: nama gambar,misalnya,"projects/debian-cloud/global/images/debian-11-bullseye-v20231010"
.DISK_SIZE
: ukuran boot disk, dalam GiBDISK_TYPE
: jenis disk yang akan digunakan untuk disk booting, misalnya,pd-standard
MACHINE_TYPE
: jenis mesin VM. Jenis mesin yang Anda tentukan harus mendukung jaringan gVNIC dan Tier_1.ZONE
: zona untuk membuat VMQUEUE_COUNT
: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.SUBNET_*
: nama subnet yang terhubung ke antarmuka jaringan
REST
- Jika Anda belum memiliki jaringan VPC dengan satu subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buatlah.
Buat VM dengan jumlah antrean tertentu untuk NIC menggunakan metode
instances.insert
. Ulangi propertinetworkInterfaces
untuk mengonfigurasi beberapa antarmuka jaringan.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances { "name": "VM_NAME", "machineType": "machineTypes/MACHINE_TYPE", "networkPerformanceConfig": { "totalEgressBandwidthTier": TIER_1 }, "networkInterfaces": [ { "nicType": gVNIC, "subnetwork":"regions/region/subnetworks/SUBNET_1", "queueCount": "QUEUE_COUNT_1" } ], "networkInterfaces": [ { "nicType": gVNIC, "subnetwork":"regions/region/subnetworks/SUBNET_2", "queueCount": "QUEUE_COUNT_2" } ], }
Ganti kode berikut:
PROJECT_ID
: ID project untuk membuat VM diZONE
: zona tempat pembuatan VMVM_NAME
: nama VM yang baruMACHINE_TYPE
: jenis mesin, bawaan atau kustom, untuk VM baruSUBNET_*
: nama subnet yang terhubung ke antarmuka jaringanQUEUE_COUNT
: Jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.
Mengantrekan alokasi dan mengubah jenis mesin
VM dibuat dengan alokasi antrean default, atau Anda dapat menetapkan jumlah antrean kustom untuk setiap kartu antarmuka jaringan virtual (vNIC) saat membuat VM baru dengan menggunakan Compute Engine API. Penetapan antrean vNIC default atau kustom hanya ditetapkan saat membuat VM. Jika VM memiliki vNIC yang menggunakan jumlah antrean default, Anda dapat mengubah jenis mesinnya. Jika jenis mesin yang Anda ganti memiliki jumlah vCPU yang berbeda, jumlah antrean default untuk VM Anda akan dihitung ulang berdasarkan jenis mesin baru.
Jika VM Anda memiliki vNIC yang menggunakan jumlah antrean non-default kustom, Anda dapat mengubah jenis mesin dengan menggunakan Google Cloud CLI atau Compute Engine API untuk mengupdate properti instance. Konversi berhasil jika VM yang dihasilkan mendukung jumlah antrean yang sama per vNIC dengan VM asli. Untuk VM yang menggunakan antarmuka VirtIO-Net dan memiliki jumlah antrean kustom lebih dari 16 per vNIC, Anda tidak dapat mengubah jenis mesin menjadi jenis mesin generasi ketiga yang hanya menggunakan gVNIC. Sebagai gantinya, Anda dapat memigrasikan VM ke jenis mesin generasi ketiga dengan mengikuti petunjuk di Memigrasikan workload dari VM yang ada ke VM baru.
Langkah selanjutnya
- Jenis mesin
- Instance virtual machine
- Membuat dan memulai instance VM
- Mengonfigurasi performa jaringan Tier_1 per VM
- Panduan untuk mulai menggunakan VM Linux
- Panduan untuk mulai menggunakan VM Windows