Google Cloud memperhitungkan bandwidth per instance komputasi, bukan per antarmuka jaringan virtual (vNIC) atau alamat IP. Jenis mesin instance menentukan rasio traffic keluar maksimum yang memungkinkan; tetapi, Anda hanya dapat mencapai tingkat traffic keluar maksimum yang dimungkinkan dalam situasi tertentu.
Halaman ini menguraikan ekspektasi, yang berguna saat merencanakan deployment Anda. Halaman ini mengategorikan bandwidth menggunakan dua dimensi:
- Traffic keluar atau masuk: Seperti yang digunakan pada halaman ini, traffic keluar dan masuk selalu dari perspektif instance Google Cloud:
- Paket yang dikirim dari instance Google Cloud menyusun traffic egress (keluarnya).
- Paket yang dikirim ke instance Google Cloud menyusun traffic ingress (masuknya).
- Cara paket dirutekan: Paket dapat dirutekan dari instance pengirim atau ke instance penerima menggunakan rute yang next hop-nya berada dalam jaringan VPC atau rute di luar jaringan VPC.
Baik antarmuka jaringan virtual (vNIC) tambahan maupun alamat IP tambahan per vNIC tidak akan meningkatkan bandwidth masuk atau keluar untuk instance komputasi. Misalnya, VM C3 dengan 22 vCPU dibatasi hingga total bandwidth keluar 23 Gbps. Jika Anda mengonfigurasi VM C3 dengan dua vNIC, VM masih dibatasi hingga total bandwidth keluar 23 Gbps, bukan bandwidth 23 Gbps per vNIC.
Semua informasi di halaman ini berlaku untuk instance komputasi Compute Engine, serta produk yang bergantung pada instance Compute Engine. Misalnya, node Google Kubernetes Engine adalah instance Compute Engine.
Ringkasan bandwidth
Tabel berikut menggambarkan ekspektasi bandwidth berdasarkan apakah paket dikirim dari (egress) atau diterima oleh (ingress) instance komputasi dan metode perutean paket.
Keluar
Ekspektasi bandwidth | |
---|---|
Memilih rute dalam jaringan VPC |
|
Memilih rute di luar jaringan VPC |
|
Masuk
Ekspektasi bandwidth | |
---|---|
Memilih rute dalam jaringan VPC |
|
Memilih rute di luar jaringan VPC |
|
Bandwidth keluar
Google Cloud membatasi bandwidth keluar (egress) menggunakan tingkat traffic keluar maksimum per instance. Tarif ini didasarkan pada jenis mesin instance komputasi yang mengirim paket dan apakah tujuan paket dapat diakses menggunakan rute dalam jaringan VPC atau rute di luar jaringan VPC. Bandwidth keluar mencakup paket yang dikeluarkan oleh semua NIC instance dan data yang ditransfer ke semua volume Hyperdisk dan Persistent Disk yang terhubung ke instance.
Bandwidth traffic keluar maksimum per instance
Bandwidth traffic keluar maksimum per instance umumnya adalah 2 Gbps per vCPU, tetapi ada beberapa perbedaan dan pengecualian, bergantung pada seri mesin. Tabel berikut menunjukkan rentang batas maksimum bandwidth keluar untuk traffic yang dirutekan dalam jaringan VPC hanya untuk paket jaringan standar, bukan performa jaringan per VM Tier_1.
Seri mesin | Batas traffic keluar maksimum per instance terendah untuk standar | Batas traffic keluar maksimum per instance tertinggi untuk standar |
---|---|---|
C4 dan C4A | 10 Gbps | 100 Gbps |
C3 | 23 Gbps | 100 Gbps |
C3D | 20 Gbps | 100 Gbps |
C2 dan C2D | 10 Gbps | 32 Gbps |
E2 | 1 Gbps | 16 Gbps |
H3 | T/A | 200 Gbps |
M3 dan M1 | 32 Gbps | 32 Gbps |
M2 | 32 Gbps | 32 Gbps di platform CPU Intel Cascade Lake 16 Gbps di platform CPU lainnya |
N4 | 10 Gbps | 50 Gbps |
N2 dan N2D | 10 Gbps | 32 Gbps |
N1 (tidak termasuk VM dengan 1 vCPU) | 10 Gbps | 32 Gbps di platform CPU Intel Skylake 16 Gbps di platform CPU yang lebih lama dari Intel Skylake |
Jenis mesin N1 dengan 1 vCPU, f1-micro, dan g1-small | 2 Gbps | 2 Gbps |
T2D | 10 Gbps | 32 Gbps |
X4 | T/A | 100 Gbps |
Z3 | 23 Gbps | 100 Gbps |
Anda dapat menemukan bandwidth traffic keluar maksimum per instance untuk setiap jenis mesin yang tercantum pada halaman kelompok mesin spesifiknya:
- Seri C, E, N, dan T: Kelompok mesin tujuan umum
- Seri Z: Kelompok mesin yang dioptimalkan untuk penyimpanan
- Seri C2 dan H: Kelompok mesin yang dioptimalkan untuk komputasi
- Seri M dan X: Kelompok mesin yang dioptimalkan untuk memori
Bandwidth traffic keluar maksimum per instance tidak dijamin. Bandwidth traffic keluar yang sebenarnya dapat diturunkan sesuai dengan faktor-faktor seperti daftar tidak lengkap berikut:
- Menggunakan VirtIO, bukan gVNIC, dengan instance komputasi yang mendukung keduanya
- Ukuran paket
- Overhead protokol
- Jumlah alur
- Setelan driver Ethernet pada OS tamu instance komputasi, seperti pengurangan beban checksum dan pengurangan beban segmentasi TCP (TSO)
- Kemacetan jaringan
- Jika I/O Persistent Disk bersaing dengan traffic keluar jaringan lain, 60% dari bandwidth jaringan maksimum diberikan ke operasi tulis Persistent Disk, dan tersisa 40% untuk traffic keluar jaringan lain. Lihat Faktor yang memengaruhi performa disk untuk mengetahui detail selengkapnya.
Untuk mendapatkan bandwidth traffic keluar maksimum per instance sebesar mungkin:
- Aktifkan performa jaringan per VM Tier_1 dengan jenis mesin yang lebih besar.
- Gunakan unit transmisi maksimum (MTU) jaringan VPC terbesar yang didukung oleh topologi jaringan Anda. MTU yang lebih besar dapat mengurangi overhead header paket dan meningkatkan throughput data payload.
- Gunakan versi driver gVNIC terbaru.
- Gunakan seri mesin generasi ketiga atau yang lebih baru yang menggunakan Titanium untuk mengurangi beban pemrosesan jaringan dari CPU host.
Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC
Dari perspektif instance pengirim dan untuk alamat IP tujuan yang dapat diakses dengan menggunakan rute dalam jaringan VPC, Google Cloud membatasi traffic keluar menggunakan aturan ini:
- Bandwidth traffic keluar maksimum per VM: Bandwidth traffic keluar maksimum per instance yang dijelaskan di bagian Bandwidth traffic keluar maksimum per instance.
- Bandwidth traffic keluar antar-regional per project: Jika instance pengirim dan tujuan internal atau next hop berada di region berbeda, Google Cloud menerapkan batas bandwidth traffic keluar antar-regional maksimum. Sebagian besar pelanggan cenderung tidak mencapai batas ini. Untuk pertanyaan tentang batasan ini, ajukan kasus dukungan.
- Batasan Cloud VPN dan Cloud Interconnect: Saat mengirim traffic dari instance ke tujuan alamat IP internal yang dapat dirutekan oleh tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect, bandwidth keluar dibatasi oleh:
- Tarif paket dan bandwidth maksimum per tunnel Cloud VPN
- Tarif paket dan bandwidth maksimum per lampiran VLAN
- Untuk memanfaatkan sepenuhnya bandwidth dari beberapa tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect menggunakan perutean ECMP, Anda harus menggunakan beberapa koneksi TCP (5 tuple unik).
Tujuan yang dapat dirutekan dalam jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses dari perspektif instance pengirim dengan rute yang next hop-nya bukan gateway internet default:
- Alamat IPv4 internal regional di
rentang alamat IPv4 primer subnet dan rentang alamat IPv4 sekunder subnet,
termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
- Alamat IPv4 internal utama dari antarmuka jaringan (vNIC) instance penerima. (Ketika instance pengirim terhubung ke alamat IPv4 eksternal vNIC instance lain, paket dirutekan menggunakan gateway internet default next hop, jadi Traffic keluar ke tujuan di luar jaringan VPC berlaku.)
- Alamat IPv4 internal dalam rentang IP alias dari vNIC instance penerima.
- Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
- Alamat IPv4 internal global untuk resource tujuan berikut:
- Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
- Alamat IPv6 dari rentang alamat IPv6
/96
yang ditetapkan ke vNIC instance penerima stack ganda. - Alamat IPv6 dari rentang alamat IPv6
/96
dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
- Alamat IPv6 dari rentang alamat IPv6
- Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC atau dengan rute kustom dalam jaringan VPC yang tidak menggunakan next hop gateway internet
default:
- Alamat IPv6 dari rentang alamat IPv6
/96
yang ditetapkan ke vNIC instance penerima stack ganda. - Alamat IPv6 dari rentang alamat IPv6
/96
dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.
- Alamat IPv6 dari rentang alamat IPv6
- Tujuan lain yang dapat diakses menggunakan rute jaringan VPC berikut:
- Rute dinamis
- Rute statis kecuali yang menggunakan next hop gateway internet default
- Rute kustom peering
Daftar berikut mengurutkan traffic dari instance pengirim ke tujuan internal, dari bandwidth yang setinggi mungkin hingga yang terendah:
- Antar-instance komputasi di zona yang sama
- Antar-instance komputasi di zona berbeda di region yang sama
- Antar-instance komputasi di region yang berbeda
- Dari instance komputasi ke layanan dan Google Cloud API menggunakan Akses Google Pribadi atau mengakses Google API dari alamat IP eksternal instance. Hal ini mencakup endpoint Private Service Connect untuk Google API.
Traffic keluar ke tujuan di luar jaringan VPC
Dari perspektif instance pengirim dan untuk alamat IP tujuan di luar jaringan VPC, Google Cloud membatasi traffic keluar ke rasio berikut yang tercapai lebih dahulu:
Bandwidth traffic keluar per instance: Bandwidth maksimum untuk semua koneksi dari instance komputasi ke tujuan di luar jaringan VPC adalah lebih kecil dari Bandwidth traffic keluar maksimum per instance dan salah satu tarifnya:
- 25 Gbps, jika jaringan Tier_1 diaktifkan
- 7 Gbps, jika jaringan Tier_1 tidak diaktifkan
- 1 Gbps untuk instance H3
- 7 Gbps per NIC fisik untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3.
Misalnya, meskipun instance
c3-standard-44
memiliki bandwidth keluar maksimum per VM sebesar 32 Gbps, bandwidth keluar per VM dari VMc3-standard-44
ke tujuan eksternal adalah 25 Gbps atau 7 Gbps, bergantung pada apakah jaringan Tier_1 diaktifkan.Rasio traffic keluar maksimum per alur: Bandwidth maksimum untuk setiap koneksi 5 tuple unik, dari instance komputasi ke tujuan di luar jaringan VPC adalah 3 Gbps, kecuali pada H3, di mana adalah 1 Gbps.
Bandwidth keluar internet per project: Bandwidth maksimum untuk semua koneksi dari instance komputasi di setiap region project ke tujuan di luar jaringan VPC ditentukan oleh kuota bandwidth keluar Internet project.
Tujuan di luar jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses melalui rute dalam jaringan VPC instance pengirim yang next hop-nya adalah gateway internet default:
- Alamat IPv4 dan IPv6 eksternal global untuk Load Balancer Jaringan proxy eksternal dan Load Balancer Aplikasi eksternal
- Alamat IPv4 eksternal regional untuk resource Google Cloud, termasuk alamat IPv4 eksternal vNIC VM, alamat IPv4 eksternal untuk penerusan protokol eksternal, Load Balancer Jaringan passthrough eksternal, dan paket respons ke gateway Cloud NAT.
- Alamat IPv6 eksternal regional di subnet stack ganda dengan rentang alamat IPv6 eksternal yang digunakan oleh alamat IPv6 eksternal instance stack ganda, penerusan protokol eksternal, dan Load Balancer Jaringan passthrough eksternal. Subnet harus berada di jaringan VPC terpisah yang tidak di-peering. Rentang alamat IPv6 tujuan harus dapat diakses menggunakan rute di jaringan VPC instance pengirim yang next hop-nya adalah gateway internet default. Jika subnet dual-stack dengan rentang alamat IPv6 eksternal berada di jaringan VPC yang sama atau dalam jaringan VPC yang di-peering, lihat Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
- Tujuan eksternal lainnya yang dapat diakses menggunakan rute statis di jaringan VPC instance pengirim asalkan next hop-nya untuk rute tersebut adalah gateway internet default.
Untuk mengetahui detail tentang resource Google Cloud yang menggunakan jenis alamat IP eksternal, lihat Alamat IP eksternal.
Bandwidth masuk
Google Cloud menangani bandwidth masuk (ingress) bergantung pada cara paket masuk dirutekan ke instance komputasi penerima.
Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC
Instance penerima dapat menangani paket masuk sebanyak jenis mesin, sistem operasi, dan kondisi jaringan lainnya yang diizinkan. Google Cloud tidak menerapkan pembatasan bandwidth yang disengaja pada paket masuk yang dikirim ke instance jika paket masuk dikirimkan menggunakan rute dalam jaringan VPC:
- Rute subnet di jaringan VPC instance penerima
- Rute subnet peering di jaringan VPC yang di-peering
- Rute di jaringan lain yang next hop-nya adalah tunnel Cloud VPN, lampiran Cloud Interconnect (VLAN), atau instance peralatan Router yang terletak di jaringan VPC instance penerima
Tujuan untuk paket yang dirutekan dalam jaringan VPC meliputi:
- Alamat IPv4 internal utama dari antarmuka jaringan (NIC) instance penerima. Alamat IPv4 internal utama adalah alamat IPv4 internal regional yang berasal dari rentang alamat IPv4 utama subnet.
- Alamat IPv4 internal dari rentang IP alias NIC instance penerima. Rentang IP alias dapat berasal dari rentang alamat IPv4 utama subnet atau salah satu rentang alamat IPv4 sekundernya.
- Alamat IPv6 dari rentang alamat IPv6
/96
yang ditetapkan ke NIC instance penerima stack ganda. Rentang IPv6 instance Compute dapat berasal dari rentang IPv6 subnet berikut:- Rentang alamat IPv6 internal.
- Rentang alamat IPv6 eksternal saat paket yang masuk dirutekan secara internal ke instance penerima menggunakan salah satu rute jaringan VPC yang tercantum sebelumnya di bagian ini.
- Alamat IPv4 internal dari aturan penerusan yang digunakan oleh penerusan protokol internal ke instance penerima atau Load Balancer Jaringan passthrough internal, dengan instance penerima adalah backend dari load balancer. Alamat IPv4 aturan penerusan internal berasal dari rentang alamat IPv4 utama subnet.
- Alamat IPv6 internal dari rentang IPv6
/96
dari aturan penerusan yang digunakan oleh penerusan protokol internal ke instance penerima atau Load Balancer Jaringan passthrough internal, dengan instance penerima adalah backend dari load balancer. Alamat IPv6 aturan penerusan internal berasal dari rentang alamat IPv6 internal subnet. - Alamat IPv6 eksternal dari rentang IPv6
/96
dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal. Instance penerima adalah backend load balancer saat paket masuk dirutekan dalam jaringan VPC menggunakan salah satu rute yang tercantum sebelumnya di bagian ini. Alamat IPv6 aturan penerusan eksternal berasal dari rentang alamat IPv6 eksternal subnet. - Alamat IP dalam rentang tujuan rute statis kustom yang menggunakan instance penerima sebagai instance next hop (
next-hop-instance
ataunext-hop-address
). - Alamat IP dalam rentang tujuan rute statis kustom menggunakan next hop
Load Balancer Jaringan passthrough internal (
next-hop-ilb
), jika instance penerima adalah backend untuk load balancer tersebut.
Traffic masuk ke tujuan di luar jaringan VPC
Google Cloud menerapkan batas bandwidth berikut untuk paket masuk yang dikirim ke instance penerima menggunakan rute di luar jaringan VPC. Jika load balancing terlibat, batas bandwidth diterapkan satu per satu ke setiap instance penerima.
Untuk seri mesin yang tidak mendukung beberapa NIC fisik, pembatasan bandwidth masuk yang berlaku berlaku secara kolektif untuk semua antarmuka jaringan virtual (vNIC). Batas ini adalah tarif pertama dari tarif berikut yang ditemukan:
- 1.800.000 paket per detik
- 30 Gbps
Untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3, batasan bandwidth masuk yang berlaku berlaku satu per satu untuk setiap NIC fisik. Batas ini adalah tarif pertama dari tarif berikut yang ditemukan:
- 1.800.000 paket per detik per NIC fisik
- 30 Gbps per NIC fisik
Tujuan untuk paket yang dirutekan menggunakan rute di luar jaringan VPC meliputi:
- Alamat IPv4 eksternal yang ditetapkan dalam konfigurasi akses NAT one-to-one pada salah satu antarmuka jaringan (NIC) instance penerima.
- Alamat IPv6 eksternal dari rentang alamat IPv6
/96
yang ditetapkan ke vNIC instance penerima stack ganda saat paket masuk dirutekan menggunakan rute di luar jaringan VPC instance penerima. - Alamat IPv4 eksternal dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal, dengan instance penerima merupakan backend load balancer.
- Alamat IPv6 eksternal dari rentang IPv6
/96
dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal. Instance penerima harus merupakan backend load balancer saat paket masuk dirutekan menggunakan rute di luar jaringan VPC. - Respons masuk yang ditetapkan yang diproses oleh Cloud NAT.
Bingkai jumbo
Untuk menerima dan mengirim bingkai jumbo, konfigurasi jaringan VPC yang digunakan oleh instance komputasi Anda; tetapkan unit transmisi maksimum (MTU) ke nilai yang lebih besar, hingga 8896.
Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.
Anda dapat menggunakan bingkai jumbo dengan driver gVNIC versi 1.3 atau yang lebih baru di instance VM, atau dengan driver IDPF di instance bare metal. Tidak semua image publik Google Cloud menyertakan driver ini. Untuk mengetahui informasi selengkapnya tentang dukungan sistem operasi untuk bingkai jumbo, lihat tab Networking features di halaman Operating system details.
Jika menggunakan OS image yang tidak memiliki dukungan penuh untuk bingkai jumbo,
Anda dapat menginstal driver gVNIC versi v1.3.0 atau yang lebih baru secara manual. Google
menyarankan penginstalan versi driver gVNIC yang ditandai Latest
untuk mendapatkan manfaat dari
fitur tambahan dan perbaikan bug. Anda dapat mendownload driver gVNIC dari GitHub.
Untuk mengupdate versi driver gVNIC secara manual di OS tamu, lihat Penggunaan pada sistem operasi yang tidak didukung.
Menerima dan mengirim antrean
Setiap NIC atau vNIC untuk instance komputasi diberi sejumlah antrean terima dan kirim untuk memproses paket dari jaringan.
- Receive Queue (RX): Antrean untuk menerima paket. Saat NIC menerima paket dari jaringan, NIC memilih deskripsi untuk paket masuk dari antrean, memprosesnya, dan menyerahkan paket tersebut ke OS tamu melalui antrean paket yang terpasang ke core vCPU menggunakan interupsi. Jika antrean RX penuh dan tidak ada buffer yang tersedia untuk menempatkan paket, paket akan dihapus. Hal ini biasanya dapat terjadi jika aplikasi terlalu menggunakan core vCPU yang juga terpasang ke antrean paket yang dipilih.
- Transmit Queue (TX): Antrean untuk mengirimkan paket. Saat OS tamu mengirim paket, deskriptor dialokasikan dan ditempatkan dalam antrean TX. NIC kemudian memproses deskripsi dan mengirimkan paket.
Alokasi antrean default
Kecuali jika Anda secara eksplisit menetapkan jumlah antrean untuk NIC, Anda dapat membuat model algoritma yang digunakan Google Cloud untuk menetapkan jumlah antrean RX dan TX tetap per NIC dengan cara berikut:
- Instance bare metal
- Untuk instance bare metal, hanya ada satu NIC, sehingga jumlah antrean maksimum adalah 16.
- Instance VM yang menggunakan antarmuka jaringan gVNIC
Untuk instance C4, guna meningkatkan performa, konfigurasi berikut menggunakan jumlah antrean tetap:
- Untuk instance Linux dengan 2 vCPU, jumlah antrean adalah 1.
- Untuk instance Linux dengan 4 vCPU, jumlah antrean adalah 2.
Untuk seri mesin lainnya, jumlah antrean bergantung pada apakah seri mesin menggunakan Titanium atau tidak.
Untuk instance generasi ketiga (tidak termasuk M3) dan yang lebih baru yang menggunakan Titanium:
Bagi jumlah vCPU dengan jumlah vNIC (
num_vcpus/num_vnics
) dan hapus sisanya.Untuk VM generasi pertama dan kedua yang tidak menggunakan Titanium:
Bagi jumlah vCPU dengan jumlah vNIC, lalu bagi hasilnya dengan 2 (
num_vcpus/num_vnics/2
). Hapus sisanya.
Untuk menyelesaikan penghitungan jumlah antrean default:
Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap vNIC.
Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per vNIC, yaitu
16
. Jika jumlah yang dihitung lebih besar dari16
, abaikan jumlah yang dihitung, dan tetapkan setiap antrean vNIC 16.
- Instance VM yang menggunakan antarmuka jaringan VirtIO atau driver kustom
Bagi jumlah vCPU dengan jumlah vNIC, dan hapus sisanya —
[number of vCPUs/number of vNICs]
.Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap vNIC.
Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per vNIC, yaitu
32
. Jika jumlah yang dihitung lebih besar dari32
, abaikan jumlah yang dihitung, dan tetapkan setiap antrean vNIC 32.
Contoh
Contoh berikut menunjukkan cara menghitung jumlah default antrean untuk instance VM:
Jika instance VM menggunakan VirtIO dan memiliki 16 vCPU dan 4 vNIC, jumlah yang dihitung adalah
[16/4] = 4
. Google Cloud menetapkan empat antrean ke setiap vNIC.Jika instance VM menggunakan gVNIC dan memiliki 128 vCPU dan dua vNIC, jumlah yang dihitung adalah
[128/2/2] = 32
. Google Cloud menetapkan jumlah maksimum antrean per vNIC pada setiap vNIC. Google Cloud menetapkan antrean16
per vNIC.
Pada sistem Linux, Anda dapat menggunakan ethtool
untuk mengonfigurasi vNIC dengan antrean yang lebih sedikit
daripada jumlah antrean yang ditetapkan Google Cloud per vNIC.
Alokasi antrean kustom untuk instance VM
Alih-alih menggunakan alokasi antrean default, Anda dapat menetapkan jumlah antrean kustom (total RX dan TX) ke setiap vNIC saat membuat instance komputasi baru menggunakan Compute Engine API.
Jumlah antrean kustom yang Anda tentukan harus mematuhi aturan berikut:
Jumlah antrean minimum yang dapat Anda tetapkan per vNIC adalah satu.
Jumlah antrean maksimum yang dapat Anda tetapkan ke setiap vNIC instance VM adalah jumlah yang lebih rendah dari jumlah vCPU atau jumlah antrean maksimum per vNIC, berdasarkan jenis driver:
- Menggunakan virtIO atau driver kustom, jumlah antrean maksimum adalah
32
. - Dengan menggunakan gVNIC, jumlah antrean maksimum adalah
16
, kecuali untuk hal berikut, dengan jumlah antrean maksimum 32:- Instance A2 atau G2
- Instance TPU
- Instance C2, C2D, N2, atau N2D dengan jaringan Tingkat_1 diaktifkan
Untuk konfigurasi Confidential VM berikut, jumlah antrean maksimum adalah
8
:- AMD SEV pada jenis mesin C2D dan N2D
- AMD SEV-SNP pada jenis mesin N2D
- Menggunakan virtIO atau driver kustom, jumlah antrean maksimum adalah
Jika Anda menetapkan jumlah antrean kustom ke semua NIC instance komputasi, jumlah penetapan jumlah antrean harus kurang dari atau sama dengan jumlah vCPU yang ditetapkan ke instance.
Anda dapat melebihkan jumlah antrean kustom untuk vNIC. Dengan kata lain, Anda dapat memiliki jumlah total antrean yang ditetapkan ke semua NIC untuk instance VM yang lebih besar dari jumlah vCPU untuk instance Anda. Untuk melebihi jumlah antrean kustom, instance VM harus memenuhi kondisi berikut:
- Gunakan gVNIC sebagai jenis vNIC untuk semua NIC yang dikonfigurasi untuk instance.
- Menggunakan jenis mesin yang mendukung jaringan Tingkat_1.
- Mengaktifkan jaringan Tier_1.
- Menentukan jumlah antrean kustom untuk semua NIC yang dikonfigurasi untuk instance.
Dengan kelebihan langganan antrean, jumlah antrean maksimum untuk instance VM adalah 16 kali jumlah NIC. Jadi, jika Anda memiliki 6 NIC yang dikonfigurasi untuk instance dengan 30 vCPU, Anda dapat mengonfigurasi maksimum (16 * 6), atau 96 antrean kustom untuk instance.
Contoh
Jika instance VM memiliki 8 vCPU dan 3 vNIC, jumlah antrean maksimum untuk instance adalah jumlah vCPU, atau 8. Anda dapat menetapkan 1 antrean ke
nic0
, 4 antrean kenic1
, dan 3 antrean kenic2
. Dalam contoh ini, Anda selanjutnya tidak dapat menetapkan 4 antrean kenic2
sambil menyimpan dua penetapan antrean vNIC lainnya karena jumlah antrean yang ditetapkan tidak boleh melebihi jumlah vCPU.Jika memiliki VM N2 dengan 96 vCPU dan 2 vNIC, Anda dapat menetapkan kedua vNIC hingga 32 antrean masing-masing saat menggunakan driver virtIO, atau hingga 16 antrean masing-masing saat menggunakan driver gVNIC. Jika mengaktifkan jaringan Tingkat_1 untuk VM N2, Anda dapat menetapkan hingga 32 antrean ke setiap vNIC. Dalam contoh ini, jumlah antrean yang ditetapkan selalu kurang dari atau sama dengan jumlah vCPU.
Anda juga dapat menetapkan jumlah antrean kustom untuk hanya beberapa NIC, sehingga Google Cloud dapat menetapkan antrean ke NIC yang tersisa. Jumlah antrean yang dapat Anda tetapkan per vNIC masih tunduk pada aturan yang disebutkan sebelumnya. Anda dapat membuat model kelayakan konfigurasi, dan, jika konfigurasi tersebut memungkinkan, jumlah antrean yang ditetapkan Google Cloud ke vNIC yang tersisa dengan proses ini:
Hitung jumlah antrean untuk vNIC menggunakan penetapan antrean kustom. Untuk contoh VM dengan 20 vCPU dan 6 vNIC, misalnya Anda menetapkan
nic0
5 antrean,nic1
6 antrean,nic2
4 antrean, dan membiarkan Google Cloud menetapkan antrean untuknic3
,nic4
, dannic5
. Dalam contoh ini, jumlah antrean yang ditetapkan secara kustom adalah5+6+4 = 15
.Kurangi jumlah antrean yang ditetapkan secara kustom dengan jumlah vCPU. Jika selisihnya kurang dari jumlah vNIC yang tersisa yang harus ditetapkan antrean oleh Google Cloud, Google Cloud akan menampilkan error karena setiap vNIC harus memiliki setidaknya satu antrean.
Melanjutkan contoh dengan VM yang memiliki 20 vCPU dan jumlah
15
antrean yang ditetapkan secara kustom, Google Cloud memiliki20-15 = 5
antrean tersisa untuk ditetapkan ke vNIC lainnya (nic3
,nic4
,nic5
).Bagi selisih dari langkah sebelumnya dengan jumlah vNIC yang tersisa dan buang sisa —
⌊(number of vCPUs - sum of assigned queues)/(number of remaining vNICs)⌋
. Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan) yang setidaknya sama dengan satu, karena batasan yang dijelaskan di langkah sebelumnya. Google Cloud akan menetapkan jumlah antrean setiap vNIC yang tersisa yang cocok dengan jumlah yang dihitung selama jumlah yang dihitung tidak lebih besar dari jumlah maksimum antrean per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:
- Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih dari
32
, Google Cloud akan menetapkan setiap antrean32
vNIC yang tersisa. - Dengan gVNIC, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih besar dari batas
16
atau32
(bergantung pada konfigurasi VM), Google Cloud akan menetapkan setiap antrean16
vNIC yang tersisa.
Mengonfigurasi jumlah antrean kustom
Untuk membuat instance komputasi yang menggunakan jumlah antrean kustom untuk satu atau beberapa NIC atau vNIC, selesaikan langkah-langkah berikut.
Dalam contoh kode berikut, VM dibuat dengan jenis antarmuka jaringan
ditetapkan ke GVNIC
dan performa jaringan per VM Tier_1 diaktifkan. Anda dapat menggunakan contoh kode ini untuk menentukan jumlah antrean maksimum dan kelebihan langganan antrean yang tersedia untuk jenis mesin yang didukung.
gcloud
- Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin dikonfigurasi, buatlah.
- Gunakan
perintah
gcloud compute instances create
untuk membuat instance komputasi. Ulangi flag--network-interface
untuk setiap vNIC yang ingin Anda konfigurasikan untuk instance, dan sertakan opsiqueue-count
.
gcloud compute instances create INSTANCE_NAME \ --zone=ZONE \ --machine-type=MACHINE_TYPE \ --network-performance-configs=total-egress-bandwidth-tier=TIER_1 \ --network-interface=network=NETWORK_NAME_1,subnet=SUBNET_1,nic-type=GVNIC,queue-count=QUEUE_SIZE_1 \ --network-interface=network=NETWORK_NAME_2,subnet=SUBNET_2,nic-type=GVNIC,queue-count=QUEUE_SIZE_2
Ganti kode berikut:
INSTANCE_NAME
: nama untuk instance komputasi baruZONE
: zona tempat instance dibuatMACHINE_TYPE
: jenis mesin instance. Untuk melakukan kelebihan langganan jumlah antrean, jenis mesin yang Anda tentukan harus mendukung gVNIC dan jaringan Tier_1.NETWORK_NAME
: nama jaringan yang dibuat sebelumnyaSUBNET_*
: nama salah satu subnet yang dibuat sebelumnyaQUEUE_SIZE
: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.
Terraform
- Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin dikonfigurasi, buatlah.
Buat instance komputasi dengan jumlah antrean spesifik untuk vNIC menggunakan resource
google_compute_instance
. Ulangi parameter--network-interface
untuk setiap vNIC yang ingin Anda konfigurasi untuk instance komputasi, dan sertakan parameterqueue-count
.# Queue oversubscription instance resource "google_compute_instance" "VM_NAME" { project = "PROJECT_ID" boot_disk { auto_delete = true device_name = "DEVICE_NAME" initialize_params { image="IMAGE_NAME" size = DISK_SIZE type = "DISK_TYPE" } } machine_type = "MACHINE_TYPE" name = "VM_NAME" zone = "ZONE" network_performance_config { total_egress_bandwidth_tier = "TIER_1" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_1 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_1" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_2 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_2" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_3 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_3"" } network_interface { nic_type = "GVNIC" queue_count = QUEUE_COUNT_4 subnetwork_project = "PROJECT_ID" subnetwork = "SUBNET_4"" } }
Ganti kode berikut:
VM_NAME
: nama untuk instance komputasi baruPROJECT_ID
: ID project tempat instance dibuat. Kecuali jika Anda menggunakan jaringan VPC Bersama, project yang Anda tentukan harus sama dengan project tempat semua subnet dan jaringan dibuat.DEVICE_NAME
: Nama yang akan dikaitkan dengan disk boot di OS tamuIMAGE_NAME
: nama gambar,misalnya,"projects/debian-cloud/global/images/debian-11-bullseye-v20231010"
.DISK_SIZE
: ukuran boot disk, dalam GiBDISK_TYPE
: jenis disk yang akan digunakan untuk boot disk, misalnya,pd-standard
MACHINE_TYPE
: jenis mesin instance. Untuk melakukan kelebihan langganan jumlah antrean, jenis mesin yang Anda tentukan harus mendukung gVNIC dan jaringan Tier_1.ZONE
: zona tempat instance dibuatQUEUE_COUNT
: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.SUBNET_*
: nama subnet yang terhubung ke antarmuka jaringan
REST
- Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin dikonfigurasi, buatlah.
Buat instance komputasi dengan jumlah antrean spesifik untuk NIC menggunakan metode
instances.insert
. Ulangi propertinetworkInterfaces
untuk mengonfigurasi beberapa antarmuka jaringan.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances { "name": "VM_NAME", "machineType": "machineTypes/MACHINE_TYPE", "networkPerformanceConfig": { "totalEgressBandwidthTier": TIER_1 }, "networkInterfaces": [ { "nicType": gVNIC, "subnetwork":"regions/region/subnetworks/SUBNET_1", "queueCount": "QUEUE_COUNT_1" } ], "networkInterfaces": [ { "nicType": gVNIC, "subnetwork":"regions/region/subnetworks/SUBNET_2", "queueCount": "QUEUE_COUNT_2" } ], }
Ganti kode berikut:
PROJECT_ID
: ID project tempat instance komputasi akan dibuatZONE
: zona tempat instance komputasi dibuatVM_NAME
: nama instance komputasi baruMACHINE_TYPE
: jenis mesin, bawaan atau kustom, untuk instance komputasi baru. Untuk melakukan kelebihan langganan jumlah antrean, jenis mesin harus mendukung gVNIC dan jaringan Tingkat_1.SUBNET_*
: nama subnet yang menjadi tujuan koneksi antarmuka jaringanQUEUE_COUNT
: Jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.
Mengantrekan alokasi dan mengubah jenis mesin
Instance Compute dibuat dengan alokasi antrean default, atau Anda dapat menetapkan jumlah antrean kustom untuk setiap kartu antarmuka jaringan virtual (vNIC) saat membuat instance Compute baru menggunakan Compute Engine API. Penetapan antrean vNIC default atau kustom hanya ditetapkan saat membuat instance komputasi. Jika instance Anda memiliki vNIC yang menggunakan jumlah antrean default, Anda dapat mengubah jenis mesinnya. Jika jenis mesin yang Anda ganti memiliki jumlah vCPU yang berbeda, jumlah antrean default untuk instance Anda akan dihitung ulang berdasarkan jenis mesin baru.
Jika VM Anda memiliki vNIC yang menggunakan jumlah antrean non-default kustom, Anda dapat mengubah jenis mesin menggunakan Google Cloud CLI atau Compute Engine API untuk mengupdate properti instance. Konversi berhasil jika VM yang dihasilkan mendukung jumlah antrean yang sama per vNIC dengan instance asli. Untuk VM yang menggunakan antarmuka VirtIO-Net dan memiliki jumlah antrean kustom lebih dari 16 per vNIC, Anda tidak dapat mengubah jenis mesin menjadi jenis mesin generasi ketiga atau yang lebih baru, karena VM tersebut hanya menggunakan gVNIC. Sebagai gantinya, Anda dapat memigrasikan VM ke jenis mesin generasi ketiga atau yang lebih baru dengan mengikuti petunjuk di bagian Memindahkan workload ke instance komputasi baru.
Langkah selanjutnya
- Pelajari jenis mesin lebih lanjut.
- Pelajari Instance virtual machine lebih lanjut.
- Buat dan mulai instance VM.
- Mengonfigurasi performa jaringan Tingkat_1 per VM untuk instance komputasi.
- Selesaikan tutorial memulai cepat Membuat instance VM Linux di Compute Engine.
- Selesaikan tutorial memulai cepat Membuat instance VM Windows Server di Compute Engine.