Bandwidth jaringan


Google Cloud memperhitungkan bandwidth per instance virtual machine (VM), bukan per virtual network interface (vNIC) atau alamat IP. Jenis mesin VM menentukan rasio traffic keluar maksimum yang memungkinkan; tetapi, Anda hanya dapat mencapai tingkat traffic keluar maksimum yang dimungkinkan dalam situasi tertentu.

Halaman ini menguraikan ekspektasi, yang berguna saat merencanakan deployment Anda. Halaman ini mengategorikan bandwidth menggunakan dua dimensi:

  • Traffic keluar atau masuk: Seperti yang digunakan pada halaman ini, traffic keluar dan masuk selalu dari perspektif VM Google Cloud:
    • Paket yang dikirim dari VM Google Cloud menyusun traffic egress (keluarnya).
    • Paket yang dikirim ke VM Google Cloud menyusun traffic ingress (masuknya).
  • Cara paket dirutekan: Paket dapat dirutekan dari VM pengirim atau ke VM penerima menggunakan rute yang next hop-nya berada dalam jaringan VPC atau rute di luar jaringan VPC.

Baik antarmuka jaringan virtual (vNIC) tambahan maupun alamat IP tambahan per vNIC tidak meningkatkan bandwidth masuk atau keluar untuk VM. Misalnya, VM C3 dengan 22 vCPU dibatasi hingga total bandwidth traffic keluar 23 Gbps. Jika Anda mengonfigurasi VM C3 dengan dua vNIC, VM masih dibatasi dengan total bandwidth keluar sebesar 23 Gbps, bukan bandwidth 23 Gbps per vNIC.

Semua informasi di halaman ini berlaku untuk VM Compute Engine, serta produk yang bergantung pada VM Compute Engine. Misalnya, node Google Kubernetes Engine adalah VM Compute Engine.

Ringkasan bandwidth

Tabel berikut menggambarkan ekspektasi bandwidth berdasarkan apakah paket dikirim dari (egress) atau diterima oleh (ingress) VM dan metode perutean paket.

Traffic Keluar

Ekspektasi bandwidth
Memilih rute dalam jaringan VPC
  • Ditentukan oleh bandwidth traffic keluar maksimum per VM berdasarkan jenis mesin VM yang mengirim dan apakah jaringan Tier_1 diaktifkan atau tidak.

    • VM N2, N2D, C2, dan C2D dengan batas bandwidth traffic keluar dukungan jaringan Tier_1 hingga 100 Gbps.
    • VM H3 mendukung batas bandwidth traffic keluar VM-ke-VM hingga 200 Gbps.
    • VM A2 dan G2 mendukung batas bandwidth keluar hingga 100 Gbps.
    • VM A3 mendukung batas bandwidth keluar hingga 1.000 Gbps.
    • VM C3, C3D, dan Z3 mendukung batas bandwidth traffic keluar hingga 200 Gbps dengan jaringan Tier_1.
  • Untuk mengetahui faktor, definisi, dan skenario lainnya, baca artikel Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
Memilih rute di luar jaringan VPC
  • Ditentukan oleh bandwidth keluar maksimum per VM berdasarkan jenis mesin VM yang mengirim dan apakah jaringan Tier_1 diaktifkan atau tidak. Kecuali untuk VM H3, traffic keluar maksimum VM yang mengirim ke tujuan di luar jaringan VPC-nya tidak boleh melebihi batas berikut:

    • Total 7 Gbps jika jaringan Tier_1 tidak diaktifkan
    • Total 25 Gbps saat jaringan Tier_1 diaktifkan
    • 3 Gbps per aliran
  • Untuk faktor, definisi, dan peringatan lainnya, lihat Traffic keluar ke tujuan di luar jaringan VPC.

Masuk

Ekspektasi bandwidth
Memilih rute dalam jaringan VPC
  • Umumnya, tingkat traffic masuk mirip dengan tarif keluar untuk suatu jenis mesin.
  • Ukuran VM Anda, kapasitas NIC server, traffic yang masuk ke VM tamu lain yang berjalan pada hardware host yang sama, konfigurasi jaringan OS tamu, dan jumlah pembacaan disk yang dilakukan oleh VM Anda dapat memengaruhi tingkat ingress.
  • Google Cloud tidak memberlakukan batasan tambahan pada rasio masuk dalam jaringan VPC.
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC.
Memilih rute di luar jaringan VPC
  • Google Cloud melindungi setiap VM dengan membatasi traffic masuk yang dirutekan di luar jaringan VPC. Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

    • 1.800.000 pps (paket per detik)
    • 30 Gbps
  • Untuk seri mesin yang mendukung beberapa NIC fisik seperti A3, batasnya adalah yang pertama dari tarif berikut yang ditemui:
    • 1.800.000 pps (paket per detik) per NIC fisik
    • 30 Gbps per NIC fisik
  • Untuk faktor, definisi, dan skenario lainnya, lihat Masuk ke tujuan di luar jaringan VPC.

Bandwidth keluar

Google Cloud membatasi bandwidth keluar (egress) menggunakan tingkat traffic keluar maksimum per VM berdasarkan jenis mesin VM yang mengirim paket dan apakah tujuan paket dapat diakses menggunakan rute dalam jaringan VPC atau rute di luar jaringan VPC. Bandwidth keluar mencakup paket yang dikeluarkan oleh semua NIC VM dan data yang ditransfer ke semua persistent disk yang terhubung ke VM.

Bandwidth traffic keluar maksimum per VM

Bandwidth traffic keluar maksimum per VM umumnya adalah 2 Gbps per vCPU, tetapi ada beberapa perbedaan dan pengecualian, bergantung pada seri mesin. Tabel berikut menunjukkan rentang batas maksimum bandwidth keluar untuk traffic yang dirutekan dalam jaringan VPC hanya untuk paket jaringan standar, bukan performa jaringan per Tier_1 VM.

Seri mesin Batas traffic keluar maksimum per VM yang terendah tanpa jaringan Tier_1 Batas traffic keluar maksimum per VM tertinggi tanpa jaringan Tier_1
E2 1 Gbps 16 Gbps
C3 23 Gbps 100 Gbps
C3D 20 Gbps 100 Gbps
T2D 10 Gbps 32 Gbps
N2, C2, N2D, dan C2D 10 Gbps 32 Gbps
N4 10 Gbps 50 Gbps
H3 T/A 200 Gbps
Z3 23 Gbps 100 Gbps
N1 (tidak termasuk VM dengan 1 vCPU) 10 Gbps 32 Gbps di platform CPU Intel Skylake
16 Gbps di platform CPU yang lebih lama dari Intel Skylake
Jenis mesin N1 dengan 1 vCPU, f1-micro, dan g1-small 2 Gbps 2 Gbps
A3, A2, dan G2 T/A Berdasarkan jenis GPU

Anda dapat menemukan bandwidth traffic keluar maksimum per VM untuk setiap jenis mesin yang tercantum pada halaman kelompok mesin spesifiknya:

Bandwidth traffic keluar maksimum per VM tidak dijamin. Bandwidth traffic keluar yang sebenarnya dapat diturunkan sesuai dengan faktor-faktor seperti daftar tidak lengkap berikut:

  • Driver Ethernet Tamu—gVNIC menawarkan performa yang lebih baik daripada antarmuka jaringan VirtIO
  • Ukuran paket
  • Overhead protokol
  • Jumlah alur
  • Setelan driver Ethernet pada OS tamu VM, seperti pengurangan beban checksum dan pengurangan beban segmentasi TCP (TSO)
  • Kemacetan jaringan
  • Jika persistent disk bersaing dengan traffic keluar jaringan lain, 60% dari bandwidth jaringan maksimum diberikan ke operasi tulis Persistent Disk, dan tersisa 40% untuk traffic keluar jaringan lain. Lihat Faktor yang memengaruhi performa disk dalam dokumentasi Persistent Disk untuk mengetahui detail selengkapnya.

Untuk mendapatkan bandwidth traffic keluar maksimum per VM sebesar mungkin:

  • Aktifkan performa jaringan per VM Tier_1 dengan jenis mesin yang dioptimalkan untuk komputasi dan tujuan umum yang lebih besar.
  • Gunakan unit transmisi maksimum (MTU) jaringan VPC terbesar yang didukung oleh topologi jaringan Anda. MTU yang lebih besar dapat mengurangi overhead header paket dan meningkatkan throughput data payload.

Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC

Dari perspektif VM pengirim dan untuk alamat IP tujuan yang dapat diakses dengan menggunakan rute dalam jaringan VPC, Google Cloud membatasi traffic keluar menggunakan aturan ini:

  • Bandwidth keluar maksimum per VM: Bandwidth keluar maksimum per VM yang dijelaskan di bagian Bandwidth keluar maksimum per VM.
  • Bandwidth traffic keluar antar-regional per project: Jika VM pengirim dan tujuan internal atau next hop berada di region berbeda, Google Cloud menerapkan batas bandwidth traffic keluar antar-regional maksimum. Sebagian besar pelanggan cenderung tidak mencapai batas ini. Untuk pertanyaan tentang batasan ini, ajukan kasus dukungan.
  • Batas Cloud VPN dan Cloud Interconnect: Saat mengirim traffic dari VM ke tujuan alamat IP internal yang dapat dirutekan oleh tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect, bandwidth keluar dibatasi oleh:

Tujuan yang dapat dirutekan dalam jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses dari perspektif VM pengirim dengan rute yang next hop-nya bukan gateway internet default:

  • Alamat IPv4 internal regional di rentang alamat IPv4 sekunder subnet dan IPv4 primer subnet, termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
    • Alamat IPv4 internal utama antarmuka jaringan (vNIC) VM penerima. (Saat VM pengirim terhubung ke alamat IPv4 eksternal vNIC lain, paket dirutekan menggunakan gateway internet default next hop, sehingga Traffic keluar ke tujuan di luar jaringan VPC akan diterapkan.)
    • Alamat IPv4 internal dalam rentang IP alias dari vNIC VM penerima.
    • Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Alamat IPv4 internal global untuk resource tujuan berikut:
  • Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke dual-stack yang menerima vNIC VM.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC atau dengan rute kustom dalam jaringan VPC yang tidak menggunakan next hop gateway internet default:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke dual-stack yang menerima vNIC VM.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.
  • Tujuan lain yang dapat diakses menggunakan rute jaringan VPC berikut:

Daftar berikut mengurutkan traffic dari VM penerima ke tujuan internal, dari bandwidth yang setinggi mungkin hingga yang terendah:

Traffic keluar ke tujuan di luar jaringan VPC

Dari perspektif VM pengirim dan untuk alamat IP tujuan di luar jaringan VPC, Google Cloud membatasi traffic keluar ke rasio berikut yang tercapai lebih dahulu:

  • Bandwidth traffic keluar per VM: Bandwidth maksimum untuk semua koneksi dari VM ke tujuan di luar jaringan VPC adalah lebih kecil Bandwidth traffic keluar maksimum per VM dan salah satu tarifnya:

    • 25 Gbps, jika jaringan Tier_1 diaktifkan
    • 7 Gbps, jika jaringan Tier_1 tidak diaktifkan
    • 1 Gbps untuk VM H3
    • 7 Gbps per NIC fisik untuk seri mesin yang mendukung beberapa NIC fisik seperti A3.

    Misalnya, meskipun instance n2-standard-16 memiliki bandwidth keluar maksimum per VM sebesar 32 Gbps, bandwidth keluar per VM dari instance n2-standard-16 ke tujuan eksternal adalah 25 Gbps atau 7 Gbps, tergantung pada apakah jaringan Tier_1 diaktifkan.

  • Rasio traffic keluar maksimum per alur: Bandwidth maksimum untuk setiap koneksi 5 tuple unik, dari VM ke tujuan di luar jaringan VPC adalah 3 Gbps, kecuali pada H3, di mana adalah 1 Gbps.

  • Bandwidth keluar internet per project: Bandwidth maksimum untuk semua koneksi dari VM di setiap region project ke tujuan di luar jaringan VPC ditentukan oleh kuota Bandwidth keluar internet project.

Tujuan di luar jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses melalui rute dalam jaringan VPC VM pengirim yang next hop-nya adalah gateway internet default:

  • Alamat IPv4 dan IPv6 eksternal global untuk Load Balancer Jaringan proxy eksternal dan Load Balancer Aplikasi eksternal
  • Alamat IPv4 eksternal regional untuk resource Google Cloud, termasuk alamat IPv4 eksternal vNIC VM, alamat IPv4 eksternal untuk penerusan protokol eksternal, Load Balancer Jaringan passthrough eksternal, dan paket respons ke gateway Cloud NAT.
  • Alamat IPv6 eksternal regional di subnet dual-stack dengan rentang alamat IPv6 eksternal yang digunakan oleh alamat IPv6 eksternal VM dual-stack, penerusan protokol eksternal, dan Load Balancer Jaringan passthrough eksternal, asalkan subnet tersebut berada di jaringan VPC yang tidak di-peering dan terpisah, serta rentang alamat IPv6 tujuan dapat diakses menggunakan rute di jaringan VPC VM pengirim yang selanjutnya hop-nya adalah internet default. Jika subnet dual-stack dengan rentang alamat IPv6 eksternal terletak di jaringan VPC yang sama atau di jaringan VPC yang di-peering, lihat artikel Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
  • Tujuan eksternal lainnya yang dapat diakses menggunakan rute statis di jaringan VPC VM pengirim asalkan next hop-nya untuk rute tersebut adalah gateway internet default.

Untuk mengetahui detail tentang resource Google Cloud yang menggunakan jenis alamat IP eksternal, lihat Alamat IP eksternal.

Bandwidth masuk

Google Cloud menangani bandwidth masuk (ingress) bergantung pada cara paket masuk dirutekan ke VM penerima.

Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC

VM penerima dapat menangani paket masuk sebanyak jenis mesin, sistem operasi, dan kondisi jaringan lainnya yang diizinkan. Google Cloud tidak menerapkan pembatasan bandwidth yang disengaja pada paket masuk yang dikirim ke VM jika paket masuk dikirimkan menggunakan rute dalam jaringan VPC:

  • Rute subnet di jaringan VPC VM penerima
  • Rute subnet peering di jaringan VPC yang di-peering
  • Rute di jaringan lain yang next hop-nya adalah tunnel Cloud VPN, lampiran Cloud Interconnect (VLAN), atau VM peralatan Router yang terletak di jaringan VPC VM penerima

Tujuan untuk paket yang dirutekan dalam jaringan VPC meliputi:

  • Alamat IPv4 internal utama antarmuka jaringan VM penerima (vNIC). Alamat IPv4 internal utama adalah alamat IPv4 internal regional yang berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv4 internal dari rentang IP alias vNIC VM penerima. Rentang IP alias dapat berasal dari rentang alamat IPv4 utama subnet atau salah satu rentang alamat IPv4 sekundernya.
  • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke dual-stack yang menerima vNIC VM. Rentang IPv6 VM dapat berasal dari rentang subnet IPv6 berikut:
  • Alamat IPv4 internal dari aturan penerusan yang digunakan oleh protokol internal yang diteruskan ke VM penerima atau Load Balancer Jaringan passthrough internal, di mana VM penerima merupakan backend load balancer. Alamat IPv4 aturan penerusan internal berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv6 internal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol internal ke VM penerima atau Load Balancer Jaringan passthrough internal, dengan VM penerima adalah backend dari load balancer. Alamat IPv6 aturan penerusan internal berasal dari rentang alamat IPv6 internal subnet.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke VM penerima atau Load Balancer Jaringan passthrough eksternal, dengan VM penerima adalah backend dari load balancer saat paket yang masuk dirutekan dalam jaringan VPC menggunakan salah satu rute yang tercantum sebelumnya di bagian ini. Alamat IPv6 aturan penerusan eksternal berasal dari rentang alamat IPv6 eksternal subnet.
  • Alamat IP dalam rentang tujuan rute statis kustom yang menggunakan VM penerima sebagai VM next hop (next-hop-instance atau next-hop-address).
  • Alamat IP dalam rentang tujuan rute statis kustom menggunakan next hop Load Balancer Jaringan passthrough internal (next-hop-ilb), jika VM penerima adalah backend untuk load balancer tersebut.

Traffic masuk ke tujuan di luar jaringan VPC

Google Cloud menerapkan batas bandwidth berikut untuk paket masuk yang dikirim ke VM penerima menggunakan rute di luar jaringan VPC. Jika load balancing digunakan, batas bandwidth akan diterapkan satu per satu ke setiap VM penerima.

Untuk rangkaian mesin yang tidak mendukung beberapa NIC fisik, pembatasan bandwidth masuk yang berlaku berlaku secara kolektif untuk semua NIC virtual. Batasnya adalah tarif pertama yang ditemukan:

  • 1.800.000 paket per detik
  • 30 Gbps

Untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3, batasan bandwidth masuk yang berlaku berlaku untuk setiap NIC fisik. Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

  • 1.800.000 paket per detik per NIC fisik
  • 30 Gbps per NIC fisik

Tujuan untuk paket yang dirutekan menggunakan rute di luar jaringan VPC meliputi:

  • Alamat IPv4 eksternal yang ditetapkan dalam konfigurasi akses NAT one-to-one pada salah satu antarmuka jaringan (NIC) VM penerima.
  • Alamat IPv6 eksternal dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC dari VM penerima dual-stack saat paket masuk diarahkan menggunakan rute di luar jaringan VPC VM penerima.
  • Alamat IPv4 eksternal dari aturan penerusan yang digunakan oleh protokol eksternal yang diteruskan ke VM penerima atau Load Balancer Jaringan passthrough eksternal, tempat VM penerima merupakan backend load balancer.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke VM penerima atau Load Balancer Jaringan passthrough eksternal, dengan VM penerima adalah backend dari load balancer saat paket yang masuk dirutekan menggunakan rute di luar jaringan VPC.
  • Respons masuk yang ditetapkan yang diproses oleh Cloud NAT

Bingkai Jumbo

Untuk menerima dan mengirim bingkai jumbo, konfigurasi jaringan VPC yang digunakan oleh VM Anda; tetapkan unit transmisi maksimum (MTU) ke nilai yang lebih besar, hingga 8896.

Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.

Untuk menggunakan bingkai jumbo dengan driver gVNIC, Anda harus menggunakan driver versi 1.3 atau yang lebih baru. Tidak semua image publik Google Cloud menyertakan versi driver ini. Untuk mengetahui informasi selengkapnya tentang dukungan sistem operasi untuk bingkai jumbo, lihat tab Networking features di halaman Operating system details. Versi image yang menunjukkan dukungan penuh untuk bingkai jumbo mencakup driver gVNIC yang telah diupdate, meskipun OS tamu menampilkan versi driver gve sebagai 1.0.0.

Jika menggunakan OS image yang tidak memiliki dukungan penuh untuk bingkai jumbo, Anda dapat menginstal driver gVNIC versi v1.3.0 atau yang lebih baru secara manual. Google menyarankan penginstalan versi driver gVNIC yang ditandai Latest untuk mendapatkan manfaat dari fitur tambahan dan perbaikan bug. Anda dapat mendownload driver gVNIC dari GitHub.

Untuk mengupdate versi driver gVNIC secara manual di OS tamu, lihat Penggunaan pada sistem operasi yang tidak didukung.

Menerima dan mengirim antrean

Setiap vNIC VM diberi sejumlah antrean penerimaan dan transmisi untuk memproses paket dari jaringan.

  • Receive Queue (RX): Antrean untuk menerima paket. Saat vNIC menerima paket dari jaringan, vNIC memilih deskriptor untuk paket yang masuk dari antrean, memprosesnya, dan menyerahkan paket tersebut ke OS tamu melalui antrean paket yang terpasang ke inti vCPU menggunakan interupsi. Jika antrean RX penuh dan tidak ada buffer yang tersedia untuk menempatkan paket, paket akan dihapus. Hal ini biasanya dapat terjadi jika aplikasi terlalu menggunakan core vCPU yang juga terpasang ke antrean paket yang dipilih.
  • Transmit Queue (TX): Antrean untuk mengirimkan paket. Saat OS tamu mengirim paket, deskriptor dialokasikan dan ditempatkan dalam antrean TX. vNIC kemudian memproses deskripsi dan mengirimkan paket itu.

Alokasi antrean default

Kecuali jika Anda menetapkan jumlah antrean untuk NIC secara eksplisit, Anda dapat membuat model algoritma yang digunakan Google Cloud untuk menetapkan jumlah antrean RX dan TX per vNIC dengan cara berikut:

  1. Gunakan salah satu metode berikut, bergantung pada jenis antarmuka jaringan Anda:

    • VirtIO: Bagi jumlah vCPU dengan jumlah NIC, lalu hapus sisanya —[number of vCPUs/number of NICs].
    • gVNIC: Bagi jumlah vCPU dengan jumlah NIC, lalu bagi hasilnya dengan 2 dan hapus sisanya — [number of vCPUs/number of NICs/2].

    Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan).

  2. Jika jumlah yang dihitung kurang dari 1, tetapkan setiap vNIC satu antrean.

  3. Menentukan apakah jumlah yang dihitung lebih besar dari jumlah antrean maksimum per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:

    • Dengan menggunakan virtIO atau driver kustom, jumlah maksimum antrean per vNIC adalah 32. Jika jumlah yang dihitung lebih besar dari 32, abaikan angka yang dihitung, dan tetapkan setiap antrean vNIC 32.
    • Dengan menggunakan gVNIC, jumlah maksimum antrean per vNIC adalah 16. Jika jumlah yang dihitung lebih besar dari 16, abaikan jumlah yang dihitung, dan tetapkan setiap antrean vNIC 16.

Contoh berikut menunjukkan cara menghitung jumlah default antrean:

  • Jika VM menggunakan VirtIO dan memiliki 16 vCPU dan 4 NIC, jumlah yang dihitung adalah [16/4] = 4. Google Cloud menetapkan empat antrean untuk setiap vNIC.

  • Jika VM menggunakan gVNIC dan memiliki 128 vCPU dan dua NIC, jumlah yang dihitung adalah [128/2/2] = 32. Google Cloud menetapkan jumlah antrean maksimum per vNIC ke setiap vNIC. Google Cloud menetapkan antrean 16 per vNIC.

Pada sistem Linux, Anda dapat menggunakan ethtool untuk mengonfigurasi vNIC dengan antrean yang lebih sedikit daripada jumlah antrean yang ditetapkan Google Cloud per vNIC.

Alokasi antrean kustom

Selain Alokasi antrean default, Anda dapat menetapkan jumlah antrean kustom (total RX dan TX) ke setiap vNIC saat membuat VM baru menggunakan Compute Engine API.

Jumlah antrean kustom yang Anda tentukan harus mematuhi aturan berikut:

  • Jumlah antrean minimum yang dapat Anda tetapkan per vNIC adalah satu.

  • Jumlah antrean maksimum yang dapat Anda tetapkan ke setiap vNIC adalah jumlah yang lebih rendah dari jumlah vCPU atau jumlah antrean maksimum per vNIC, berdasarkan jenis driver:

    • Menggunakan virtIO atau driver kustom, jumlah antrean maksimum adalah 32.
    • Dengan menggunakan gVNIC, jumlah antrean maksimum adalah 16.
  • Jika Anda menetapkan jumlah antrean kustom ke semua NIC VM, jumlah penetapan perhitungan antrean harus kurang dari atau sama dengan jumlah vCPU yang ditetapkan ke instance VM.

Anda dapat membuat kelebihan jumlah antrean khusus untuk NIC Anda. Dengan kata lain, Anda dapat memiliki jumlah antrean yang ditetapkan ke semua NIC untuk VM yang lebih besar dari jumlah vCPU untuk VM Anda. Untuk membuat jumlah antrean kustom menjadi berlebih, Anda harus memenuhi ketentuan berikut:

  • Anda menggunakan gVNIC sebagai jenis vNIC untuk semua NIC yang dikonfigurasi untuk VM.
  • VM Anda menggunakan jenis mesin dari seri mesin N2, N2D, C2 dan C2D.
  • Anda telah mengaktifkan jaringan Tingkat_1 untuk VM.
  • Anda menentukan jumlah antrean khusus untuk semua NIC yang dikonfigurasi untuk VM.

Dengan langganan berlebih antrean, jumlah antrean maksimum untuk VM adalah 16 kali lipat jumlah NIC. Jadi, jika memiliki 6 NIC yang dikonfigurasi untuk VM dengan 30 vCPU, Anda dapat mengonfigurasi maksimum (16 * 6), atau 96 antrean kustom untuk VM Anda.

Contoh

  • Jika VM memiliki 8 vCPU dan 3 NIC, jumlah antrean maksimum untuk VM adalah jumlah vCPU, atau 8. Anda dapat menetapkan 1 antrean ke nic0, 4 antrean ke nic1, dan 3 antrean ke nic2. Dalam contoh ini, Anda selanjutnya tidak dapat menetapkan 4 antrean ke nic2 sambil menyimpan dua penetapan antrean vNIC lainnya karena jumlah antrean yang ditetapkan tidak boleh melebihi jumlah vCPU (8).

  • Jika VM memiliki 96 vCPU dan 2 NIC, Anda dapat menetapkan kedua NIC hingga 32 antrean masing-masing saat menggunakan driver virtIO, atau hingga 16 antrean masing-masing saat menggunakan driver gVNIC. Dalam contoh ini, jumlah antrean yang ditetapkan selalu kurang dari jumlah vCPU.

Anda juga dapat menetapkan jumlah antrean kustom untuk hanya beberapa NIC, sehingga Google Cloud dapat menetapkan antrean ke NIC yang tersisa. Jumlah antrean yang dapat Anda tetapkan per vNIC masih tunduk pada aturan yang disebutkan sebelumnya. Anda dapat membuat model kelayakan konfigurasi, dan, jika konfigurasi memungkinkan, jumlah antrean yang ditetapkan Google Cloud ke NIC yang tersisa dengan proses ini:

  1. Hitung jumlah antrean untuk NIC menggunakan penetapan antrean kustom. Untuk contoh VM dengan 20 vCPU dan 6 NIC, misalnya Anda menetapkan nic0 5 antrean, nic1 6 antrean, nic2 4 antrean, dan membiarkan Google Cloud menetapkan antrean untuk nic3, nic4, dan nic5. Dalam contoh ini, jumlah antrean yang ditetapkan secara kustom adalah 5+6+4 = 15.

  2. Kurangi jumlah antrean yang ditetapkan secara kustom dengan jumlah vCPU. Jika selisihnya tidak setidaknya sama dengan jumlah NIC yang tersisa yang harus ditetapkan antrean oleh Google Cloud, Google Cloud akan menampilkan error. Melanjutkan contoh VM yang terdiri dari 20 vCPU dan jumlah 15 antrean yang ditetapkan secara kustom, Google Cloud memiliki 20-15 = 5 antrean tersisa untuk ditetapkan ke NIC lainnya (nic3, nic4, nic5).

  3. Bagi selisih dari langkah sebelumnya dengan jumlah NIC yang tersisa dan buang sisa —⌊(number of vCPUs - sum of assigned queues)/(number of remaining NICs)⌋. Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan) yang setidaknya sama dengan satu, karena batasan yang dijelaskan di langkah sebelumnya. Google Cloud menetapkan jumlah antrean untuk setiap NIC lainnya yang cocok dengan jumlah yang dihitung, selama jumlah yang dihitung tidak lebih besar dari jumlah maksimum antrean per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:

    • Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih besar dari 32, Google Cloud akan menetapkan setiap antrean 32 vNIC yang tersisa.
    • Dengan gVNIC, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih besar dari 16, Google Cloud akan menetapkan setiap antrean 16 vNIC yang tersisa.

Mengonfigurasi jumlah antrean kustom

Untuk membuat VM yang menggunakan jumlah antrean kustom untuk satu atau beberapa vNIC, selesaikan langkah-langkah berikut.

gcloud

  1. Jika Anda belum memiliki jaringan VPC dengan satu subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buatlah.
  2. Gunakan perintah gcloud compute instances create untuk membuat VM. Ulangi flag --network-interface untuk setiap vNIC yang ingin Anda konfigurasi untuk VM, dan sertakan opsi queue-count.
    gcloud compute instances create VM_NAME \
        --zone=ZONE \
        --machine-type=MACHINE_TYPE \
        --network-performance-configs=total-egress-bandwidth-tier=TIER_1  \
        --network-interface=network=NETWORK_NAME_1,subnet=SUBNET_1,nic-type=GVNIC,queue-count=QUEUE_SIZE_1 \
        --network-interface=network=NETWORK_NAME_2,subnet=SUBNET_2,nic-type=GVNIC,queue-count=QUEUE_SIZE_2

Ganti kode berikut:

  • VM_NAME: name untuk VM baru
  • ZONE: zona untuk membuat VM
  • MACHINE_TYPE: jenis mesin VM. Jenis mesin yang Anda tentukan harus mendukung jaringan gVNIC dan Tier_1.
  • NETWORK_NAME: nama jaringan yang dibuat sebelumnya
  • SUBNET_*: nama salah satu subnet yang dibuat sebelumnya
  • QUEUE_SIZE: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.

Terraform

  1. Jika Anda belum memiliki jaringan VPC dengan satu subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buatlah.
  2. Buat VM dengan jumlah antrean tertentu untuk vNIC menggunakan resource google_compute_instance. Ulangi parameter --network-interface untuk setiap vNIC yang ingin Anda konfigurasi untuk VM, dan sertakan parameter queue-count.

    # Queue oversubscription instance
    resource "google_compute_instance" "VM_NAME" {
    project      = "PROJECT_ID"
    boot_disk {
      auto_delete = true
      device_name = "DEVICE_NAME"
      initialize_params {
         image="IMAGE_NAME"
         size = DISK_SIZE
         type = "DISK_TYPE"
      }
    }
    machine_type = "MACHINE_TYPE"
    name         = "VM_NAME"
    zone = "ZONE"
    
    network_performance_config {
        total_egress_bandwidth_tier = "TIER_1"
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_1
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_1"
     }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_2
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_2"
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_3
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_3""
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_4
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_4""
    }
    
    }
    
    

Ganti kode berikut:

  • VM_NAME: name untuk VM baru
  • PROJECT_ID: ID project untuk membuat VM. Kecuali jika Anda menggunakan jaringan VPC Bersama, project yang Anda tentukan harus sama dengan project tempat semua subnet dan jaringan dibuat.
  • DEVICE_NAME: Nama yang akan dikaitkan dengan boot disk di OS tamu
  • IMAGE_NAME: nama gambar,misalnya, "projects/debian-cloud/global/images/debian-11-bullseye-v20231010".
  • DISK_SIZE: ukuran boot disk, dalam GiB
  • DISK_TYPE: jenis disk yang akan digunakan untuk disk booting, misalnya, pd-standard
  • MACHINE_TYPE: jenis mesin VM. Jenis mesin yang Anda tentukan harus mendukung jaringan gVNIC dan Tier_1.
  • ZONE: zona untuk membuat VM
  • QUEUE_COUNT: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.
  • SUBNET_*: nama subnet yang terhubung ke antarmuka jaringan

REST

  1. Jika Anda belum memiliki jaringan VPC dengan satu subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buatlah.
  2. Buat VM dengan jumlah antrean tertentu untuk NIC menggunakan metode instances.insert. Ulangi properti networkInterfaces untuk mengonfigurasi beberapa antarmuka jaringan.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances
    {
    "name": "VM_NAME",
    "machineType": "machineTypes/MACHINE_TYPE",
    "networkPerformanceConfig": {
        "totalEgressBandwidthTier": TIER_1
    },
    "networkInterfaces": [
        {
          "nicType": gVNIC,
          "subnetwork":"regions/region/subnetworks/SUBNET_1",
          "queueCount": "QUEUE_COUNT_1"
        } ],
    "networkInterfaces": [
        {
          "nicType": gVNIC,
          "subnetwork":"regions/region/subnetworks/SUBNET_2",
          "queueCount": "QUEUE_COUNT_2"
        } ],
    }
    

    Ganti kode berikut:

    • PROJECT_ID: ID project untuk membuat VM di
    • ZONE: zona tempat pembuatan VM
    • VM_NAME: nama VM yang baru
    • MACHINE_TYPE: jenis mesin, bawaan atau kustom, untuk VM baru
    • SUBNET_*: nama subnet yang terhubung ke antarmuka jaringan
    • QUEUE_COUNT: Jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.

Mengantrekan alokasi dan mengubah jenis mesin

VM dibuat dengan alokasi antrean default, atau Anda dapat menetapkan jumlah antrean kustom untuk setiap kartu antarmuka jaringan virtual (vNIC) saat membuat VM baru dengan menggunakan Compute Engine API. Penetapan antrean vNIC default atau kustom hanya ditetapkan saat membuat VM. Jika VM memiliki vNIC yang menggunakan jumlah antrean default, Anda dapat mengubah jenis mesinnya. Jika jenis mesin yang Anda ganti memiliki jumlah vCPU yang berbeda, jumlah antrean default untuk VM Anda akan dihitung ulang berdasarkan jenis mesin baru.

Jika VM Anda memiliki vNIC yang menggunakan jumlah antrean non-default kustom, Anda dapat mengubah jenis mesin dengan menggunakan Google Cloud CLI atau Compute Engine API untuk mengupdate properti instance. Konversi berhasil jika VM yang dihasilkan mendukung jumlah antrean yang sama per vNIC dengan VM asli. Untuk VM yang menggunakan antarmuka VirtIO-Net dan memiliki jumlah antrean kustom lebih dari 16 per vNIC, Anda tidak dapat mengubah jenis mesin menjadi jenis mesin generasi ketiga yang hanya menggunakan gVNIC. Sebagai gantinya, Anda dapat memigrasikan VM ke jenis mesin generasi ketiga dengan mengikuti petunjuk di Memigrasikan workload dari VM yang ada ke VM baru.

Langkah selanjutnya