Bandwidth jaringan


Google Cloud memperhitungkan bandwidth per instance komputasi, bukan per antarmuka jaringan virtual (vNIC) atau alamat IP. Jenis mesin instance menentukan rasio traffic keluar maksimum yang memungkinkan; tetapi, Anda hanya dapat mencapai tingkat traffic keluar maksimum yang dimungkinkan dalam situasi tertentu.

Halaman ini menguraikan ekspektasi, yang berguna saat merencanakan deployment Anda. Halaman ini mengategorikan bandwidth menggunakan dua dimensi:

  • Traffic keluar atau masuk: Seperti yang digunakan pada halaman ini, traffic keluar dan masuk selalu dari perspektif instance Google Cloud:
    • Paket yang dikirim dari instance Google Cloud menyusun traffic egress (keluarnya).
    • Paket yang dikirim ke instance Google Cloud menyusun traffic ingress (masuknya).
  • Cara paket dirutekan: Paket dapat dirutekan dari instance pengirim atau ke instance penerima menggunakan rute yang next hop-nya berada dalam jaringan VPC atau rute di luar jaringan VPC.

Baik antarmuka jaringan virtual (vNIC) tambahan maupun alamat IP tambahan per vNIC tidak akan meningkatkan bandwidth masuk atau keluar untuk instance komputasi. Misalnya, VM C3 dengan 22 vCPU dibatasi hingga total bandwidth keluar 23 Gbps. Jika Anda mengonfigurasi VM C3 dengan dua vNIC, VM masih dibatasi hingga total bandwidth keluar 23 Gbps, bukan bandwidth 23 Gbps per vNIC.

Semua informasi di halaman ini berlaku untuk instance komputasi Compute Engine, serta produk yang bergantung pada instance Compute Engine. Misalnya, node Google Kubernetes Engine adalah instance Compute Engine.

Ringkasan bandwidth

Tabel berikut menggambarkan ekspektasi bandwidth berdasarkan apakah paket dikirim dari (egress) atau diterima oleh (ingress) instance komputasi dan metode perutean paket.

Keluar

Ekspektasi bandwidth
Memilih rute dalam jaringan VPC
  • Ditentukan terutama oleh bandwidth traffic keluar maksimum per instance berdasarkan jenis mesin instance pengirim dan apakah jaringan Tier_1 diaktifkan atau tidak.

    • VM N2, N2D, C2, C2D, dan C4A dengan jaringan Tier_1 mendukung batas bandwidth traffic keluar hingga 100 Gbps.
    • VM H3 mendukung batas bandwidth traffic keluar VM-ke-VM hingga 200 Gbps.
    • Instance X4, A2, dan G2 mendukung batas bandwidth traffic keluar hingga 100 Gbps.
    • Instance A3 mendukung batas bandwidth traffic keluar hingga 1.800 Gbps.
    • Instance C4, C3, C3D, dan Z3 mendukung batas bandwidth traffic keluar hingga 200 Gbps dengan jaringan Tier_1.
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
Memilih rute di luar jaringan VPC
  • Ditentukan terutama oleh bandwidth traffic keluar maksimum per instance berdasarkan jenis mesin instance pengirim dan apakah jaringan Tier_1 diaktifkan atau tidak. Kecuali untuk VM H3, traffic keluar maksimum yang memungkinkan dari instance pengirim ke tujuan di luar jaringan VPC-nya tidak boleh melebihi hal berikut:

    • Total 7 Gbps saat jaringan Tier_1 tidak diaktifkan
    • Total 25 Gbps saat jaringan Tier_1 diaktifkan
    • 3 Gbps per aliran
  • Untuk faktor, definisi, dan peringatan lainnya, lihat Traffic keluar ke tujuan di luar jaringan VPC.

Masuk

Ekspektasi bandwidth
Memilih rute dalam jaringan VPC
  • Umumnya, tarif masuk mirip dengan tarif keluar untuk jenis mesin.
  • Ukuran instance komputasi Anda, kapasitas NIC server, traffic yang masuk ke VM tamu lain yang berjalan di hardware host yang sama, konfigurasi jaringan OS tamu Anda, dan jumlah pembacaan disk yang dilakukan oleh instance Anda semuanya dapat memengaruhi tingkat ingress.
  • Google Cloud tidak memberlakukan batasan tambahan terkait tarif masuk dalam jaringan VPC.
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC.
Memilih rute di luar jaringan VPC
  • Google Cloud melindungi setiap instance komputasi dengan membatasi traffic masuk yang dirutekan di luar jaringan VPC. Batas ini adalah tarif pertama dari tarif berikut yang ditemukan:

    • 1.800.000 pps (paket per detik)
    • 30 Gbps
  • Untuk seri mesin yang mendukung beberapa NIC fisik seperti A3, batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

    • 1.800.000 pps (paket per detik) per NIC fisik
    • 30 Gbps per NIC fisik
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan di luar jaringan VPC.

Bandwidth keluar

Google Cloud membatasi bandwidth keluar (egress) menggunakan tingkat traffic keluar maksimum per instance. Tarif ini didasarkan pada jenis mesin instance komputasi yang mengirim paket dan apakah tujuan paket dapat diakses menggunakan rute dalam jaringan VPC atau rute di luar jaringan VPC. Bandwidth keluar mencakup paket yang dikeluarkan oleh semua NIC instance dan data yang ditransfer ke semua volume Hyperdisk dan Persistent Disk yang terhubung ke instance.

Bandwidth traffic keluar maksimum per instance

Bandwidth traffic keluar maksimum per instance umumnya adalah 2 Gbps per vCPU, tetapi ada beberapa perbedaan dan pengecualian, bergantung pada seri mesin. Tabel berikut menunjukkan rentang batas maksimum bandwidth keluar untuk traffic yang dirutekan dalam jaringan VPC hanya untuk paket jaringan standar, bukan performa jaringan per VM Tier_1.

Seri mesin Batas traffic keluar maksimum per instance terendah untuk standar Batas traffic keluar maksimum per instance tertinggi untuk standar
C4 dan C4A 10 Gbps 100 Gbps
C3 23 Gbps 100 Gbps
C3D 20 Gbps 100 Gbps
C2 dan C2D 10 Gbps 32 Gbps
E2 1 Gbps 16 Gbps
H3 T/A 200 Gbps
M3 dan M1 32 Gbps 32 Gbps
M2 32 Gbps 32 Gbps di platform CPU Intel Cascade Lake
16 Gbps di platform CPU lainnya
N4 10 Gbps 50 Gbps
N2 dan N2D 10 Gbps 32 Gbps
N1 (tidak termasuk VM dengan 1 vCPU) 10 Gbps 32 Gbps di platform CPU Intel Skylake
16 Gbps di platform CPU yang lebih lama dari Intel Skylake
Jenis mesin N1 dengan 1 vCPU, f1-micro, dan g1-small 2 Gbps 2 Gbps
T2D 10 Gbps 32 Gbps
X4 T/A 100 Gbps
Z3 23 Gbps 100 Gbps

Anda dapat menemukan bandwidth traffic keluar maksimum per instance untuk setiap jenis mesin yang tercantum pada halaman kelompok mesin spesifiknya:

Bandwidth traffic keluar maksimum per instance tidak dijamin. Bandwidth traffic keluar yang sebenarnya dapat diturunkan sesuai dengan faktor-faktor seperti daftar tidak lengkap berikut:

  • Menggunakan VirtIO, bukan gVNIC, dengan instance komputasi yang mendukung keduanya
  • Ukuran paket
  • Overhead protokol
  • Jumlah alur
  • Setelan driver Ethernet pada OS tamu instance komputasi, seperti pengurangan beban checksum dan pengurangan beban segmentasi TCP (TSO)
  • Kemacetan jaringan
  • Jika I/O Persistent Disk bersaing dengan traffic keluar jaringan lain, 60% dari bandwidth jaringan maksimum diberikan ke operasi tulis Persistent Disk, dan tersisa 40% untuk traffic keluar jaringan lain. Lihat Faktor yang memengaruhi performa disk untuk mengetahui detail selengkapnya.

Untuk mendapatkan bandwidth traffic keluar maksimum per instance sebesar mungkin:

  • Aktifkan performa jaringan per VM Tier_1 dengan jenis mesin yang lebih besar.
  • Gunakan unit transmisi maksimum (MTU) jaringan VPC terbesar yang didukung oleh topologi jaringan Anda. MTU yang lebih besar dapat mengurangi overhead header paket dan meningkatkan throughput data payload.
  • Gunakan versi driver gVNIC terbaru.
  • Gunakan seri mesin generasi ketiga atau yang lebih baru yang menggunakan Titanium untuk mengurangi beban pemrosesan jaringan dari CPU host.

Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC

Dari perspektif instance pengirim dan untuk alamat IP tujuan yang dapat diakses dengan menggunakan rute dalam jaringan VPC, Google Cloud membatasi traffic keluar menggunakan aturan ini:

  • Bandwidth traffic keluar maksimum per VM: Bandwidth traffic keluar maksimum per instance yang dijelaskan di bagian Bandwidth traffic keluar maksimum per instance.
  • Bandwidth traffic keluar antar-regional per project: Jika instance pengirim dan tujuan internal atau next hop berada di region berbeda, Google Cloud menerapkan batas bandwidth traffic keluar antar-regional maksimum. Sebagian besar pelanggan cenderung tidak mencapai batas ini. Untuk pertanyaan tentang batasan ini, ajukan kasus dukungan.
  • Batasan Cloud VPN dan Cloud Interconnect: Saat mengirim traffic dari instance ke tujuan alamat IP internal yang dapat dirutekan oleh tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect, bandwidth keluar dibatasi oleh:

Tujuan yang dapat dirutekan dalam jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses dari perspektif instance pengirim dengan rute yang next hop-nya bukan gateway internet default:

  • Alamat IPv4 internal regional di rentang alamat IPv4 primer subnet dan rentang alamat IPv4 sekunder subnet, termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
    • Alamat IPv4 internal utama dari antarmuka jaringan (vNIC) instance penerima. (Ketika instance pengirim terhubung ke alamat IPv4 eksternal vNIC instance lain, paket dirutekan menggunakan gateway internet default next hop, jadi Traffic keluar ke tujuan di luar jaringan VPC berlaku.)
    • Alamat IPv4 internal dalam rentang IP alias dari vNIC instance penerima.
    • Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Alamat IPv4 internal global untuk resource tujuan berikut:
  • Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC instance penerima stack ganda.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC atau dengan rute kustom dalam jaringan VPC yang tidak menggunakan next hop gateway internet default:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC instance penerima stack ganda.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.
  • Tujuan lain yang dapat diakses menggunakan rute jaringan VPC berikut:

Daftar berikut mengurutkan traffic dari instance pengirim ke tujuan internal, dari bandwidth yang setinggi mungkin hingga yang terendah:

Traffic keluar ke tujuan di luar jaringan VPC

Dari perspektif instance pengirim dan untuk alamat IP tujuan di luar jaringan VPC, Google Cloud membatasi traffic keluar ke rasio berikut yang tercapai lebih dahulu:

  • Bandwidth traffic keluar per instance: Bandwidth maksimum untuk semua koneksi dari instance komputasi ke tujuan di luar jaringan VPC adalah lebih kecil dari Bandwidth traffic keluar maksimum per instance dan salah satu tarifnya:

    • 25 Gbps, jika jaringan Tier_1 diaktifkan
    • 7 Gbps, jika jaringan Tier_1 tidak diaktifkan
    • 1 Gbps untuk instance H3
    • 7 Gbps per NIC fisik untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3.

    Misalnya, meskipun instance c3-standard-44 memiliki bandwidth keluar maksimum per VM sebesar 32 Gbps, bandwidth keluar per VM dari VM c3-standard-44 ke tujuan eksternal adalah 25 Gbps atau 7 Gbps, bergantung pada apakah jaringan Tier_1 diaktifkan.

  • Rasio traffic keluar maksimum per alur: Bandwidth maksimum untuk setiap koneksi 5 tuple unik, dari instance komputasi ke tujuan di luar jaringan VPC adalah 3 Gbps, kecuali pada H3, di mana adalah 1 Gbps.

  • Bandwidth keluar internet per project: Bandwidth maksimum untuk semua koneksi dari instance komputasi di setiap region project ke tujuan di luar jaringan VPC ditentukan oleh kuota bandwidth keluar Internet project.

Tujuan di luar jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses melalui rute dalam jaringan VPC instance pengirim yang next hop-nya adalah gateway internet default:

  • Alamat IPv4 dan IPv6 eksternal global untuk Load Balancer Jaringan proxy eksternal dan Load Balancer Aplikasi eksternal
  • Alamat IPv4 eksternal regional untuk resource Google Cloud, termasuk alamat IPv4 eksternal vNIC VM, alamat IPv4 eksternal untuk penerusan protokol eksternal, Load Balancer Jaringan passthrough eksternal, dan paket respons ke gateway Cloud NAT.
  • Alamat IPv6 eksternal regional di subnet stack ganda dengan rentang alamat IPv6 eksternal yang digunakan oleh alamat IPv6 eksternal instance stack ganda, penerusan protokol eksternal, dan Load Balancer Jaringan passthrough eksternal. Subnet harus berada di jaringan VPC terpisah yang tidak di-peering. Rentang alamat IPv6 tujuan harus dapat diakses menggunakan rute di jaringan VPC instance pengirim yang next hop-nya adalah gateway internet default. Jika subnet dual-stack dengan rentang alamat IPv6 eksternal berada di jaringan VPC yang sama atau dalam jaringan VPC yang di-peering, lihat Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
  • Tujuan eksternal lainnya yang dapat diakses menggunakan rute statis di jaringan VPC instance pengirim asalkan next hop-nya untuk rute tersebut adalah gateway internet default.

Untuk mengetahui detail tentang resource Google Cloud yang menggunakan jenis alamat IP eksternal, lihat Alamat IP eksternal.

Bandwidth masuk

Google Cloud menangani bandwidth masuk (ingress) bergantung pada cara paket masuk dirutekan ke instance komputasi penerima.

Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC

Instance penerima dapat menangani paket masuk sebanyak jenis mesin, sistem operasi, dan kondisi jaringan lainnya yang diizinkan. Google Cloud tidak menerapkan pembatasan bandwidth yang disengaja pada paket masuk yang dikirim ke instance jika paket masuk dikirimkan menggunakan rute dalam jaringan VPC:

  • Rute subnet di jaringan VPC instance penerima
  • Rute subnet peering di jaringan VPC yang di-peering
  • Rute di jaringan lain yang next hop-nya adalah tunnel Cloud VPN, lampiran Cloud Interconnect (VLAN), atau instance peralatan Router yang terletak di jaringan VPC instance penerima

Tujuan untuk paket yang dirutekan dalam jaringan VPC meliputi:

  • Alamat IPv4 internal utama dari antarmuka jaringan (NIC) instance penerima. Alamat IPv4 internal utama adalah alamat IPv4 internal regional yang berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv4 internal dari rentang IP alias NIC instance penerima. Rentang IP alias dapat berasal dari rentang alamat IPv4 utama subnet atau salah satu rentang alamat IPv4 sekundernya.
  • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC instance penerima stack ganda. Rentang IPv6 instance Compute dapat berasal dari rentang IPv6 subnet berikut:
  • Alamat IPv4 internal dari aturan penerusan yang digunakan oleh penerusan protokol internal ke instance penerima atau Load Balancer Jaringan passthrough internal, dengan instance penerima adalah backend dari load balancer. Alamat IPv4 aturan penerusan internal berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv6 internal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol internal ke instance penerima atau Load Balancer Jaringan passthrough internal, dengan instance penerima adalah backend dari load balancer. Alamat IPv6 aturan penerusan internal berasal dari rentang alamat IPv6 internal subnet.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal. Instance penerima adalah backend load balancer saat paket masuk dirutekan dalam jaringan VPC menggunakan salah satu rute yang tercantum sebelumnya di bagian ini. Alamat IPv6 aturan penerusan eksternal berasal dari rentang alamat IPv6 eksternal subnet.
  • Alamat IP dalam rentang tujuan rute statis kustom yang menggunakan instance penerima sebagai instance next hop (next-hop-instance atau next-hop-address).
  • Alamat IP dalam rentang tujuan rute statis kustom menggunakan next hop Load Balancer Jaringan passthrough internal (next-hop-ilb), jika instance penerima adalah backend untuk load balancer tersebut.

Traffic masuk ke tujuan di luar jaringan VPC

Google Cloud menerapkan batas bandwidth berikut untuk paket masuk yang dikirim ke instance penerima menggunakan rute di luar jaringan VPC. Jika load balancing terlibat, batas bandwidth diterapkan satu per satu ke setiap instance penerima.

Untuk seri mesin yang tidak mendukung beberapa NIC fisik, pembatasan bandwidth masuk yang berlaku berlaku secara kolektif untuk semua antarmuka jaringan virtual (vNIC). Batas ini adalah tarif pertama dari tarif berikut yang ditemukan:

  • 1.800.000 paket per detik
  • 30 Gbps

Untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3, batasan bandwidth masuk yang berlaku berlaku satu per satu untuk setiap NIC fisik. Batas ini adalah tarif pertama dari tarif berikut yang ditemukan:

  • 1.800.000 paket per detik per NIC fisik
  • 30 Gbps per NIC fisik

Tujuan untuk paket yang dirutekan menggunakan rute di luar jaringan VPC meliputi:

  • Alamat IPv4 eksternal yang ditetapkan dalam konfigurasi akses NAT one-to-one pada salah satu antarmuka jaringan (NIC) instance penerima.
  • Alamat IPv6 eksternal dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC instance penerima stack ganda saat paket masuk dirutekan menggunakan rute di luar jaringan VPC instance penerima.
  • Alamat IPv4 eksternal dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal, dengan instance penerima merupakan backend load balancer.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal. Instance penerima harus merupakan backend load balancer saat paket masuk dirutekan menggunakan rute di luar jaringan VPC.
  • Respons masuk yang ditetapkan yang diproses oleh Cloud NAT.

Bingkai jumbo

Untuk menerima dan mengirim bingkai jumbo, konfigurasi jaringan VPC yang digunakan oleh instance komputasi Anda; tetapkan unit transmisi maksimum (MTU) ke nilai yang lebih besar, hingga 8896.

Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.

Anda dapat menggunakan bingkai jumbo dengan driver gVNIC versi 1.3 atau yang lebih baru di instance VM, atau dengan driver IDPF di instance bare metal. Tidak semua image publik Google Cloud menyertakan driver ini. Untuk mengetahui informasi selengkapnya tentang dukungan sistem operasi untuk bingkai jumbo, lihat tab Networking features di halaman Operating system details.

Jika menggunakan OS image yang tidak memiliki dukungan penuh untuk bingkai jumbo, Anda dapat menginstal driver gVNIC versi v1.3.0 atau yang lebih baru secara manual. Google menyarankan penginstalan versi driver gVNIC yang ditandai Latest untuk mendapatkan manfaat dari fitur tambahan dan perbaikan bug. Anda dapat mendownload driver gVNIC dari GitHub.

Untuk mengupdate versi driver gVNIC secara manual di OS tamu, lihat Penggunaan pada sistem operasi yang tidak didukung.

Menerima dan mengirim antrean

Setiap NIC atau vNIC untuk instance komputasi diberi sejumlah antrean terima dan kirim untuk memproses paket dari jaringan.

  • Receive Queue (RX): Antrean untuk menerima paket. Saat NIC menerima paket dari jaringan, NIC memilih deskripsi untuk paket masuk dari antrean, memprosesnya, dan menyerahkan paket tersebut ke OS tamu melalui antrean paket yang terpasang ke core vCPU menggunakan interupsi. Jika antrean RX penuh dan tidak ada buffer yang tersedia untuk menempatkan paket, paket akan dihapus. Hal ini biasanya dapat terjadi jika aplikasi terlalu menggunakan core vCPU yang juga terpasang ke antrean paket yang dipilih.
  • Transmit Queue (TX): Antrean untuk mengirimkan paket. Saat OS tamu mengirim paket, deskriptor dialokasikan dan ditempatkan dalam antrean TX. NIC kemudian memproses deskripsi dan mengirimkan paket.

Alokasi antrean default

Kecuali jika Anda secara eksplisit menetapkan jumlah antrean untuk NIC, Anda dapat membuat model algoritma yang digunakan Google Cloud untuk menetapkan jumlah antrean RX dan TX tetap per NIC dengan cara berikut:

Instance bare metal
Untuk instance bare metal, hanya ada satu NIC, sehingga jumlah antrean maksimum adalah 16.
Instance VM yang menggunakan antarmuka jaringan gVNIC

Untuk instance C4, guna meningkatkan performa, konfigurasi berikut menggunakan jumlah antrean tetap:

  • Untuk instance Linux dengan 2 vCPU, jumlah antrean adalah 1.
  • Untuk instance Linux dengan 4 vCPU, jumlah antrean adalah 2.

Untuk seri mesin lainnya, jumlah antrean bergantung pada apakah seri mesin menggunakan Titanium atau tidak.

  • Untuk instance generasi ketiga (tidak termasuk M3) dan yang lebih baru yang menggunakan Titanium:

    Bagi jumlah vCPU dengan jumlah vNIC (num_vcpus/num_vnics) dan hapus sisanya.

  • Untuk VM generasi pertama dan kedua yang tidak menggunakan Titanium:

    Bagi jumlah vCPU dengan jumlah vNIC, lalu bagi hasilnya dengan 2 (num_vcpus/num_vnics/2). Hapus sisanya.

Untuk menyelesaikan penghitungan jumlah antrean default:

  1. Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap vNIC.

  2. Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per vNIC, yaitu 16. Jika jumlah yang dihitung lebih besar dari 16, abaikan jumlah yang dihitung, dan tetapkan setiap antrean vNIC 16.

Instance VM yang menggunakan antarmuka jaringan VirtIO atau driver kustom

Bagi jumlah vCPU dengan jumlah vNIC, dan hapus sisanya —[number of vCPUs/number of vNICs].

  1. Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap vNIC.

  2. Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per vNIC, yaitu 32. Jika jumlah yang dihitung lebih besar dari 32, abaikan jumlah yang dihitung, dan tetapkan setiap antrean vNIC 32.

Contoh

Contoh berikut menunjukkan cara menghitung jumlah default antrean untuk instance VM:

  • Jika instance VM menggunakan VirtIO dan memiliki 16 vCPU dan 4 vNIC, jumlah yang dihitung adalah [16/4] = 4. Google Cloud menetapkan empat antrean ke setiap vNIC.

  • Jika instance VM menggunakan gVNIC dan memiliki 128 vCPU dan dua vNIC, jumlah yang dihitung adalah [128/2/2] = 32. Google Cloud menetapkan jumlah maksimum antrean per vNIC pada setiap vNIC. Google Cloud menetapkan antrean 16 per vNIC.

Pada sistem Linux, Anda dapat menggunakan ethtool untuk mengonfigurasi vNIC dengan antrean yang lebih sedikit daripada jumlah antrean yang ditetapkan Google Cloud per vNIC.

Alokasi antrean kustom untuk instance VM

Alih-alih menggunakan alokasi antrean default, Anda dapat menetapkan jumlah antrean kustom (total RX dan TX) ke setiap vNIC saat membuat instance komputasi baru menggunakan Compute Engine API.

Jumlah antrean kustom yang Anda tentukan harus mematuhi aturan berikut:

  • Jumlah antrean minimum yang dapat Anda tetapkan per vNIC adalah satu.

  • Jumlah antrean maksimum yang dapat Anda tetapkan ke setiap vNIC instance VM adalah jumlah yang lebih rendah dari jumlah vCPU atau jumlah antrean maksimum per vNIC, berdasarkan jenis driver:

    • Menggunakan virtIO atau driver kustom, jumlah antrean maksimum adalah 32.
    • Dengan menggunakan gVNIC, jumlah antrean maksimum adalah 16, kecuali untuk hal berikut, dengan jumlah antrean maksimum 32:
      • Instance A2 atau G2
      • Instance TPU
      • Instance C2, C2D, N2, atau N2D dengan jaringan Tingkat_1 diaktifkan
    • Untuk konfigurasi Confidential VM berikut, jumlah antrean maksimum adalah 8:

      • AMD SEV pada jenis mesin C2D dan N2D
      • AMD SEV-SNP pada jenis mesin N2D
  • Jika Anda menetapkan jumlah antrean kustom ke semua NIC instance komputasi, jumlah penetapan jumlah antrean harus kurang dari atau sama dengan jumlah vCPU yang ditetapkan ke instance.

Anda dapat melebihkan jumlah antrean kustom untuk vNIC. Dengan kata lain, Anda dapat memiliki jumlah total antrean yang ditetapkan ke semua NIC untuk instance VM yang lebih besar dari jumlah vCPU untuk instance Anda. Untuk melebihi jumlah antrean kustom, instance VM harus memenuhi kondisi berikut:

  • Gunakan gVNIC sebagai jenis vNIC untuk semua NIC yang dikonfigurasi untuk instance.
  • Menggunakan jenis mesin yang mendukung jaringan Tingkat_1.
  • Mengaktifkan jaringan Tier_1.
  • Menentukan jumlah antrean kustom untuk semua NIC yang dikonfigurasi untuk instance.

Dengan kelebihan langganan antrean, jumlah antrean maksimum untuk instance VM adalah 16 kali jumlah NIC. Jadi, jika Anda memiliki 6 NIC yang dikonfigurasi untuk instance dengan 30 vCPU, Anda dapat mengonfigurasi maksimum (16 * 6), atau 96 antrean kustom untuk instance.

Contoh

  • Jika instance VM memiliki 8 vCPU dan 3 vNIC, jumlah antrean maksimum untuk instance adalah jumlah vCPU, atau 8. Anda dapat menetapkan 1 antrean ke nic0, 4 antrean ke nic1, dan 3 antrean ke nic2. Dalam contoh ini, Anda selanjutnya tidak dapat menetapkan 4 antrean ke nic2 sambil menyimpan dua penetapan antrean vNIC lainnya karena jumlah antrean yang ditetapkan tidak boleh melebihi jumlah vCPU.

  • Jika memiliki VM N2 dengan 96 vCPU dan 2 vNIC, Anda dapat menetapkan kedua vNIC hingga 32 antrean masing-masing saat menggunakan driver virtIO, atau hingga 16 antrean masing-masing saat menggunakan driver gVNIC. Jika mengaktifkan jaringan Tingkat_1 untuk VM N2, Anda dapat menetapkan hingga 32 antrean ke setiap vNIC. Dalam contoh ini, jumlah antrean yang ditetapkan selalu kurang dari atau sama dengan jumlah vCPU.

Anda juga dapat menetapkan jumlah antrean kustom untuk hanya beberapa NIC, sehingga Google Cloud dapat menetapkan antrean ke NIC yang tersisa. Jumlah antrean yang dapat Anda tetapkan per vNIC masih tunduk pada aturan yang disebutkan sebelumnya. Anda dapat membuat model kelayakan konfigurasi, dan, jika konfigurasi tersebut memungkinkan, jumlah antrean yang ditetapkan Google Cloud ke vNIC yang tersisa dengan proses ini:

  1. Hitung jumlah antrean untuk vNIC menggunakan penetapan antrean kustom. Untuk contoh VM dengan 20 vCPU dan 6 vNIC, misalnya Anda menetapkan nic0 5 antrean, nic1 6 antrean, nic2 4 antrean, dan membiarkan Google Cloud menetapkan antrean untuk nic3, nic4, dan nic5. Dalam contoh ini, jumlah antrean yang ditetapkan secara kustom adalah 5+6+4 = 15.

  2. Kurangi jumlah antrean yang ditetapkan secara kustom dengan jumlah vCPU. Jika selisihnya kurang dari jumlah vNIC yang tersisa yang harus ditetapkan antrean oleh Google Cloud, Google Cloud akan menampilkan error karena setiap vNIC harus memiliki setidaknya satu antrean.

    Melanjutkan contoh dengan VM yang memiliki 20 vCPU dan jumlah 15 antrean yang ditetapkan secara kustom, Google Cloud memiliki 20-15 = 5 antrean tersisa untuk ditetapkan ke vNIC lainnya (nic3, nic4, nic5).

  3. Bagi selisih dari langkah sebelumnya dengan jumlah vNIC yang tersisa dan buang sisa —⌊(number of vCPUs - sum of assigned queues)/(number of remaining vNICs)⌋. Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan) yang setidaknya sama dengan satu, karena batasan yang dijelaskan di langkah sebelumnya. Google Cloud akan menetapkan jumlah antrean setiap vNIC yang tersisa yang cocok dengan jumlah yang dihitung selama jumlah yang dihitung tidak lebih besar dari jumlah maksimum antrean per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:

  • Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih dari 32, Google Cloud akan menetapkan setiap antrean 32 vNIC yang tersisa.
  • Dengan gVNIC, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih besar dari batas 16 atau 32 (bergantung pada konfigurasi VM), Google Cloud akan menetapkan setiap antrean 16 vNIC yang tersisa.

Mengonfigurasi jumlah antrean kustom

Untuk membuat instance komputasi yang menggunakan jumlah antrean kustom untuk satu atau beberapa NIC atau vNIC, selesaikan langkah-langkah berikut.

Dalam contoh kode berikut, VM dibuat dengan jenis antarmuka jaringan ditetapkan ke GVNIC dan performa jaringan per VM Tier_1 diaktifkan. Anda dapat menggunakan contoh kode ini untuk menentukan jumlah antrean maksimum dan kelebihan langganan antrean yang tersedia untuk jenis mesin yang didukung.

gcloud

  1. Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin dikonfigurasi, buatlah.
  2. Gunakan perintah gcloud compute instances create untuk membuat instance komputasi. Ulangi flag --network-interface untuk setiap vNIC yang ingin Anda konfigurasikan untuk instance, dan sertakan opsi queue-count.
    gcloud compute instances create INSTANCE_NAME \
        --zone=ZONE \
        --machine-type=MACHINE_TYPE \
        --network-performance-configs=total-egress-bandwidth-tier=TIER_1  \
        --network-interface=network=NETWORK_NAME_1,subnet=SUBNET_1,nic-type=GVNIC,queue-count=QUEUE_SIZE_1 \
        --network-interface=network=NETWORK_NAME_2,subnet=SUBNET_2,nic-type=GVNIC,queue-count=QUEUE_SIZE_2

Ganti kode berikut:

  • INSTANCE_NAME: nama untuk instance komputasi baru
  • ZONE: zona tempat instance dibuat
  • MACHINE_TYPE: jenis mesin instance. Untuk melakukan kelebihan langganan jumlah antrean, jenis mesin yang Anda tentukan harus mendukung gVNIC dan jaringan Tier_1.
  • NETWORK_NAME: nama jaringan yang dibuat sebelumnya
  • SUBNET_*: nama salah satu subnet yang dibuat sebelumnya
  • QUEUE_SIZE: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.

Terraform

  1. Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin dikonfigurasi, buatlah.
  2. Buat instance komputasi dengan jumlah antrean spesifik untuk vNIC menggunakan resource google_compute_instance. Ulangi parameter --network-interface untuk setiap vNIC yang ingin Anda konfigurasi untuk instance komputasi, dan sertakan parameter queue-count.

    # Queue oversubscription instance
    resource "google_compute_instance" "VM_NAME" {
    project      = "PROJECT_ID"
    boot_disk {
      auto_delete = true
      device_name = "DEVICE_NAME"
      initialize_params {
         image="IMAGE_NAME"
         size = DISK_SIZE
         type = "DISK_TYPE"
      }
    }
    machine_type = "MACHINE_TYPE"
    name         = "VM_NAME"
    zone = "ZONE"
    
    network_performance_config {
        total_egress_bandwidth_tier = "TIER_1"
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_1
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_1"
     }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_2
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_2"
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_3
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_3""
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_4
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_4""
    }
    
    }
    
    

Ganti kode berikut:

  • VM_NAME: nama untuk instance komputasi baru
  • PROJECT_ID: ID project tempat instance dibuat. Kecuali jika Anda menggunakan jaringan VPC Bersama, project yang Anda tentukan harus sama dengan project tempat semua subnet dan jaringan dibuat.
  • DEVICE_NAME: Nama yang akan dikaitkan dengan disk boot di OS tamu
  • IMAGE_NAME: nama gambar,misalnya, "projects/debian-cloud/global/images/debian-11-bullseye-v20231010".
  • DISK_SIZE: ukuran boot disk, dalam GiB
  • DISK_TYPE: jenis disk yang akan digunakan untuk boot disk, misalnya, pd-standard
  • MACHINE_TYPE: jenis mesin instance. Untuk melakukan kelebihan langganan jumlah antrean, jenis mesin yang Anda tentukan harus mendukung gVNIC dan jaringan Tier_1.
  • ZONE: zona tempat instance dibuat
  • QUEUE_COUNT: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.
  • SUBNET_*: nama subnet yang terhubung ke antarmuka jaringan

REST

  1. Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin dikonfigurasi, buatlah.
  2. Buat instance komputasi dengan jumlah antrean spesifik untuk NIC menggunakan metode instances.insert. Ulangi properti networkInterfaces untuk mengonfigurasi beberapa antarmuka jaringan.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances
    {
    "name": "VM_NAME",
    "machineType": "machineTypes/MACHINE_TYPE",
    "networkPerformanceConfig": {
        "totalEgressBandwidthTier": TIER_1
    },
    "networkInterfaces": [
        {
          "nicType": gVNIC,
          "subnetwork":"regions/region/subnetworks/SUBNET_1",
          "queueCount": "QUEUE_COUNT_1"
        } ],
    "networkInterfaces": [
        {
          "nicType": gVNIC,
          "subnetwork":"regions/region/subnetworks/SUBNET_2",
          "queueCount": "QUEUE_COUNT_2"
        } ],
    }
    

    Ganti kode berikut:

    • PROJECT_ID: ID project tempat instance komputasi akan dibuat
    • ZONE: zona tempat instance komputasi dibuat
    • VM_NAME: nama instance komputasi baru
    • MACHINE_TYPE: jenis mesin, bawaan atau kustom, untuk instance komputasi baru. Untuk melakukan kelebihan langganan jumlah antrean, jenis mesin harus mendukung gVNIC dan jaringan Tingkat_1.
    • SUBNET_*: nama subnet yang menjadi tujuan koneksi antarmuka jaringan
    • QUEUE_COUNT: Jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas dalam Alokasi antrean kustom.

Mengantrekan alokasi dan mengubah jenis mesin

Instance Compute dibuat dengan alokasi antrean default, atau Anda dapat menetapkan jumlah antrean kustom untuk setiap kartu antarmuka jaringan virtual (vNIC) saat membuat instance Compute baru menggunakan Compute Engine API. Penetapan antrean vNIC default atau kustom hanya ditetapkan saat membuat instance komputasi. Jika instance Anda memiliki vNIC yang menggunakan jumlah antrean default, Anda dapat mengubah jenis mesinnya. Jika jenis mesin yang Anda ganti memiliki jumlah vCPU yang berbeda, jumlah antrean default untuk instance Anda akan dihitung ulang berdasarkan jenis mesin baru.

Jika VM Anda memiliki vNIC yang menggunakan jumlah antrean non-default kustom, Anda dapat mengubah jenis mesin menggunakan Google Cloud CLI atau Compute Engine API untuk mengupdate properti instance. Konversi berhasil jika VM yang dihasilkan mendukung jumlah antrean yang sama per vNIC dengan instance asli. Untuk VM yang menggunakan antarmuka VirtIO-Net dan memiliki jumlah antrean kustom lebih dari 16 per vNIC, Anda tidak dapat mengubah jenis mesin menjadi jenis mesin generasi ketiga atau yang lebih baru, karena VM tersebut hanya menggunakan gVNIC. Sebagai gantinya, Anda dapat memigrasikan VM ke jenis mesin generasi ketiga atau yang lebih baru dengan mengikuti petunjuk di bagian Memindahkan workload ke instance komputasi baru.

Langkah selanjutnya