Bandwidth jaringan


Google Cloud memperhitungkan bandwidth per instance mesin virtual (VM), bukan per antarmuka jaringan (NIC) atau alamat IP. Jenis mesin VM menentukan rasio traffic keluar maksimum yang memungkinkan; tetapi, Anda hanya dapat mencapai tingkat traffic keluar maksimum yang dimungkinkan dalam situasi tertentu.

Halaman ini menguraikan ekspektasi, yang berguna saat merencanakan deployment Anda. Halaman ini mengategorikan bandwidth menggunakan dua dimensi:

  • Traffic keluar atau masuk: Seperti yang digunakan pada halaman ini, traffic keluar dan masuk selalu dari perspektif VM Google Cloud:
    • Paket yang dikirim dari VM Google Cloud menyusun traffic egress (keluarnya).
    • Paket yang dikirim ke VM Google Cloud menyusun traffic ingress (masuknya).
  • Cara paket dirutekan: Paket dapat dirutekan dari VM pengirim atau ke VM penerima menggunakan rute yang next hop-nya berada dalam jaringan VPC atau rute di luar jaringan VPC.

Baik antarmuka jaringan tambahan (NIC) atau alamat IP tambahan per NIC tidak akan meningkatkan bandwidth masuk atau keluar untuk VM. Misalnya, VM n1-standard-8 dengan dua NIC dibatasi hingga total bandwidth keluar 16 Gbps, bukan bandwidth keluar 16 Gbps per NIC.

Semua informasi di halaman ini berlaku untuk VM Compute Engine, serta produk yang bergantung pada VM Compute Engine. Misalnya, node Google Kubernetes Engine adalah VM Compute Engine.

Ringkasan bandwidth

Tabel berikut menggambarkan ekspektasi bandwidth berdasarkan apakah paket dikirim dari (egress) atau diterima oleh (ingress) VM dan metode perutean paket.

Traffic Keluar

Ekspektasi bandwidth
Memilih rute dalam jaringan VPC
Memilih rute di luar jaringan VPC
  • Ditentukan terutama oleh bandwidth traffic keluar maksimum per VM berdasarkan jenis mesin VM pengirim dan apakah jaringan Tier_1 diaktifkan atau tidak. Kecuali untuk VM H3, traffic keluar maksimum yang memungkinkan dari VM pengirim ke tujuan di luar jaringan VPC-nya tidak boleh melebihi hal berikut:
    • Total 7 Gbps saat jaringan Tier_1 tidak diaktifkan
    • Total 25 Gbps saat jaringan Tier_1 diaktifkan
    • 3 Gbps per aliran
  • Untuk faktor, definisi, dan peringatan lainnya, lihat Traffic keluar ke tujuan di luar jaringan VPC.

Traffic Masuk

Ekspektasi bandwidth
Memilih rute dalam jaringan VPC
  • Umumnya, tarif masuk mirip dengan tarif keluar untuk jenis mesin.
  • Ukuran VM Anda, kapasitas NIC hardware, traffic yang masuk ke VM tamu lain yang berjalan pada hardware host yang sama, konfigurasi jaringan OS tamu Anda, dan jumlah pembacaan disk yang dilakukan oleh VM Anda semuanya dapat mempengaruhi tingkat ingress.
  • Google Cloud tidak memberlakukan batasan tambahan terkait tarif masuk dalam jaringan VPC.
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC.
Memilih rute di luar jaringan VPC
  • Google Cloud melindungi setiap VM dengan membatasi traffic masuk yang dirutekan di luar jaringan VPC. Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:
    • 1.800.000 pps (paket per detik)
    • 30 Gbps
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan di luar jaringan VPC.

Bandwidth keluar

Google Cloud membatasi bandwidth keluar (egress) menggunakan tingkat traffic keluar maksimum per VM berdasarkan jenis mesin VM yang mengirim paket dan apakah tujuan paket dapat diakses menggunakan rute dalam jaringan VPC atau rute di luar jaringan VPC. Bandwidth keluar mencakup paket yang dikeluarkan oleh semua NIC VM dan data yang ditransfer ke semua persistent disk yang terhubung ke VM.

Bandwidth traffic keluar maksimum per VM

Bandwidth traffic keluar maksimum per VM umumnya adalah 2 Gbps per vCPU, tetapi ada beberapa perbedaan dan pengecualian, bergantung pada seri mesin. Tabel berikut menunjukkan rentang batas maksimum bandwidth keluar untuk traffic yang dirutekan dalam jaringan VPC hanya untuk paket jaringan standar, bukan performa jaringan per Tier_1 VM.

Seri mesin Batas traffic keluar maksimum per VM yang terendah tanpa jaringan Tier_1 Batas traffic keluar maksimum per VM tertinggi tanpa jaringan Tier_1
E2 1 Gbps 16 Gbps
C3 23 Gbps 100 Gbps
C3D 20 Gbps 100 Gbps
T2D 10 Gbps 32 Gbps
N2,C2, N2D, dan C2D 10 Gbps 32 Gbps
H3 T/A 200 Gbps
N1 (tidak termasuk VM dengan 1 vCPU) 10 Gbps 32 Gbps di platform CPU Intel Skylake
16 Gbps di platform CPU yang lebih lama dari Intel Skylake
Jenis mesin N1 dengan 1 vCPU, f1-micro, dan g1-small 2 Gbps 2 Gbps
A2 dan G2 Berdasarkan GPU Berdasarkan GPU

Anda dapat menemukan bandwidth traffic keluar maksimum per VM untuk setiap jenis mesin yang tercantum pada halaman kelompok mesin spesifiknya:

Bandwidth traffic keluar maksimum per VM tidak dijamin. Bandwidth traffic keluar yang sebenarnya dapat diturunkan sesuai dengan faktor-faktor seperti daftar tidak lengkap berikut:

  • Driver Ethernet Tamu—gVNIC menawarkan performa yang lebih baik daripada antarmuka jaringan VirtIO
  • Ukuran paket
  • Overhead protokol
  • Jumlah alur
  • Setelan driver Ethernet pada OS tamu VM, seperti pengurangan beban checksum dan pengurangan beban segmentasi TCP (TSO)
  • Kemacetan jaringan
  • Jika persistent disk bersaing dengan traffic keluar jaringan lain, 60% dari bandwidth jaringan maksimum diberikan ke operasi tulis Persistent Disk, dan tersisa 40% untuk traffic keluar jaringan lain. Baca faktor lain yang memengaruhi performa dalam dokumentasi Persistent Disk untuk mengetahui detail selengkapnya.

Untuk mendapatkan bandwidth traffic keluar maksimum per VM sebesar mungkin:

Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC

Dari perspektif VM pengirim dan untuk alamat IP tujuan yang dapat diakses dengan menggunakan rute dalam jaringan VPC, Google Cloud membatasi traffic keluar menggunakan aturan ini:

  • Bandwidth keluar maksimum per VM: Bandwidth keluar maksimum per VM yang dijelaskan di bagian Bandwidth keluar maksimum per VM.
  • Bandwidth traffic keluar antar-regional per project: Jika VM pengirim dan tujuan internal atau next hop berada di region berbeda, Google Cloud menerapkan batas bandwidth traffic keluar antar-regional maksimum. Sebagian besar pelanggan cenderung tidak mencapai batas ini. Untuk pertanyaan tentang batasan ini, ajukan kasus dukungan.
  • Batasan Cloud VPN dan Cloud Interconnect: Saat mengirim traffic dari VM ke tujuan alamat IP internal yang dapat dirutekan oleh tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect, bandwidth keluar dibatasi oleh:

Tujuan yang dapat dirutekan dalam jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses dari perspektif VM pengirim dengan rute yang next hop-nya bukan gateway internet default:

  • Alamat IPv4 internal regional di rentang alamat IPv4 sekunder subnet dan IPv4 primer subnet, termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
    • Alamat IPv4 internal utama dari antarmuka jaringan (NIC) VM penerima . (Ketika VM pengirim terhubung ke alamat IPv4 eksternal NIC VM, paket dirutekan menggunakan gateway internet default next hop, jadi Traffic keluar ke tujuan di luar jaringan VPC berlaku.)
    • Alamat IPv4 internal dalam rentang IP alias dari NIC VM penerima.
    • Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Alamat IPv4 internal global untuk resource tujuan berikut:
  • Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC VM penerima stack ganda.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC atau dengan rute kustom dalam jaringan VPC yang tidak menggunakan next hop gateway internet default:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC VM penerima stack ganda.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.
  • Tujuan lain yang dapat diakses menggunakan rute jaringan VPC berikut:

Daftar berikut mengurutkan traffic dari VM penerima ke tujuan internal, dari bandwidth yang setinggi mungkin hingga yang terendah:

Traffic keluar ke tujuan di luar jaringan VPC

Dari perspektif VM pengirim dan untuk alamat IP tujuan di luar jaringan VPC, Google Cloud membatasi traffic keluar ke rasio berikut yang tercapai lebih dahulu:

  • Bandwidth traffic keluar per VM: Bandwidth maksimum untuk semua koneksi dari VM ke tujuan di luar jaringan VPC adalah lebih kecil Bandwidth traffic keluar maksimum per VM dan salah satu tarifnya:

    • 25 Gbps, jika jaringan Tier_1 diaktifkan
    • 7 Gbps, jika jaringan Tier_1 tidak diaktifkan
    • 1 Gbps untuk VM H3

    Misalnya, meskipun instance n2-standard-16 memiliki bandwidth keluar maksimum per VM sebesar 32 Gbps, bandwidth keluar per VM dari instance n2-standard-16 ke tujuan eksternal adalah 25 Gbps atau 7 Gbps, tergantung pada apakah jaringan Tier_1 diaktifkan.

  • Rasio traffic keluar maksimum per alur: Bandwidth maksimum untuk setiap koneksi 5 tuple unik, dari VM ke tujuan di luar jaringan VPC adalah 3 Gbps, kecuali pada H3, di mana adalah 1 Gbps.

  • Bandwidth keluar internet per project: Bandwidth maksimum untuk semua koneksi dari VM di setiap region project ke tujuan di luar jaringan VPC ditentukan dengan kuota bandwidth keluar Internet project.

Tujuan di luar jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses melalui rute dalam jaringan VPC VM pengirim yang next hop-nya adalah gateway internet default:

  • Alamat IPv4 dan IPv6 eksternal global untuk Load Balancer Jaringan proxy eksternal dan Load Balancer Aplikasi eksternal
  • Alamat IPv4 eksternal regional untuk resource Google Cloud, termasuk alamat IPv4 eksternal NIC VM, alamat IPv4 eksternal untuk penerusan protokol eksternal, Load Balancer Jaringan passthrough eksternal, dan paket respons ke gateway Cloud NAT.
  • Alamat IPv6 eksternal regional dalam subnet stack ganda dengan rentang alamat IPv6 eksternal digunakan oleh alamat IPv6 eksternal VM stack ganda, penerusan protokol eksternal, dan Load Balancer Jaringan passthrough eksternal, asalkan subnet tersebut berada di jaringan VPC yang tidak di-peering dan terpisah serta rentang alamat IPv6 tujuan dapat diakses melalui rute di jaringan VPC VM pengirim yang next hop-nya adalah gateway internet default. Jika subnet stack ganda dengan rentang alamat IPv6 eksternal berada di jaringan VPC yang sama atau dalam jaringan VPC yang di-peering, lihat Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
  • Tujuan eksternal lainnya yang dapat diakses menggunakan rute statis di jaringan VPC VM pengirim asalkan next hop-nya untuk rute tersebut adalah gateway internet default.

Untuk mengetahui detail tentang resource Google Cloud yang menggunakan jenis alamat IP eksternal, lihat Alamat IP eksternal.

Bandwidth masuk

Google Cloud menangani bandwidth masuk (ingress) bergantung pada cara paket masuk dirutekan ke VM penerima.

Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC

VM penerima dapat menangani paket masuk sebanyak jenis mesin, sistem operasi, dan kondisi jaringan lainnya yang diizinkan. Google Cloud tidak menerapkan pembatasan bandwidth yang disengaja pada paket masuk yang dikirim ke VM jika paket masuk dikirimkan menggunakan rute dalam jaringan VPC:

  • Rute subnet di jaringan VPC VM penerima
  • Rute subnet peering di jaringan VPC yang di-peering
  • Rute di jaringan lain yang next hop-nya adalah tunnel Cloud VPN, lampiran Cloud Interconnect (VLAN), atau VM peralatan Router yang terletak di jaringan VPC VM penerima

Tujuan untuk paket yang dirutekan dalam jaringan VPC meliputi:

  • Alamat IPv4 internal utama dari antarmuka jaringan (NIC) VM penerima. Alamat IPv4 internal utama adalah alamat IPv4 internal regional yang berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv4 internal dari rentang IP alias NIC VM penerima. Rentang IP alias dapat berasal dari rentang alamat IPv4 utama subnet atau salah satu rentang alamat IPv4 sekundernya.
  • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC VM penerima stack ganda. Rentang IPv6 VM dapat berasal dari rentang subnet IPv6 berikut:
  • Alamat IPv4 internal dari aturan penerusan yang digunakan oleh protokol internal yang diteruskan ke VM penerima atau Load Balancer Jaringan passthrough internal, di mana VM penerima merupakan backend load balancer. Alamat IPv4 aturan penerusan internal berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv6 internal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol internal ke VM penerima atau Load Balancer Jaringan passthrough internal, dengan VM penerima adalah backend dari load balancer. Alamat IPv6 aturan penerusan internal berasal dari rentang alamat IPv6 internal subnet.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke VM penerima atau Load Balancer Jaringan passthrough eksternal, dengan VM penerima adalah backend dari load balancer saat paket yang masuk dirutekan dalam jaringan VPC menggunakan salah satu rute yang tercantum sebelumnya di bagian ini. Alamat IPv6 aturan penerusan eksternal berasal dari rentang alamat IPv6 eksternal subnet.
  • Alamat IP dalam rentang tujuan rute statis kustom yang menggunakan VM penerima sebagai VM next hop (next-hop-instance atau next-hop-address).
  • Alamat IP dalam rentang tujuan rute statis kustom menggunakan next hop Load Balancer Jaringan passthrough internal (next-hop-ilb), jika VM penerima adalah backend untuk load balancer tersebut.

Traffic masuk ke tujuan di luar jaringan VPC

Google Cloud menerapkan pembatasan bandwidth berikut untuk paket masuk yang dikirim ke VM penerima menggunakan rute di luar jaringan VPC. Pembatasan bandwidth ini diterapkan satu per satu ke setiap VM penerima. Pembatasan bandwidth masuk yang diterapkan adalah salah satu dari hal berikut yang tercapai terlebih dahulu:

  • 1.800.000 paket per detik
  • 20 Gbps

Tujuan untuk paket yang dirutekan menggunakan rute di luar jaringan VPC meliputi:

  • Alamat IPv4 eksternal yang ditetapkan dalam konfigurasi akses NAT one-to-one pada salah satu antarmuka jaringan (NIC) VM penerima.
  • Alamat IPv6 eksternal dari rentang alamat IPv6 /96 yang ditetapkan ke NIC VM penerima stack ganda saat paket masuk dirutekan menggunakan rute di luar jaringan VPC VM penerima.
  • Alamat IPv4 eksternal dari aturan penerusan yang digunakan oleh protokol eksternal yang diteruskan ke VM penerima atau Load Balancer Jaringan passthrough eksternal, tempat VM penerima merupakan backend load balancer.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke VM penerima atau Load Balancer Jaringan passthrough eksternal, dengan VM penerima adalah backend dari load balancer saat paket yang masuk dirutekan menggunakan rute di luar jaringan VPC.
  • Respons masuk yang ditetapkan yang diproses oleh Cloud NAT

Bingkai Jumbo

Untuk menerima dan mengirim bingkai jumbo, konfigurasi jaringan VPC yang digunakan oleh VM Anda; tetapkan unit transmisi maksimum (MTU) ke nilai yang lebih besar, hingga 8896.

Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.

Untuk menggunakan bingkai jumbo dengan driver gVNIC, Anda harus menggunakan driver versi 1.3 atau yang lebih baru. Tidak semua image publik Google Cloud menyertakan versi driver ini. Untuk mengetahui informasi selengkapnya tentang dukungan sistem operasi untuk bingkai jumbo, lihat tab Networking features di halaman Operating system details. Versi image yang menunjukkan dukungan penuh untuk bingkai jumbo mencakup driver gVNIC yang telah diupdate, meskipun OS tamu menampilkan versi driver gve sebagai 1.0.0.

Jika menggunakan OS image yang tidak memiliki dukungan penuh untuk bingkai jumbo, Anda dapat menginstal driver gVNIC versi v1.3.0 atau yang lebih baru secara manual. Google menyarankan penginstalan versi driver gVNIC yang ditandai Latest untuk mendapatkan manfaat dari fitur tambahan dan perbaikan bug. Anda dapat mendownload driver gVNIC dari GitHub.

Untuk mengupdate versi driver gVNIC secara manual di OS tamu, lihat Penggunaan pada sistem operasi yang tidak didukung.

Menerima dan mengirim antrean

Setiap NIC VM diberi sejumlah antrean terima dan kirim untuk memproses paket dari jaringan.

  • Receive Queue (RX): Antrean untuk menerima paket. Saat NIC menerima paket dari jaringan, NIC memilih deskripsi untuk paket masuk dari antrean, memprosesnya, dan menyerahkan paket tersebut ke OS tamu melalui antrean paket yang terpasang ke core vCPU melalui interupsi. Jika antrean RX penuh dan tidak ada buffer yang tersedia untuk menempatkan paket, paket akan dihapus. Hal ini biasanya dapat terjadi jika aplikasi terlalu menggunakan core vCPU yang juga terpasang ke antrean paket yang dipilih.
  • Transmit Queue (TX): Antrean untuk mengirimkan paket. Saat OS tamu mengirim paket, deskriptor dialokasikan dan ditempatkan dalam antrean TX. NIC kemudian memproses deskripsi dan mengirimkan paket.

Alokasi antrean default

Kecuali jika Anda secara eksplisit menetapkan jumlah antrean untuk NIC, Anda dapat membuat model algoritma yang digunakan Google Cloud untuk menetapkan jumlah antrean RX dan TX tetap per NIC dengan cara berikut:

  1. Gunakan salah satu metode berikut, bergantung pada jenis antarmuka jaringan Anda:

    • VirtIO: Bagi jumlah vCPU dengan jumlah NIC, dan hapus sisanya —[number of vCPUs/number of NICs].
    • gVNIC: Bagi jumlah vCPU dengan jumlah NIC, lalu bagi hasilnya dengan 2 dan hapus sisanya — [number of vCPUs/number of NICs/2].

    Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan).

  2. Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap NIC.

  3. Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per NIC. Jumlah maksimum antrean per NIC bergantung pada jenis driver:

    • Menggunakan virtIO atau driver kustom, jumlah maksimum antrean per NIC adalah 32. Jika angka yang dihitung lebih besar dari 32, abaikan angka yang dihitung, dan tetapkan setiap antrean NIC 32.
    • Dengan menggunakan gVNIC, jumlah maksimum antrean per NIC adalah 16. Jika jumlah yang dihitung lebih besar dari 16, abaikan angka yang dihitung, dan tetapkan setiap antrean NIC 16.

Contoh berikut menunjukkan cara menghitung jumlah default antrean:

  • Jika VM menggunakan VirtIO dan memiliki 16 vCPU dan 4 NIC, jumlah yang dihitung adalah [16/4] = 4. Google Cloud menetapkan empat antrean ke tiap NIC.

  • Jika VM menggunakan gVNIC dan memiliki 128 vCPU dan dua NIC, jumlah yang dihitung adalah [128/2/2] = 32. Google Cloud menetapkan jumlah maksimum antrean per NIC pada setiap NIC. Google Cloud menetapkan antrean 16 per NIC.

Pada sistem Linux, Anda dapat menggunakan ethtool untuk mengonfigurasi NIC dengan antrean yang lebih sedikit daripada jumlah antrean yang ditetapkan Google Cloud per NIC.

Alokasi antrean kustom

Alih-alih menggunakan Alokasi antrean default, Anda dapat menetapkan jumlah antrean kustom (total RX dan TX) ke setiap NIC saat membuat VM baru dengan menggunakan Compute Engine API.

Jumlah antrean kustom yang Anda tentukan harus mematuhi aturan berikut:

  • Jumlah antrean minimum yang dapat Anda tetapkan per NIC adalah satu.

  • Jumlah antrean maksimum yang dapat Anda tetapkan adalah jumlah yang lebih rendah dari jumlah vCPU atau jumlah antrean maksimum per NIC, berdasarkan jenis driver:

    • Menggunakan virtIO atau driver kustom, jumlah antrean maksimum adalah 32.
    • Dengan menggunakan gVNIC, jumlah antrean maksimum adalah 16.
  • Jika Anda menetapkan jumlah antrean kustom ke semua NIC VM, jumlah penetapan perhitungan antrean harus kurang dari atau sama dengan jumlah vCPU yang ditetapkan ke instance VM.

Contoh

  • Jika VM memiliki 8 vCPU dan 3 NIC, jumlah antrean maksimum untuk VM adalah jumlah vCPU, atau 8. Anda dapat menetapkan 1 antrean ke nic0, 4 antrean ke nic1, dan 3 antrean ke nic2. Dalam contoh ini, Anda selanjutnya tidak dapat menetapkan 4 antrean ke nic2 sambil menyimpan dua penetapan antrean NIC lainnya karena jumlah antrean yang ditetapkan tidak boleh melebihi jumlah vCPU (8).

  • Jika VM memiliki 96 vCPU dan 2 NIC, Anda dapat menetapkan kedua NIC hingga 32 antrean masing-masing saat menggunakan driver virtIO, atau hingga 16 antrean masing-masing saat menggunakan driver gVNIC. Dalam contoh ini, jumlah antrean yang ditetapkan selalu kurang dari jumlah vCPU.

Anda juga dapat menetapkan jumlah antrean kustom untuk hanya beberapa NIC, sehingga Google Cloud dapat menetapkan antrean ke NIC yang tersisa. Jumlah antrean yang dapat Anda tetapkan per NIC masih tunduk pada aturan di atas. Anda dapat membuat model kelayakan konfigurasi, dan, jika konfigurasi tersebut memungkinkan, jumlah antrean yang ditetapkan Google Cloud ke NIC yang tersisa dengan proses ini:

  1. Hitung jumlah antrean untuk NIC menggunakan penetapan antrean kustom. Untuk contoh VM dengan 20 vCPU dan 6 NIC, misalnya Anda menetapkan nic0 5 antrean, nic1 6 antrean, nic2 4 antrean, dan membiarkan Google Cloud menetapkan antrean untuk nic3, nic4, dan nic5. Dalam contoh ini, jumlah antrean yang ditetapkan secara kustom adalah 5+6+4 = 15.

  2. Kurangi jumlah antrean yang ditetapkan secara kustom dengan jumlah vCPU. Jika selisihnya tidak setidaknya sama dengan jumlah NIC yang tersisa yang harus ditetapkan antrean oleh Google Cloud, Google Cloud akan menampilkan error. Melanjutkan contoh VM yang terdiri dari 20 vCPU dan jumlah 15 antrean yang ditetapkan secara kustom, Google Cloud memiliki 20-15 = 5 antrean tersisa untuk ditetapkan ke NIC lainnya (nic3, nic4, nic5).

  3. Bagi selisih dari langkah sebelumnya dengan jumlah NIC yang tersisa dan buang sisa —⌊(number of vCPUs - sum of assigned queues)/(number of remaining NICs)⌋. Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan) yang setidaknya sama dengan satu, karena batasan yang dijelaskan di langkah sebelumnya. Google Cloud akan menetapkan jumlah antrean setiap NIC yang tersisa yang cocok dengan jumlah yang dihitung selama jumlah yang dihitung tidak lebih besar dari jumlah maksimum antrean per NIC. Jumlah maksimum antrean per NIC bergantung pada jenis driver:

    • Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk setiap NIC yang tersisa lebih dari 32, Google Cloud akan menetapkan setiap antrean 32 NIC yang tersisa.
    • Dengan gVNIC, jika jumlah antrean yang dihitung untuk setiap NIC yang tersisa lebih dari 16, Google Cloud akan menetapkan setiap antrean 16 NIC yang tersisa.

API

Buat VM dengan jumlah antrean spesifik untuk NIC menggunakan metode instances.insert.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances
{
  "name": "VM_NAME",
  "machineType": "machineTypes/MACHINE_TYPE"
  "networkInterfaces": [
      {
        "network": string,
        "subnetwork": string,
        "networkIP": string,
        "name": string,
        "queueCount": "QUEUE_SIZE",
        ....
      ],
      } ],
 }
 

Ganti kode berikut:

  • PROJECT_ID: ID project tempat VM akan dibuat
  • ZONE: zona tempat pembuatan VM
  • MACHINE_TYPE: jenis mesin, bawaan atau kustom, untuk VM baru
  • VM_NAME: nama VM baru
  • QUEUE_SIZE: Jumlah antrean untuk NIC, tunduk pada aturan yang dibahas di bagian ini.

Mengantrekan alokasi dan mengubah jenis mesin

VM dibuat dengan alokasi antrean default, atau Anda dapat menetapkan jumlah antrean kustom untuk setiap kartu antarmuka jaringan virtual (vNIC) saat membuat VM baru dengan menggunakan Compute Engine API. Penetapan antrean vNIC default atau kustom hanya ditetapkan saat membuat VM. Jika VM memiliki vNIC yang menggunakan jumlah antrean default, Anda dapat mengubah jenis mesinnya. Jika jenis mesin yang Anda ganti memiliki jumlah vCPU yang berbeda, jumlah antrean default untuk VM Anda akan dihitung ulang berdasarkan jenis mesin baru.

Jika VM Anda memiliki vNIC yang menggunakan jumlah antrean non-default kustom, Anda dapat mengubah jenis mesin menggunakan Google Cloud CLI atau Compute Engine API untuk mengupdate properti instance. Konversi berhasil jika VM yang dihasilkan mendukung jumlah antrean yang sama per vNIC dengan VM asli. Untuk VM yang menggunakan antarmuka VirtIO-Net dan memiliki jumlah antrean kustom lebih dari 16 per vNIC, Anda tidak dapat mengubah jenis mesin menjadi jenis mesin generasi ketiga yang hanya menggunakan gVNIC. Sebagai gantinya, Anda dapat memigrasikan VM ke jenis mesin generasi ketiga dengan mengikuti petunjuk di Memigrasikan workload dari VM yang ada ke VM baru.

Langkah berikutnya