VLAN dan subnet di VMware Engine

Google Cloud VMware Engine membuat jaringan per region tempat layanan VMware Engine Anda di-deploy. Jaringan ini adalah satu ruang alamat TCP Layer 3 dengan perutean yang diaktifkan secara default. Semua cloud dan subnet pribadi yang dibuat di region ini dapat berkomunikasi satu sama lain tanpa konfigurasi tambahan. Anda dapat membuat segmen jaringan (subnet) menggunakan NSX-T untuk virtual machine (VM) beban kerja.

VLAN dan subnet.

VLAN Pengelolaan

Google membuat VLAN (jaringan Lapisan 2) untuk setiap cloud pribadi. Traffic Lapisan 2 tetap berada dalam batas cloud pribadi, sehingga Anda dapat mengisolasi traffic lokal dalam cloud pribadi. VLAN ini digunakan untuk jaringan pengelolaan. Untuk VM beban kerja, Anda harus membuat segmen jaringan di NSX-T Manager untuk cloud pribadi Anda.

Subnet

Anda harus membuat segmen jaringan di pengelola NSX-T untuk cloud pribadi Anda. Satu ruang alamat Layer 3 pribadi ditetapkan per pelanggan dan region. Anda dapat mengonfigurasi rentang alamat IP yang tidak tumpang-tindih dengan jaringan lain di cloud pribadi, jaringan lokal, jaringan pengelolaan cloud pribadi, atau rentang alamat IP subnet di jaringan Virtual Private Cloud (VPC) Anda. Untuk mengetahui perincian mendetail tentang cara VMware Engine mengalokasikan rentang alamat IP subnet, lihat Persyaratan jaringan.

Semua subnet dapat saling berkomunikasi secara default, sehingga mengurangi overhead konfigurasi untuk perutean antar-cloud pribadi. Data east-west di seluruh cloud pribadi di region yang sama tetap berada di jaringan Lapisan 3 yang sama dan ditransfer melalui infrastruktur jaringan lokal dalam region tersebut. Tidak ada traffic keluar yang diperlukan untuk komunikasi antar-cloud pribadi di suatu region. Pendekatan ini menghilangkan penalti performa WAN/eksekusi dalam men-deploy berbagai beban kerja di cloud pribadi yang berbeda dari project yang sama.

Subnet pengelolaan yang dibuat di cloud pribadi

Saat Anda membuat cloud pribadi, VMware Engine akan membuat subnet manajemen berikut:

  • Pengelolaan sistem: VLAN dan subnet untuk jaringan pengelolaan host ESXi, server DNS, vCenter Server
  • VMotion: VLAN dan subnet untuk jaringan vMotion host ESXi
  • VSAN: VLAN dan subnet untuk jaringan vSAN host ESXi
  • NsxtEdgeUplink1: VLAN dan subnet untuk uplink VLAN ke jaringan eksternal
  • NsxtEdgeUplink2: VLAN dan subnet untuk uplink VLAN ke jaringan eksternal
  • HCXUplink: Digunakan oleh appliance HCX IX (mobilitas) dan NE (ekstensi) untuk menjangkau peer-nya dan memungkinkan pembuatan HCX Service Mesh.
  • NsxtHostTransport: VLAN dan subnet untuk zona transpor host

Rentang CIDR jaringan deployment HCX

Saat Anda membuat cloud pribadi di VMware Engine, HCX akan otomatis diinstal di cloud pribadi. Anda dapat menentukan rentang CIDR jaringan untuk digunakan oleh komponen HCX. Awalan rentang CIDR harus /26 atau /27.

Jaringan yang disediakan dibagi menjadi tiga subnet. Pengelola HCX diinstal di subnet pengelolaan HCX. Subnet HCX vMotion digunakan untuk vMotion VM antara lingkungan lokal dan cloud pribadi VMware Engine. Subnet HCX WANUplink digunakan untuk membuat tunnel antara lingkungan lokal dan cloud pribadi VMware Engine.

Subnet layanan

Saat Anda membuat cloud pribadi, VMware Engine akan otomatis membuat subnet layanan tambahan. Anda dapat menargetkan subnet layanan untuk skenario deployment layanan atau appliance, seperti penyimpanan, pencadangan, disaster recovery (DR), streaming media, dan menyediakan throughput linear skala tinggi serta pemrosesan paket bahkan untuk cloud pribadi berskala terbesar. Nama subnet layanan adalah sebagai berikut:

  • service-1
  • service-2
  • service-3
  • service-4
  • service-5

Komunikasi Virtual Machine di seluruh subnet layanan keluar dari host VMware ESXi langsung ke infrastruktur jaringan Google Cloud, sehingga memungkinkan komunikasi berkecepatan tinggi.

Mengonfigurasi subnet layanan

Saat membuat subnet layanan, VMware Engine tidak mengalokasikan rentang atau awalan CIDR. Anda harus menentukan rentang dan awalan CIDR yang tidak tumpang-tindih. Alamat pertama yang dapat digunakan akan menjadi alamat gateway. Untuk mengalokasikan rentang dan awalan CIDR, edit salah satu subnet layanan.

Subnet layanan dapat diperbarui jika persyaratan CIDR berubah. Perubahan CIDR subnet layanan yang ada dapat menyebabkan gangguan ketersediaan jaringan untuk VM yang dilampirkan ke subnet layanan tersebut.

Mengonfigurasi grup port terdistribusi vSphere

Untuk menghubungkan VM ke subnet layanan, Anda perlu membuat Grup Port Terdistribusi baru. Grup ini memetakan ID subnet layanan ke nama jaringan dalam cloud pribadi vCenter.

Untuk melakukannya, buka bagian konfigurasi jaringan di antarmuka vCenter, pilih Datacenter-dvs, lalu pilih New Distributed Port Group.

Setelah grup port terdistribusi dibuat, Anda dapat melampirkan VM dengan memilih nama yang sesuai di konfigurasi jaringan properti VM.

Berikut adalah nilai konfigurasi penting Grup Port Terdistribusi:

  • Binding port: binding statis
  • Alokasi port: elastis
  • Jumlah port: 120
  • Jenis VLAN: VLAN
  • ID VLAN: ID subnet yang sesuai dalam bagian subnet di antarmuka Google Cloud VMware Engine

Unit transmisi maksimum (MTU) adalah ukuran paket terbesar dalam byte yang didukung oleh protokol lapisan jaringan, termasuk header dan data. Untuk menghindari masalah terkait fragmentasi, sebaiknya gunakan setelan MTU berikut.

Untuk VM yang hanya berkomunikasi dengan endpoint lain dalam cloud pribadi, Anda dapat menggunakan setelan MTU hingga 8.800 byte.

Untuk VM yang berkomunikasi ke atau dari cloud pribadi tanpa enkapsulasi, gunakan setelan MTU 1.500 byte standar. Setelan default umum ini berlaku untuk antarmuka VM yang mengirim traffic dengan cara berikut:

  • Dari VM di cloud pribadi ke VM di cloud pribadi lain
  • Dari endpoint lokal ke cloud pribadi
  • Dari VM di cloud pribadi ke endpoint lokal
  • Dari internet ke cloud pribadi
  • Dari VM di cloud pribadi ke internet

Untuk VM yang berkomunikasi ke atau dari cloud pribadi dengan enkapsulasi, hitung setelan MTU terbaik berdasarkan konfigurasi endpoint VPN. Hal ini umumnya menghasilkan setelan MTU 1350–1390 byte atau lebih rendah untuk antarmuka VM yang mengirim traffic dengan cara berikut:

  • Dari endpoint lokal ke cloud pribadi dengan enkapsulasi
  • Dari VM cloud pribadi ke endpoint lokal dengan enkapsulasi
  • Dari VM di satu cloud pribadi ke VM di cloud pribadi lain dengan enkapsulasi

Rekomendasi ini sangat penting jika aplikasi tidak dapat mengontrol ukuran payload maksimum. Untuk panduan tambahan tentang menghitung overhead enkapsulasi, lihat referensi berikut: