Dokumen ini menunjukkan cara mengonfigurasi Kebijakan penyimpanan VM untuk cluster Google Distributed Cloud.
Ringkasan
Di vSphere, Pengelolaan Berbasis Kebijakan Penyimpanan (SPBM) membantu menyelaraskan penyimpanan dengan permintaan aplikasi untuk mesin virtual. Ini memberikan framework kebijakan penyimpanan yang berfungsi sebagai kontrol terpadu tunggal panel di berbagai layanan data dan solusi penyimpanan.
Di Google Distributed Cloud, Anda dapat menentukan kebijakan penyimpanan sebagai alternatif untuk menentukan datastores. Anda menentukan kebijakan penyimpanan berdasarkan persyaratan aplikasi Anda, kemudian vSphere memilih dan mengelola datastore secara otomatis. Hal ini dapat mengurangi overhead dan pemeliharaan yang terkait dengan penyimpanan.
Pewarisan
Anda dapat menentukan kebijakan penyimpanan untuk cluster pengguna, kumpulan node pada pengguna cluster, atau kumpulan node bidang kontrol dalam cluster pengguna. Anda juga dapat menentukan kebijakan penyimpanan untuk cluster admin, asalkan cluster admin memiliki bidang kontrol ketersediaan tinggi dan tidak memiliki kumpulan node Windows.
Jika Anda menentukan kebijakan penyimpanan untuk cluster pengguna, kebijakan tersebut akan diwariskan oleh kumpulan node di cluster pengguna. Jika Anda menentukan kebijakan penyimpanan untuk kumpulan node individual, kebijakan tersebut yang digunakan, bukan penyimpanan level cluster lebih lanjut. Demikian pula, jika Anda menentukan datastore untuk masing-masing kumpulan node, menggunakan datastore, bukan kebijakan penyimpanan tingkat cluster.
Dalam cluster pengguna yang mengaktifkan Controlplane V2, penyimpanan tingkat cluster kebijakan diwarisi oleh node bidang kontrol. Jika Anda menentukan kebijakan penyimpanan atau {i>datastore<i} untuk node bidang kontrol, kebijakan penyimpanan atau {i>datastore<i} itu yang digunakan, bukan kebijakan penyimpanan tingkat cluster.
Menerapkan kebijakan penyimpanan ke {i>datastore<i}
Anda dapat menerapkan kebijakan penyimpanan ke satu datastore atau beberapa datastore. Jika Anda menerapkan kebijakan penyimpanan ke beberapa datastore, maka resource penyimpanan untuk cluster admin, cluster pengguna, atau kumpulan node dapat tersebar di antara datastore.
Contoh: Membuat kebijakan penyimpanan dan cluster pengguna
Bagian ini memberikan contoh pembuatan kebijakan penyimpanan dan cluster pengguna. Ini contoh menggambarkan gagasan bahwa suatu kebijakan penyimpanan dapat diterapkan ke dua {i>datastore<i}.
Menerapkan tag ke datastore
Untuk melakukan langkah-langkah dalam contoh ini, lingkungan vSphere Anda harus memiliki minimal dua datastores.
Tujuan Gugus vSphere yang akan menghosting node untuk cluster pengguna Anda harus memiliki akses ke {i>datastore<i} yang akan Anda gunakan untuk latihan ini. Ada pemeriksaan preflight yang memverifikasi hal ini.
Akun vCenter yang Anda gunakan untuk menerapkan tag harus memiliki hal berikut Hak istimewa pemberian tag vSphere hak istimewa di Server vCenter root:
- Pemberian Tag vSphere.Buat Tag vSphere
- vSphere Tagging.Create vSphere Kategori Tag
- vSphere Tagging.Tetapkan atau Batalkan Penetapan Tag vSphere
Di Klien vSphere, tetapkan tag yang sama untuk setiap datastore yang yang dipilih untuk digunakan dalam latihan ini. Untuk mengetahui petunjuknya, lihat Menetapkan Tag ke Datastore.
Untuk informasi tambahan, lihat Tag dan Atribut vSphere.
Membuat kebijakan penyimpanan
Di vSphere Client, buat kebijakan penyimpanan VM untuk penempatan berbasis tag. Dalam kebijakan penyimpanan, tentukan tag yang Anda terapkan ke datastore. Untuk mengetahui petunjuknya, lihat Buat kebijakan penyimpanan VM untuk Penempatan Berbasis Tag.
Untuk informasi tambahan, lihat Kebijakan penyimpanan VM.
Jika Anda menggunakan datastore vSAN, lihat kebijakan penyimpanan vSAN.
Membuat cluster pengguna
Dalam latihan ini, Anda akan membuat cluster pengguna yang memiliki kontrol ketersediaan tinggi bidang kontrol, sehingga ada tiga node bidang kontrol. Selain bidang kontrol ada enam worker node, tiga dalam satu kumpulan node dan tiga node dalam satu detik kumpulan node. Semua node menggunakan alamat IP statis.
Mulailah dengan mengikuti petunjuk di Buat cluster pengguna.
Saat Anda mengisi file konfigurasi cluster pengguna:
Setel nilai
vCenter.storagePolicyName
ke nama yang sudah ada Google Cloud Storage. Jangan tetapkan nilai untukvCenter.datastore
.Tentukan dua kumpulan node. Untuk kumpulan node pertama, jangan tentukan datastore, dan tidak menetapkan kebijakan penyimpanan. Untuk kumpulan node kedua, tetapkan nilai dari
vsphere.datastore
menjadi nama datastore yang ada.
Contoh file konfigurasi cluster
Berikut adalah contoh file blok IP dan sebagian dari cluster pengguna file konfigurasi Anda.
user-ipblock.yaml
blocks: - netmask: 255.255.255.0 gateway: 172.16.21.1 ips: - ip: 172.16.21.2 - ip: 172.16.21.3 - ip: 172.16.21.4 - ip: 172.16.21.5 - ip: 172.16.21.6 - ip: 172.16.21.7 - ip: 172.16.21.8
cluster-pengguna-yaml
apiVersion: v1 kind: UserCluster ... vCenter: storagePolicyName: "my-storage-policy" network: hostConfig: dnsServers: - "203.0.113.2" - "198.51.100.2" ntpServers: - "216.239.35.4" ipMode: type: "static" ipBlockFilePath: "user-ipblock.yaml" controlPlaneIPBlock: netmask: "255.255.255.0" gateway: "172.16.21.1" ips: - ip: "172.16.21.9" hostname: "cp-vm-1" - ip: "172.16.21.10" hostname: "cp-vm-2" - ip: "172.16.21.11" hostname: "cp-vm-3" loadBalancer: vips: controlPlaneVIP: "172.16.21.40" ingressVIP: "172.16.21.30" kind: MetalLB metalLB: addressPools: - name: "address-pool-1" addresses: - "172.16.21.30-172.16.21.39" ... enableControlplaneV2: true masterNode: cpus: 4 memoryMB: 8192 replicas: 3 nodePools: - name: "worker-pool-1" enableLoadBalancer: true - name: "worker-pool-2" vSphere: datastore: "my-np2-datastore" ...
Berikut adalah hal-hal penting yang perlu dipahami dalam contoh sebelumnya:
Alamat IP statis untuk worker node ditentukan dalam blok IP . File blok IP memiliki tujuh alamat meskipun hanya ada enam node pekerja. Alamat IP tambahan diperlukan selama upgrade, update, dan perbaikan mobil.
Alamat IP statis untuk tiga node bidang kontrol ditetapkan dalam Bagian
network.controlPlaneIPBlock
dari file konfigurasi cluster pengguna. Tidak diperlukan alamat IP tambahan dalam blok ini.Kolom
masterNode.replicas
disetel ke3
sehingga akan ada tiga node bidang kontrol. Di bagianmasterNode
, tidak ada yang ditentukan untukvsphere.datastore
atauvsphere.storagePolicyName
. Jadi, node bidang kontrol akan menggunakan kebijakan penyimpanan yang ditentukan dalamvCenter.storagePolicyName
.File konfigurasi cluster pengguna menyertakan nilai untuk
vCenter.storagePolicy
, tetapi tidak menyertakan nilai untukvCenter.datastore
. Kebijakan penyimpanan yang ditentukan akan digunakan oleh node dalam yang tidak menentukan kebijakan penyimpanannya sendiri atau datastore-nya sendiri.Di bagian
node-pool-1
, tidak ada yang ditentukan untukvsphere.datastore
atauvsphere.storagePolicyName
. Jadi, node dalamnode-pool-1
akan menggunakan atribut kebijakan penyimpanan yang ditentukan dalamvCenter.storagePolicyName
.Di bagian
node-pool-2
, nilaivsphere.datastore
adalahmy-np2-datastore
, Jadi, node dinode-pool-2
menggunakan satu datastore tersebut, dan jangan menggunakannya membuat kebijakan penyimpanan.
Lanjutkan pembuatan cluster pengguna seperti yang dijelaskan di Buat cluster pengguna.
Membuat cluster pengguna di pusat data yang terpisah dari cluster admin
Cluster pengguna dapat berada di pusat data dari cluster admin. Kedua pusat data dapat menggunakan instance yang sama Server vCenter atau beberapa instance dari Server vCenter yang berbeda.
Bagian ini memberikan contoh cara membuat cluster pengguna yang menggunakan instance terpisah dari Server vCenter dari cluster admin. Karena pengguna dan cluster admin menggunakan instance Server vCenter terpisah, mereka juga berada pusat data yang terpisah.
Mulailah dengan mengikuti petunjuk di Buat cluster pengguna.
Saat Anda mengisi file konfigurasi cluster pengguna:
Setel nilai
vCenter.storagePolicyName
ke nama yang sudah ada Google Cloud Storage. Jangan tetapkan nilai untukvCenter.datastore
.Di bagian
vCenter
, tentukan nilai untukaddress
,datacenter
,cluster
, danresourcePool
.Tentukan nilai untuk
network.vCenter.networkName
.Tentukan dua kumpulan node. Untuk kumpulan node pertama, jangan tentukan datastore, dan tidak menetapkan kebijakan penyimpanan. Untuk kumpulan node kedua, tetapkan nilai dari
vsphere.datastore
menjadi nama datastore yang ada.
Contoh file konfigurasi cluster
Berikut adalah contoh file blok IP dan sebagian dari cluster pengguna file konfigurasi Anda.
user-ipblock.yaml
blocks: - netmask: 255.255.255.0 gateway: 172.16.21.1 ips: - ip: 172.16.21.2 - ip: 172.16.21.3 - ip: 172.16.21.4 - ip: 172.16.21.5 - ip: 172.16.21.6 - ip: 172.16.21.7 - ip: 172.16.21.8
cluster-pengguna-yaml
apiVersion: v1 kind: UserCluster ... vCenter: address: "my-vcenter-server-2.my-domain.example" datacenter: "my-uc-data-center" cluster: "my-uc-vsphere-cluster" resourcePool: "my-uc-resource-pool" storagePolicyName: "my-storage-policy" network: vCenter: networkName: "my-uc-network" hostConfig: dnsServers: - "203.0.113.2" - "198.51.100.2" ntpServers: - "216.239.35.4" ipMode: type: "static" ipBlockFilePath: "user-ipblock.yaml" controlPlaneIPBlock: netmask: "255.255.255.0" gateway: "172.16.21.1" ips: - ip: "172.16.21.9" hostname: "cp-vm-1" - ip: "172.16.21.10" hostname: "cp-vm-2" - ip: "172.16.21.11" hostname: "cp-vm-3" loadBalancer: vips: controlPlaneVIP: "172.16.21.40" ingressVIP: "172.16.21.30" kind: MetalLB metalLB: addressPools: - name: "address-pool-1" addresses: - "172.16.21.30-172.16.21.39" ... enableControlplaneV2: true masterNode: cpus: 4 memoryMB: 8192 replicas: 3 nodePools: - name: "worker-pool-1" enableLoadBalancer: true - name: "worker-pool-2" vSphere: datastore: "my-np2-datastore" ...
Berikut adalah hal-hal penting yang perlu dipahami dalam contoh sebelumnya:
File konfigurasi cluster pengguna menyertakan nilai untuk
vCenter.storagePolicy
, tetapi tidak menyertakan nilai untukvCenter.datastore
. Kebijakan penyimpanan yang ditentukan akan digunakan oleh node dalam kumpulan node yang tidak menentukan kebijakan penyimpanannya sendiri atau datastore-nya sendiri.Di bagian
vCenter
, ada nilai yang ditentukan untukaddress
,datacenter
,cluster
, danresourcePool
. Jadi, cluster pengguna akan menggunakan vCenter Server, pusat data, cluster vSphere, dan kumpulan resource dari admin .Ada nilai yang ditentukan untuk
network.vCenter.networkName
.Kolom
masterNode.replicas
disetel ke3
sehingga akan ada tiga node bidang kontrol. Di bagianmasterNode
, tidak ada yang ditentukan untukvsphere.datastore
atauvsphere.storagePolicyName
. Jadi, node bidang kontrol akan menggunakan kebijakan penyimpanan yang ditentukan dalamvCenter.storagePolicyName
.Di bagian
node-pool-1
, tidak ada yang ditentukan untukvsphere.datastore
atauvsphere.storagePolicyName
. Jadi, node dalamnode-pool-1
akan menggunakan atribut kebijakan penyimpanan yang ditentukan dalamvCenter.storagePolicyName
.Di bagian
node-pool-2
, nilaivsphere.datastore
adalahmy-np2-datastore
, Jadi, node dinode-pool-2
menggunakan satu datastore tersebut, dan jangan menggunakannya membuat kebijakan penyimpanan.
Lanjutkan pembuatan cluster pengguna seperti yang dijelaskan di Buat cluster pengguna.
Menggunakan vMotion penyimpanan
Bagian ini menunjukkan cara menggunakan vMotion penyimpanan dalam cluster yang menggunakan SPBM. Jika ingin menggunakan vMotion penyimpanan dalam cluster yang tidak menggunakan SPBM, lihat Menggunakan alat migrasi datastore.
Ikuti langkah-langkah berikut:
Migrasikan semua VM cluster ke datastore target. Untuk mengetahui petunjuknya, lihat Memigrasikan Mesin Virtual ke Resource Komputasi dan Penyimpanan Baru.
Pastikan VM telah berhasil dimigrasikan ke datastore baru.
Dapatkan objek Machine di cluster:
kubectl --kubeconfig CLUSTER_KUBECONFIG get machines --output yaml
Dalam output, di bagian
status.disks
, Anda dapat melihat disk yang terpasang ke atau VM. Contoh:status: addresses: – address: 172.16.20.2 type: ExternalIP disks: – bootdisk: true datastore: pf-ds06 filepath: ci-bluecwang-head-xvz2ccv28bf9wdbx-2/ci-bluecwang-head-xvz2ccv28bf9wdbx-2.vmdk uuid: 6000C29d-8edb-e742-babc-9c124013ba54 – datastore: pf-ds06 filepath: anthos/gke-admin-nc4rk/ci-bluecwang-head/ci-bluecwang-head-2-data.vmdk uuid: 6000C29e-cb12-8ffd-1aed-27f0438bb9d9
Verifikasi bahwa semua {i>disk<i} dari semua komputer di cluster telah yang dimigrasikan ke datastore target.
Jalankan
gkectl diagnose
untuk memastikan cluster responsif.Perbarui kebijakan penyimpanan untuk mengecualikan datastore lama. Jika tidak, baru volume dan VM yang dibuat ulang mungkin ditempatkan ke datastore lama.