Dokumen ini menjelaskan sole-tenant node. Untuk mengetahui informasi tentang cara menyediakan VM di sole-tenant node, lihat Menyediakan VM di sole-tenant node.
Sole-tenancy memungkinkan Anda memiliki akses eksklusif ke sole-tenant node, yang merupakan server Compute Engine fisik yang khusus menangani VM project Anda. Gunakan sole-tenant node agar VM Anda tetap terpisah secara fisik dengan VM di project lain, atau untuk mengelompokkan VM Anda di hardware host yang sama, seperti yang ditunjukkan pada diagram berikut. Anda juga dapat membuat grup node tenant tunggal dan menentukan apakah Anda ingin membagikannya ke project lain atau dengan seluruh organisasi.
VM yang berjalan di sole-tenant node dapat menggunakan fitur Compute Engine yang sama dengan VM lainnya, termasuk penjadwalan transparan dan block storage, tetapi dengan lapisan isolasi hardware tambahan. Untuk memberi Anda kontrol penuh atas VM di server fisik, setiap sole-tenant node mempertahankan pemetaan one-to-one ke server fisik yang mendukung node.
Dalam sole-tenant node, Anda dapat menyediakan beberapa VM pada jenis mesin dengan berbagai ukuran, sehingga Anda dapat menggunakan resource dasar dari hardware host khusus secara efisien. Selain itu, jika memilih untuk tidak berbagi hardware host dengan project lain, Anda dapat memenuhi persyaratan keamanan atau kepatuhan dengan workload yang memerlukan isolasi fisik dari workload atau VM lain. Jika workload Anda hanya memerlukan sole tenancy untuk sementara, Anda dapat mengubah tenancy VM sesuai kebutuhan.
Sole-tenant node dapat membantu Anda memenuhi persyaratan hardware khusus untuk skenario bring your own license (BYOL) yang memerlukan lisensi per core atau per pemroses. Saat menggunakan sole-tenant node, Anda memiliki visibilitas ke hardware pokok, yang memungkinkan Anda melacak penggunaan inti dan prosesor. Untuk melacak penggunaan ini, Compute Engine melaporkan ID server fisik tempat VM dijadwalkan. Kemudian, dengan menggunakan Cloud Logging, Anda dapat melihat penggunaan server VM secara historis.
Untuk mengoptimalkan penggunaan hardware host, Anda dapat melakukan hal berikut:
Melalui kebijakan pemeliharaan host yang dapat dikonfigurasi, Anda dapat mengontrol perilaku VM sole-tenant saat host-nya sedang menjalani pemeliharaan. Anda dapat menentukan kapan pemeliharaan terjadi, dan apakah VM mempertahankan afinitas dengan server fisik tertentu atau dipindahkan ke sole-tenant node lainnya dalam grup node.
Pertimbangan workload
Jenis workload berikut mungkin akan mendapatkan manfaat dari penggunaan sole-tenant node:
Workload game dengan persyaratan performa.
Workload keuangan atau layanan kesehatan dengan persyaratan keamanan dan kepatuhan.
Workload Windows dengan persyaratan pemberian lisensi.
Machine learning, pemrosesan data, atau beban kerja rendering gambar. Untuk workload ini, pertimbangkan untuk memesan GPU.
Workload yang memerlukan peningkatan operasi input/output per detik (IOPS) dan penurunan latensi, atau workload yang menggunakan penyimpanan sementara dalam bentuk cache, ruang pemrosesan, atau data bernilai rendah. Untuk workload ini, pertimbangkan untuk memesan SSD Lokal.
Template node
Template node adalah resource regional yang menentukan properti setiap node dalam sebuah grup node. Saat Anda membuat grup node dari template node, properti template node tidak dapat diubah ke setiap node dalam grup node tersebut.
Saat membuat template node, Anda harus menentukan jenis node. Secara opsional, Anda dapat menentukan label afinitas node saat membuat template node. Anda hanya dapat menentukan label afinitas node pada template node. Anda tidak dapat menentukan label afinitas node pada grup node.
Jenis node
Saat mengonfigurasi template node, tentukan jenis node yang akan diterapkan ke semua node
dalam grup node yang dibuat berdasarkan template node. Jenis sole-tenant node, yang dirujuk oleh template node, menentukan jumlah total inti vCPU dan memori untuk node yang dibuat dalam grup node yang menggunakan template tersebut. Misalnya, jenis node n2-node-80-640
memiliki 80 vCPU dan memori 640 GB.
VM yang Anda tambahkan ke sole-tenant node harus memiliki jenis mesin yang sama dengan jenis node yang Anda tentukan di template node. Misalnya, jenis sole-tenant node n2
hanya kompatibel dengan VM yang dibuat dengan jenis mesin n2
. Anda dapat menambahkan VM ke sole-tenant node hingga jumlah total vCPU atau memori melebihi kapasitas node.
Saat Anda membuat grup node menggunakan template node, setiap node dalam grup node akan mewarisi spesifikasi jenis node template node. Jenis node berlaku untuk
setiap node individual dalam grup node, bukan untuk semua node dalam grup
secara seragam. Jadi, jika Anda membuat grup node dengan dua node yang merupakan jenis node n2-node-80-640
, setiap node akan diberi 80 vCPU dan memori 640 GB.
Bergantung pada persyaratan workload, Anda dapat mengisi node dengan beberapa VM kecil yang berjalan pada jenis mesin dengan berbagai ukuran, termasuk jenis mesin yang telah ditetapkan, jenis mesin kustom, dan jenis mesin dengan memori yang diperluas. Jika node penuh, Anda tidak dapat menjadwalkan VM tambahan di node tersebut.
Tabel berikut menampilkan jenis node yang tersedia. Untuk melihat daftar jenis node yang tersedia untuk project Anda, jalankan perintah gcloud compute sole-tenancy
node-types list
atau buat permintaan REST nodeTypes.list
.
Jenis node | Pemroses | vCPU | GB | vCPU:GB | Soket | Cores:Socket | Total inti |
---|---|---|---|---|---|---|---|
c2-node-60-240 |
Cascade Lake | 60 | 240 | 1:4 | 2 | 18 | 36 |
c3-node-176-352 |
Sapphire Rapids | 176 | 352 | 1:2 | 2 | 48 | 96 |
c3-node-176-704 |
Sapphire Rapids | 176 | 704 | 1:4 | 2 | 48 | 96 |
c3-node-176-1408 |
Sapphire Rapids | 176 | 1408 | 1:8 | 2 | 48 | 96 |
c3d-node-360-708 |
AMD EPYC Genoa | 360 | 708 | 1:2 | 2 | 96 | 192 |
c3d-node-360-1440 |
AMD EPYC Genoa | 360 | 1440 | 1:4 | 2 | 96 | 192 |
c3d-node-360-2880 |
AMD EPYC Genoa | 360 | 2880 | 1:8 | 2 | 96 | 192 |
c4-node-192-384 |
Emerald Rapids | 192 | 384 | 1:2 | 2 | 52 | 104 |
c4-node-192-720 |
Emerald Rapids | 192 | 720 | 1:3,75 | 2 | 52 | 104 |
c4-node-192-1488 |
Emerald Rapids | 192 | 1.488 | 1:7,75 | 2 | 52 | 104 |
c4a-node-72-144 |
Google Axion | 72 | 144 | 1:2 | 2 | 1 | 72 |
c4a-node-72-288 |
Google Axion | 72 | 288 | 1:4 | 2 | 1 | 72 |
c4a-node-72-576 |
Google Axion | 72 | 576 | 1:8 | 2 | 1 | 72 |
g2-node-96-384 |
Cascade Lake | 96 | 384 | 1:4 | 2 | 28 | 56 |
g2-node-96-432 |
Cascade Lake | 96 | 432 | 1:4.5 | 2 | 28 | 56 |
h3-node-88-352 |
Sapphire Rapids | 88 | 352 | 1:4 | 2 | 48 | 96 |
m1-node-96-1433 |
Skylake | 96 | 1433 | 1:14,93 | 2 | 28 | 56 |
m1-node-160-3844 |
Broadwell E7 | 160 | 3844 | 1:24 | 4 | 22 | 88 |
m2-node-416-8832 |
Cascade Lake | 416 | 8832 | 1:21.23 | 8 | 28 | 224 |
m2-node-416-11776 |
Cascade Lake | 416 | 11776 | 1:28.31 | 8 | 28 | 224 |
m3-node-128-1952 |
Ice Lake | 128 | 1952 | 1:15.25 | 2 | 36 | 72 |
m3-node-128-3904 |
Ice Lake | 128 | 3904 | 1:30.5 | 2 | 36 | 72 |
n1-node-96-624 |
Skylake | 96 | 624 | 1:6.5 | 2 | 28 | 56 |
n2-node-80-640 |
Cascade Lake | 80 | 640 | 1:8 | 2 | 24 | 48 |
n2-node-128-864 |
Ice Lake | 128 | 864 | 1:6.75 | 2 | 36 | 72 |
n2d-node-224-896 |
AMD EPYC Rome | 224 | 896 | 1:4 | 2 | 64 | 128 |
n2d-node-224-1792 |
AMD EPYC Milan | 224 | 1792 | 1:8 | 2 | 64 | 128 |
Untuk mengetahui informasi tentang harga jenis node ini, lihat harga node tenant tunggal.
Semua node memungkinkan Anda menjadwalkan VM dengan berbagai bentuk. Jenis node n
adalah node dengan tujuan umum, yang dapat digunakan untuk menjadwalkan VM jenis mesin kustom. Untuk rekomendasi tentang jenis node yang harus dipilih, lihat Rekomendasi untuk jenis mesin.
Untuk mengetahui informasi tentang performa, lihat platform CPU.
Penyediaan grup node dan VM
Template sole-tenant node menentukan properti grup node, dan Anda harus membuat template node sebelum membuat grup node di zona Google Cloud. Saat Anda membuat grup, tentukan kebijakan pemeliharaan host untuk VM pada grup node, jumlah node untuk grup node, dan apakah akan membagikannya ke project lain atau dengan seluruh organisasi.
Grup node dapat memiliki nol node atau lebih; misalnya, Anda dapat mengurangi jumlah node dalam grup node menjadi nol saat Anda tidak perlu menjalankan VM pada node dalam grup, atau Anda dapat mengaktifkan autoscaler grup node untuk mengelola ukuran grup node secara otomatis.
Sebelum menyediakan VM di sole-tenant node, Anda harus membuat grup sole-tenant node. Grup node adalah kumpulan sole-tenant node yang homogen di zona tertentu. Grup node dapat berisi beberapa VM yang berjalan pada jenis mesin dengan berbagai ukuran, selama jenis mesin tersebut memiliki dua vCPU atau lebih.
Saat Anda membuat grup node, aktifkan penskalaan otomatis agar ukuran grup otomatis disesuaikan untuk memenuhi persyaratan workload Anda. Jika persyaratan workload bersifat statis, Anda dapat menentukan ukuran grup node secara manual.
Setelah membuat grup node, Anda dapat menyediakan VM di grup atau pada node tertentu dalam grup. Untuk kontrol lebih lanjut, gunakan label afinitas node untuk menjadwalkan VM di node mana pun dengan label afinitas yang cocok.
Setelah menyediakan VM di grup node, dan secara opsional menetapkan label afinitas untuk menyediakan VM pada grup node atau node tertentu, pertimbangkan untuk memberi label pada resource Anda untuk membantu mengelola VM. Label adalah key-value pair yang dapat membantu Anda mengategorikan VM, sehingga Anda dapat melihatnya secara gabungan untuk alasan seperti penagihan. Misalnya, Anda dapat menggunakan label untuk menandai peran VM, tenancy-nya, jenis lisensi, atau lokasinya.
Kebijakan pemeliharaan host
Bergantung pada skenario pemberian lisensi dan workload Anda, sebaiknya batasi jumlah core fisik yang digunakan oleh VM Anda. Kebijakan pemeliharaan host yang Anda pilih mungkin bergantung pada, misalnya, persyaratan pemberian lisensi atau kepatuhan, atau, Anda dapat memilih kebijakan yang memungkinkan Anda membatasi penggunaan server fisik. Dengan semua kebijakan ini, VM Anda tetap berada di hardware khusus.
Saat menjadwalkan VM pada sole-tenant node, Anda dapat memilih dari tiga opsi kebijakan pemeliharaan host berikut, yang memungkinkan Anda menentukan cara dan apakah Compute Enginemigrasi langsung VM selamaperistiwa host, yang terjadi sekitar setiap 4 hingga 6 minggu. Selama pemeliharaan, sebagai grup, semua VM di host dimigrasikan langsung ke sole-tenant node yang berbeda oleh Compute Engine. Namun, dalam beberapa kasus, Compute Engine mungkin akan membagi VM menjadi grup yang lebih kecil dan melakukan migrasi langsung setiap grup VM yang lebih kecil ke sole-tenant node yang terpisah.
Kebijakan pemeliharaan host default
Ini adalah kebijakan pemeliharaan host default, dan VM pada grup node yang dikonfigurasi dengan kebijakan ini mengikuti perilaku pemeliharaan tradisional untuk VM non-sole-tenant. Artinya, bergantung pada setelan pemeliharaan host VM, VM melakukan migrasi langsung ke sole-tenant node baru di grup node sebelum peristiwa pemeliharaan host, dan sole-tenant node baru ini hanya menjalankan VM pelanggan.
Kebijakan ini paling cocok untuk lisensi per pengguna atau per perangkat yang memerlukan migrasi langsung selama peristiwa host. Setelan ini tidak membatasi migrasi VM ke dalam kumpulan tetap server fisik, dan direkomendasikan untuk workload umum tanpa persyaratan server fisik dan yang tidak memerlukan lisensi yang ada.
Karena VM langsung bermigrasi ke server apa pun tanpa mempertimbangkan afinitas server yang ada dengan kebijakan ini, kebijakan ini tidak cocok untuk skenario yang memerlukan minimalisasi penggunaan inti fisik selama peristiwa host.
Gambar berikut menunjukkan animasi kebijakan pemeliharaan host Default.
Memulai ulang kebijakan pemeliharaan host yang ada
Saat Anda menggunakan kebijakan pemeliharaan host ini, Compute Engine akan menghentikan VM selama peristiwa host, lalu memulai ulang VM di server fisik yang sama setelah peristiwa host. Anda harus menyetel setelan pemeliharaan host VM ke TERMINATE
saat menggunakan kebijakan ini.
Kebijakan ini paling cocok untuk workload yang fault-tolerant dan dapat mengalami downtime selama sekitar satu jam selama peristiwa host, workload yang harus tetap berada di server fisik yang sama, workload yang tidak memerlukan migrasi langsung, atau jika Anda memiliki lisensi yang didasarkan pada jumlah core atau prosesor fisik.
Dengan kebijakan ini, instance dapat ditetapkan ke grup node menggunakan
node-name
, node-group-name
, atau label afinitas node.
Gambar berikut menunjukkan animasi kebijakan pemeliharaan Mulai ulang di tempat.
Bermigrasi dalam kebijakan pemeliharaan host grup node
Saat menggunakan kebijakan pemeliharaan host ini, Compute Engine secara langsung akan memigrasikan VM dalam grup server fisik berukuran tetap selama peristiwa host, yang membantu membatasi jumlah server fisik unik yang digunakan oleh VM.
Kebijakan ini paling cocok untuk workload ketersediaan tinggi dengan lisensi yang didasarkan pada jumlah inti atau prosesor fisik, karena dengan kebijakan pemeliharaan host ini, setiap sole-tenant node dalam grup disematkan ke set server fisik tetap, yang berbeda dari kebijakan default yang memungkinkan VM bermigrasi ke server mana pun.
Demi memastikan kapasitas untuk migrasi langsung, Compute Engine mencadangkan 1 node penahanan untuk setiap 20 node yang Anda reservasi. Tabel berikut menunjukkan jumlah node penahanan yang dicadangkan Compute Engine, tergantung jumlah node yang Anda reservasi untuk grup node.
Total node dalam grup | Node penahanan yang dicadangkan untuk migrasi langsung |
---|---|
1 | Tidak berlaku. Harus mencadangkan minimal 2 node. |
2 hingga 20 | 1 |
21 hingga 40 | 2 |
41 hingga 60 | 3 |
61 hingga 80 | 4 |
81 hingga 100 | 5 |
Dengan kebijakan ini, setiap instance harus menargetkan satu grup node menggunakan
label afinitas node-group-name
dan tidak dapat ditetapkan ke node-name
node
tertentu. Tindakan ini diperlukan agar Compute Engine dapat langsung memigrasikan VM ke node penahanan saat ada peristiwa host. Perhatikan bahwa VM dapat menggunakan label afinitas node kustom apa pun selama diberi node-group-name
, bukan node-name
.
Gambar berikut menampilkan animasi kebijakan pemeliharaan host Bermigrasi dalam grup node.
Masa pemeliharaan
Jika Anda mengelola workload, misalnya, database yang disesuaikan dengan baik, yang mungkin sensitif terhadap dampak performa migrasi langsung, Anda dapat menentukan kapan pemeliharaan dimulai pada grup sole-tenant node dengan menentukan masa pemeliharaan saat Anda membuat grup node. Anda tidak dapat mengubah periode pemeliharaan setelah membuat grup node.
Masa pemeliharaan adalah blok waktu 4 jam yang dapat Anda gunakan untuk menentukan kapan Google melakukan pemeliharaan pada VM sole-tenant Anda. Peristiwa pemeliharaan terjadi sekitar 4 hingga 6 minggu sekali.
Masa pemeliharaan berlaku untuk semua VM di grup sole-tenant node, dan hanya menentukan kapan pemeliharaan dimulai. Pemeliharaan tidak dijamin akan selesai selama masa pemeliharaan, dan tidak ada jaminan terkait seberapa sering pemeliharaan dilakukan. Masa pemeliharaan tidak didukung pada grup node dengan kebijakan pemeliharaan host Bermigrasi dalam grup node.
Menyimulasikan peristiwa pemeliharaan host
Anda dapat menyimulasikan peristiwa pemeliharaan host untuk menguji perilaku workload yang berjalan di sole-tenant node selama peristiwa pemeliharaan host. Dengan begitu, Anda dapat melihat efek kebijakan pemeliharaan host VM sole-tenant terhadap aplikasi yang berjalan di VM.
Error host
Jika terjadi kegagalan hardware kritis yang jarang terjadi pada host—sole-tenant atau multi-tenant—Compute Engine akan melakukan hal berikut:
Menghentikan server fisik dan ID uniknya.
Mencabut akses project ke server fisik.
Mengganti hardware yang gagal dengan server fisik baru yang memiliki ID unik baru.
Memindahkan VM dari hardware yang gagal ke node pengganti.
Memulai ulang VM yang terpengaruh jika Anda mengonfigurasinya untuk memulai ulang secara otomatis.
Afinitas dan anti-afinitas node
Sole-tenant node memastikan bahwa VM Anda tidak menggunakan host yang sama dengan VM dari project lain, kecuali jika Anda menggunakan grup sole-tenant node yang dibagikan. Dengan grup sole-tenant node bersama, project lain dalam organisasi dapat menyediakan VM di host yang sama. Namun, Anda mungkin masih ingin mengelompokkan beberapa workload pada sole-tenant node yang sama atau mengisolasi workload Anda satu sama lain di node yang berbeda. Misalnya, untuk membantu memenuhi beberapa persyaratan kepatuhan, Anda mungkin perlu menggunakan label afinitas untuk memisahkan workload sensitif dari workload yang tidak sensitif.
Saat membuat VM, Anda meminta sole-tenancy dengan menentukan afinitas atau anti-afinitas node, dengan merujuk pada satu atau beberapa label afinitas node. Anda menentukan label afinitas node kustom saat membuat template node, dan Compute Engine secara otomatis menyertakan beberapa label afinitas default di setiap node. Dengan menentukan afinitas saat membuat VM, Anda dapat menjadwalkan VM bersama-sama pada node atau node tertentu dalam satu grup node. Dengan menentukan anti-afinitas saat membuat VM, Anda dapat memastikan bahwa VM tertentu tidak dijadwalkan bersamaan pada node atau node yang sama dalam grup node.
Label afinitas node adalah key-value pair yang ditetapkan ke node, dan diwarisi dari template node. Dengan label minat, Anda dapat:
- Mengontrol cara setiap instance VM ditetapkan ke node.
- Mengontrol cara instance VM yang dibuat dari template, seperti yang dibuat oleh grup instance terkelola, ditetapkan ke node.
- Mengelompokkan instance VM yang sensitif pada node atau grup node tertentu, yang terpisah dari VM lainnya.
Label afinitas default
Compute Engine menetapkan label afinitas default berikut ke setiap node:
- Label untuk nama grup node:
- Kunci:
compute.googleapis.com/node-group-name
- Nilai: Nama grup node.
- Kunci:
- Label untuk nama node:
- Kunci:
compute.googleapis.com/node-name
- Nilai: Nama node individual.
- Kunci:
- Label untuk project yang berbagi grup node:
- Kunci:
compute.googleapis.com/projects
- Nilai: ID project dari project yang berisi grup node.
- Kunci:
Label minat kustom
Anda dapat membuat label afinitas node kustom saat membuat template node. Label afinitas ini ditetapkan ke semua node dalam grup node yang dibuat dari template node. Anda tidak dapat menambahkan lebih banyak label afinitas kustom ke node dalam grup node setelah grup node dibuat.
Untuk mengetahui informasi tentang cara menggunakan label afinitas, lihat Mengonfigurasi afinitas node.
Harga
Untuk membantu Anda meminimalkan biaya sole-tenant node, Compute Engine memberikan diskon abonemen dan diskon untuk penggunaan berkelanjutan. Selain itu, karena Anda sudah dikenai biaya untuk vCPU dan memori sole-tenant node, Anda tidak perlu membayar ekstra untuk VM di sole-tenant node Anda.
Jika Anda menyediakan sole-tenant node dengan GPU atau SSD Lokal, Anda akan ditagih untuk semua GPU atau SSD Lokal di setiap node yang Anda sediakan. Premium sole-tenancy tidak berlaku untuk GPU atau SSD Lokal.
Ketersediaan
Sole-tenant node tersedia di zona tertentu. Untuk memastikan ketersediaan tinggi, jadwalkan VM di sole-tenant node di berbagai zona.
Sebelum menggunakan GPU atau SSD Lokal di sole-tenant node, pastikan Anda memiliki kuota GPU atau SSD Lokal yang cukup di zona tempat Anda mencadangkan resource.
Compute Engine mendukung GPU pada jenis sole-tenant node
n1
dang2
yang berada di zona dengan dukungan GPU. Tabel berikut menunjukkan jenis GPU yang dapat Anda pasang ke noden1
dang2
serta jumlah GPU yang harus Anda pasang saat membuat template node.Jenis GPU Kuantitas GPU Jenis sole-tenant node NVIDIA L4 8 g2
NVIDIA P100 4 n1
NVIDIA P4 4 n1
NVIDIA T4 4 n1
NVIDIA V100 8 n1
Compute Engine mendukung SSD Lokal di jenis sole-tenant node
n1
,n2
,n2d
, dang2
yang ada di zona dengan dukungan SSD Lokal.
Pembatasan
Anda tidak dapat menggunakan VM sole-tenant dengan seri dan jenis mesin berikut: T2D, T2A, E2, C2D, A2, A3, atau instance bare metal.
VM sole-tenant tidak dapat menentukan platform CPU minimum.
Anda tidak dapat memigrasikan VM ke node sole-tenant jika VM tersebut menentukan platform CPU minimum. Untuk memigrasikan VM ke sole-tenant node, hapus spesifikasi platform CPU minimum dengan menyetelnya ke otomatis sebelum memperbarui label afinitas node VM.
Node tenant tunggal tidak mendukung instance preemptible VM.
Untuk mengetahui informasi tentang batasan penggunaan SSD Lokal di sole-tenant node, lihat Persistensi data SSD lokal.
Untuk informasi tentang pengaruh penggunaan GPU terhadap migrasi langsung, lihat batasan migrasi langsung.
Node tenant tunggal dengan GPU tidak mendukung VM tanpa GPU.
- Hanya node tenant tunggal N1, N2, N2D, dan N4 yang mendukung CPU yang melakukan overcommit.
Node tenant tunggal C3 tidak mendukung konfigurasi VM C3 yang berbeda di node tenant tunggal yang sama. Misalnya, Anda tidak dapat menempatkan VM
c3-standard
di node tenant tunggal yang sama dengan VMc3-highmem
.Anda tidak dapat mengupdate kebijakan pemeliharaan di grup node yang aktif.
Konfigurasi VM yang didukung oleh node tenant tunggal M3
Tenancy tunggal mendukung konfigurasi VM berikut untuk node tenant tunggal M3:
Di node
m3-node-128-3904
, kepemilikan tunggal mendukung konfigurasi VM berikut:- 1 x
m3-ultramem-128
- 2 x
m3-ultramem-64
- 1 x
m3-megamem-128
- 2 x
m3-megamem-64
Jika ingin menjalankan instance VM
m3-ultramem-32
, Anda dapat melakukannya dalam konfigurasi berikut:- 1 x
m3-ultramem-64
(atau 1 xm3-megamem-64
) + 1 xm3-ultramem-32
- 2 x
m3-ultramem-32
- 1 x
Di node
m3-node-128-1952
, kepemilikan tunggal mendukung konfigurasi VM berikut:- 2 x
m3-ultramem-32
- 1 x
m3-megamem-128
- 2 x
m3-megamem-64
Jika ingin menjalankan instance VM
m3-ultramem-32
, Anda dapat melakukannya dalam konfigurasi berikut:- 1 x
m3-megamem-64
+ 1 xm3-ultramem-32
- 2 x
m3-ultramem-32
- 2 x
Langkah selanjutnya
- Pelajari cara membuat, mengonfigurasi, dan menggunakan node tenant tunggal.
- Pelajari cara melakukan overcommit CPU pada VM sole-tenant.
Pelajari cara melakukan bring your own license (BYOL).
Tinjau praktik terbaik kami dalam menggunakan sole-tenant node untuk menjalankan workload VM.