Ringkasan sole-tenancy


Dokumen ini menjelaskan sole-tenant node. Untuk mengetahui informasi tentang cara menyediakan VM di sole-tenant node, lihat Menyediakan VM di sole-tenant node.

Sole-tenancy memungkinkan Anda memiliki akses eksklusif ke sole-tenant node, yang merupakan server Compute Engine fisik yang khusus menangani VM project Anda. Gunakan sole-tenant node agar VM Anda tetap terpisah secara fisik dengan VM di project lain, atau untuk mengelompokkan VM Anda di hardware host yang sama, seperti yang ditunjukkan pada diagram berikut. Anda juga dapat membuat grup node tenant tunggal dan menentukan apakah Anda ingin membagikannya ke project lain atau dengan seluruh organisasi.

Host multi-tenant versus node tenant tunggal.
Gambar 1: Host multi-tenant versus sole-tenant node.

VM yang berjalan di sole-tenant node dapat menggunakan fitur Compute Engine yang sama dengan VM lainnya, termasuk penjadwalan transparan dan block storage, tetapi dengan lapisan isolasi hardware tambahan. Untuk memberi Anda kontrol penuh atas VM di server fisik, setiap sole-tenant node mempertahankan pemetaan one-to-one ke server fisik yang mendukung node.

Dalam sole-tenant node, Anda dapat menyediakan beberapa VM pada jenis mesin dengan berbagai ukuran, sehingga Anda dapat menggunakan resource dasar dari hardware host khusus secara efisien. Selain itu, jika memilih untuk tidak berbagi hardware host dengan project lain, Anda dapat memenuhi persyaratan keamanan atau kepatuhan dengan workload yang memerlukan isolasi fisik dari workload atau VM lain. Jika workload Anda hanya memerlukan sole tenancy untuk sementara, Anda dapat mengubah tenancy VM sesuai kebutuhan.

Sole-tenant node dapat membantu Anda memenuhi persyaratan hardware khusus untuk skenario bring your own license (BYOL) yang memerlukan lisensi per core atau per pemroses. Saat menggunakan sole-tenant node, Anda memiliki visibilitas ke hardware pokok, yang memungkinkan Anda melacak penggunaan inti dan prosesor. Untuk melacak penggunaan ini, Compute Engine melaporkan ID server fisik tempat VM dijadwalkan. Kemudian, dengan menggunakan Cloud Logging, Anda dapat melihat penggunaan server VM secara historis.

Untuk mengoptimalkan penggunaan hardware host, Anda dapat melakukan hal berikut:

Melalui kebijakan pemeliharaan host yang dapat dikonfigurasi, Anda dapat mengontrol perilaku VM sole-tenant saat host-nya sedang menjalani pemeliharaan. Anda dapat menentukan kapan pemeliharaan terjadi, dan apakah VM mempertahankan afinitas dengan server fisik tertentu atau dipindahkan ke sole-tenant node lainnya dalam grup node.

Pertimbangan workload

Jenis workload berikut mungkin akan mendapatkan manfaat dari penggunaan sole-tenant node:

  • Workload game dengan persyaratan performa.

  • Workload keuangan atau layanan kesehatan dengan persyaratan keamanan dan kepatuhan.

  • Workload Windows dengan persyaratan pemberian lisensi.

  • Machine learning, pemrosesan data, atau beban kerja rendering gambar. Untuk workload ini, pertimbangkan untuk memesan GPU.

  • Workload yang memerlukan peningkatan operasi input/output per detik (IOPS) dan penurunan latensi, atau workload yang menggunakan penyimpanan sementara dalam bentuk cache, ruang pemrosesan, atau data bernilai rendah. Untuk workload ini, pertimbangkan untuk memesan SSD Lokal.

Template node

Template node adalah resource regional yang menentukan properti setiap node dalam sebuah grup node. Saat Anda membuat grup node dari template node, properti template node tidak dapat diubah ke setiap node dalam grup node tersebut.

Saat membuat template node, Anda harus menentukan jenis node. Secara opsional, Anda dapat menentukan label afinitas node saat membuat template node. Anda hanya dapat menentukan label afinitas node pada template node. Anda tidak dapat menentukan label afinitas node pada grup node.

Jenis node

Saat mengonfigurasi template node, tentukan jenis node yang akan diterapkan ke semua node dalam grup node yang dibuat berdasarkan template node. Jenis sole-tenant node, yang dirujuk oleh template node, menentukan jumlah total inti vCPU dan memori untuk node yang dibuat dalam grup node yang menggunakan template tersebut. Misalnya, jenis node n2-node-80-640 memiliki 80 vCPU dan memori 640 GB.

VM yang Anda tambahkan ke sole-tenant node harus memiliki jenis mesin yang sama dengan jenis node yang Anda tentukan di template node. Misalnya, jenis sole-tenant node n2 hanya kompatibel dengan VM yang dibuat dengan jenis mesin n2. Anda dapat menambahkan VM ke sole-tenant node hingga jumlah total vCPU atau memori melebihi kapasitas node.

Saat Anda membuat grup node menggunakan template node, setiap node dalam grup node akan mewarisi spesifikasi jenis node template node. Jenis node berlaku untuk setiap node individual dalam grup node, bukan untuk semua node dalam grup secara seragam. Jadi, jika Anda membuat grup node dengan dua node yang merupakan jenis node n2-node-80-640, setiap node akan diberi 80 vCPU dan memori 640 GB.

Bergantung pada persyaratan workload, Anda dapat mengisi node dengan beberapa VM kecil yang berjalan pada jenis mesin dengan berbagai ukuran, termasuk jenis mesin yang telah ditetapkan, jenis mesin kustom, dan jenis mesin dengan memori yang diperluas. Jika node penuh, Anda tidak dapat menjadwalkan VM tambahan di node tersebut.

Tabel berikut menampilkan jenis node yang tersedia. Untuk melihat daftar jenis node yang tersedia untuk project Anda, jalankan perintah gcloud compute sole-tenancy node-types list atau buat permintaan REST nodeTypes.list.

Jenis node Pemroses vCPU GB vCPU:GB Soket Cores:Socket Total inti
c2-node-60-240 Cascade Lake 60 240 1:4 2 18 36
c3-node-176-352 Sapphire Rapids 176 352 1:2 2 48 96
c3-node-176-704 Sapphire Rapids 176 704 1:4 2 48 96
c3-node-176-1408 Sapphire Rapids 176 1408 1:8 2 48 96
c3d-node-360-708 AMD EPYC Genoa 360 708 1:2 2 96 192
c3d-node-360-1440 AMD EPYC Genoa 360 1440 1:4 2 96 192
c3d-node-360-2880 AMD EPYC Genoa 360 2880 1:8 2 96 192
c4-node-192-384 Emerald Rapids 192 384 1:2 2 52 104
c4-node-192-720 Emerald Rapids 192 720 1:3,75 2 52 104
c4-node-192-1488 Emerald Rapids 192 1.488 1:7,75 2 52 104
c4a-node-72-144 Google Axion 72 144 1:2 2 1 72
c4a-node-72-288 Google Axion 72 288 1:4 2 1 72
c4a-node-72-576 Google Axion 72 576 1:8 2 1 72
g2-node-96-384 Cascade Lake 96 384 1:4 2 28 56
g2-node-96-432 Cascade Lake 96 432 1:4.5 2 28 56
h3-node-88-352 Sapphire Rapids 88 352 1:4 2 48 96
m1-node-96-1433 Skylake 96 1433 1:14,93 2 28 56
m1-node-160-3844 Broadwell E7 160 3844 1:24 4 22 88
m2-node-416-8832 Cascade Lake 416 8832 1:21.23 8 28 224
m2-node-416-11776 Cascade Lake 416 11776 1:28.31 8 28 224
m3-node-128-1952 Ice Lake 128 1952 1:15.25 2 36 72
m3-node-128-3904 Ice Lake 128 3904 1:30.5 2 36 72
n1-node-96-624 Skylake 96 624 1:6.5 2 28 56
n2-node-80-640 Cascade Lake 80 640 1:8 2 24 48
n2-node-128-864 Ice Lake 128 864 1:6.75 2 36 72
n2d-node-224-896 AMD EPYC Rome 224 896 1:4 2 64 128
n2d-node-224-1792 AMD EPYC Milan 224 1792 1:8 2 64 128

Untuk mengetahui informasi tentang harga jenis node ini, lihat harga node tenant tunggal.

Semua node memungkinkan Anda menjadwalkan VM dengan berbagai bentuk. Jenis node n adalah node dengan tujuan umum, yang dapat digunakan untuk menjadwalkan VM jenis mesin kustom. Untuk rekomendasi tentang jenis node yang harus dipilih, lihat Rekomendasi untuk jenis mesin. Untuk mengetahui informasi tentang performa, lihat platform CPU.

Penyediaan grup node dan VM

Template sole-tenant node menentukan properti grup node, dan Anda harus membuat template node sebelum membuat grup node di zona Google Cloud. Saat Anda membuat grup, tentukan kebijakan pemeliharaan host untuk VM pada grup node, jumlah node untuk grup node, dan apakah akan membagikannya ke project lain atau dengan seluruh organisasi.

Grup node dapat memiliki nol node atau lebih; misalnya, Anda dapat mengurangi jumlah node dalam grup node menjadi nol saat Anda tidak perlu menjalankan VM pada node dalam grup, atau Anda dapat mengaktifkan autoscaler grup node untuk mengelola ukuran grup node secara otomatis.

Sebelum menyediakan VM di sole-tenant node, Anda harus membuat grup sole-tenant node. Grup node adalah kumpulan sole-tenant node yang homogen di zona tertentu. Grup node dapat berisi beberapa VM yang berjalan pada jenis mesin dengan berbagai ukuran, selama jenis mesin tersebut memiliki dua vCPU atau lebih.

Saat Anda membuat grup node, aktifkan penskalaan otomatis agar ukuran grup otomatis disesuaikan untuk memenuhi persyaratan workload Anda. Jika persyaratan workload bersifat statis, Anda dapat menentukan ukuran grup node secara manual.

Setelah membuat grup node, Anda dapat menyediakan VM di grup atau pada node tertentu dalam grup. Untuk kontrol lebih lanjut, gunakan label afinitas node untuk menjadwalkan VM di node mana pun dengan label afinitas yang cocok.

Setelah menyediakan VM di grup node, dan secara opsional menetapkan label afinitas untuk menyediakan VM pada grup node atau node tertentu, pertimbangkan untuk memberi label pada resource Anda untuk membantu mengelola VM. Label adalah key-value pair yang dapat membantu Anda mengategorikan VM, sehingga Anda dapat melihatnya secara gabungan untuk alasan seperti penagihan. Misalnya, Anda dapat menggunakan label untuk menandai peran VM, tenancy-nya, jenis lisensi, atau lokasinya.

Kebijakan pemeliharaan host

Bergantung pada skenario pemberian lisensi dan workload Anda, sebaiknya batasi jumlah core fisik yang digunakan oleh VM Anda. Kebijakan pemeliharaan host yang Anda pilih mungkin bergantung pada, misalnya, persyaratan pemberian lisensi atau kepatuhan, atau, Anda dapat memilih kebijakan yang memungkinkan Anda membatasi penggunaan server fisik. Dengan semua kebijakan ini, VM Anda tetap berada di hardware khusus.

Saat menjadwalkan VM pada sole-tenant node, Anda dapat memilih dari tiga opsi kebijakan pemeliharaan host berikut, yang memungkinkan Anda menentukan cara dan apakah Compute Enginemigrasi langsung VM selamaperistiwa host, yang terjadi sekitar setiap 4 hingga 6 minggu. Selama pemeliharaan, sebagai grup, semua VM di host dimigrasikan langsung ke sole-tenant node yang berbeda oleh Compute Engine. Namun, dalam beberapa kasus, Compute Engine mungkin akan membagi VM menjadi grup yang lebih kecil dan melakukan migrasi langsung setiap grup VM yang lebih kecil ke sole-tenant node yang terpisah.

Kebijakan pemeliharaan host default

Ini adalah kebijakan pemeliharaan host default, dan VM pada grup node yang dikonfigurasi dengan kebijakan ini mengikuti perilaku pemeliharaan tradisional untuk VM non-sole-tenant. Artinya, bergantung pada setelan pemeliharaan host VM, VM melakukan migrasi langsung ke sole-tenant node baru di grup node sebelum peristiwa pemeliharaan host, dan sole-tenant node baru ini hanya menjalankan VM pelanggan.

Kebijakan ini paling cocok untuk lisensi per pengguna atau per perangkat yang memerlukan migrasi langsung selama peristiwa host. Setelan ini tidak membatasi migrasi VM ke dalam kumpulan tetap server fisik, dan direkomendasikan untuk workload umum tanpa persyaratan server fisik dan yang tidak memerlukan lisensi yang ada.

Karena VM langsung bermigrasi ke server apa pun tanpa mempertimbangkan afinitas server yang ada dengan kebijakan ini, kebijakan ini tidak cocok untuk skenario yang memerlukan minimalisasi penggunaan inti fisik selama peristiwa host.

Gambar berikut menunjukkan animasi kebijakan pemeliharaan host Default.

Animasi kebijakan pemeliharaan host default.
Gambar 2: Animasi kebijakan pemeliharaan host Default.

Memulai ulang kebijakan pemeliharaan host yang ada

Saat Anda menggunakan kebijakan pemeliharaan host ini, Compute Engine akan menghentikan VM selama peristiwa host, lalu memulai ulang VM di server fisik yang sama setelah peristiwa host. Anda harus menyetel setelan pemeliharaan host VM ke TERMINATE saat menggunakan kebijakan ini.

Kebijakan ini paling cocok untuk workload yang fault-tolerant dan dapat mengalami downtime selama sekitar satu jam selama peristiwa host, workload yang harus tetap berada di server fisik yang sama, workload yang tidak memerlukan migrasi langsung, atau jika Anda memiliki lisensi yang didasarkan pada jumlah core atau prosesor fisik.

Dengan kebijakan ini, instance dapat ditetapkan ke grup node menggunakan node-name, node-group-name, atau label afinitas node.

Gambar berikut menunjukkan animasi kebijakan pemeliharaan Mulai ulang di tempat.

Animasi kebijakan pemeliharaan host mulai ulang di tempat
Gambar 3: Animasi kebijakan pemeliharaan host Mulai ulang di tempat.

Bermigrasi dalam kebijakan pemeliharaan host grup node

Saat menggunakan kebijakan pemeliharaan host ini, Compute Engine secara langsung akan memigrasikan VM dalam grup server fisik berukuran tetap selama peristiwa host, yang membantu membatasi jumlah server fisik unik yang digunakan oleh VM.

Kebijakan ini paling cocok untuk workload ketersediaan tinggi dengan lisensi yang didasarkan pada jumlah inti atau prosesor fisik, karena dengan kebijakan pemeliharaan host ini, setiap sole-tenant node dalam grup disematkan ke set server fisik tetap, yang berbeda dari kebijakan default yang memungkinkan VM bermigrasi ke server mana pun.

Demi memastikan kapasitas untuk migrasi langsung, Compute Engine mencadangkan 1 node penahanan untuk setiap 20 node yang Anda reservasi. Tabel berikut menunjukkan jumlah node penahanan yang dicadangkan Compute Engine, tergantung jumlah node yang Anda reservasi untuk grup node.

Total node dalam grup Node penahanan yang dicadangkan untuk migrasi langsung
1 Tidak berlaku. Harus mencadangkan minimal 2 node.
2 hingga 20 1
21 hingga 40 2
41 hingga 60 3
61 hingga 80 4
81 hingga 100 5

Dengan kebijakan ini, setiap instance harus menargetkan satu grup node menggunakan label afinitas node-group-name dan tidak dapat ditetapkan ke node-name node tertentu. Tindakan ini diperlukan agar Compute Engine dapat langsung memigrasikan VM ke node penahanan saat ada peristiwa host. Perhatikan bahwa VM dapat menggunakan label afinitas node kustom apa pun selama diberi node-group-name, bukan node-name.

Gambar berikut menampilkan animasi kebijakan pemeliharaan host Bermigrasi dalam grup node.

Animasi migrasi dalam kebijakan pemeliharaan host grup node.
Gambar 4: Animasi kebijakan pemeliharaan host Migrasi dalam grup node.

Masa pemeliharaan

Jika Anda mengelola workload, misalnya, database yang disesuaikan dengan baik, yang mungkin sensitif terhadap dampak performa migrasi langsung, Anda dapat menentukan kapan pemeliharaan dimulai pada grup sole-tenant node dengan menentukan masa pemeliharaan saat Anda membuat grup node. Anda tidak dapat mengubah periode pemeliharaan setelah membuat grup node.

Masa pemeliharaan adalah blok waktu 4 jam yang dapat Anda gunakan untuk menentukan kapan Google melakukan pemeliharaan pada VM sole-tenant Anda. Peristiwa pemeliharaan terjadi sekitar 4 hingga 6 minggu sekali.

Masa pemeliharaan berlaku untuk semua VM di grup sole-tenant node, dan hanya menentukan kapan pemeliharaan dimulai. Pemeliharaan tidak dijamin akan selesai selama masa pemeliharaan, dan tidak ada jaminan terkait seberapa sering pemeliharaan dilakukan. Masa pemeliharaan tidak didukung pada grup node dengan kebijakan pemeliharaan host Bermigrasi dalam grup node.

Menyimulasikan peristiwa pemeliharaan host

Anda dapat menyimulasikan peristiwa pemeliharaan host untuk menguji perilaku workload yang berjalan di sole-tenant node selama peristiwa pemeliharaan host. Dengan begitu, Anda dapat melihat efek kebijakan pemeliharaan host VM sole-tenant terhadap aplikasi yang berjalan di VM.

Error host

Jika terjadi kegagalan hardware kritis yang jarang terjadi pada host—sole-tenant atau multi-tenant—Compute Engine akan melakukan hal berikut:

  1. Menghentikan server fisik dan ID uniknya.

  2. Mencabut akses project ke server fisik.

  3. Mengganti hardware yang gagal dengan server fisik baru yang memiliki ID unik baru.

  4. Memindahkan VM dari hardware yang gagal ke node pengganti.

  5. Memulai ulang VM yang terpengaruh jika Anda mengonfigurasinya untuk memulai ulang secara otomatis.

Afinitas dan anti-afinitas node

Sole-tenant node memastikan bahwa VM Anda tidak menggunakan host yang sama dengan VM dari project lain, kecuali jika Anda menggunakan grup sole-tenant node yang dibagikan. Dengan grup sole-tenant node bersama, project lain dalam organisasi dapat menyediakan VM di host yang sama. Namun, Anda mungkin masih ingin mengelompokkan beberapa workload pada sole-tenant node yang sama atau mengisolasi workload Anda satu sama lain di node yang berbeda. Misalnya, untuk membantu memenuhi beberapa persyaratan kepatuhan, Anda mungkin perlu menggunakan label afinitas untuk memisahkan workload sensitif dari workload yang tidak sensitif.

Saat membuat VM, Anda meminta sole-tenancy dengan menentukan afinitas atau anti-afinitas node, dengan merujuk pada satu atau beberapa label afinitas node. Anda menentukan label afinitas node kustom saat membuat template node, dan Compute Engine secara otomatis menyertakan beberapa label afinitas default di setiap node. Dengan menentukan afinitas saat membuat VM, Anda dapat menjadwalkan VM bersama-sama pada node atau node tertentu dalam satu grup node. Dengan menentukan anti-afinitas saat membuat VM, Anda dapat memastikan bahwa VM tertentu tidak dijadwalkan bersamaan pada node atau node yang sama dalam grup node.

Label afinitas node adalah key-value pair yang ditetapkan ke node, dan diwarisi dari template node. Dengan label minat, Anda dapat:

  • Mengontrol cara setiap instance VM ditetapkan ke node.
  • Mengontrol cara instance VM yang dibuat dari template, seperti yang dibuat oleh grup instance terkelola, ditetapkan ke node.
  • Mengelompokkan instance VM yang sensitif pada node atau grup node tertentu, yang terpisah dari VM lainnya.

Label afinitas default

Compute Engine menetapkan label afinitas default berikut ke setiap node:

  • Label untuk nama grup node:
    • Kunci: compute.googleapis.com/node-group-name
    • Nilai: Nama grup node.
  • Label untuk nama node:
    • Kunci: compute.googleapis.com/node-name
    • Nilai: Nama node individual.
  • Label untuk project yang berbagi grup node:
    • Kunci: compute.googleapis.com/projects
    • Nilai: ID project dari project yang berisi grup node.

Label minat kustom

Anda dapat membuat label afinitas node kustom saat membuat template node. Label afinitas ini ditetapkan ke semua node dalam grup node yang dibuat dari template node. Anda tidak dapat menambahkan lebih banyak label afinitas kustom ke node dalam grup node setelah grup node dibuat.

Untuk mengetahui informasi tentang cara menggunakan label afinitas, lihat Mengonfigurasi afinitas node.

Harga

  • Untuk membantu Anda meminimalkan biaya sole-tenant node, Compute Engine memberikan diskon abonemen dan diskon untuk penggunaan berkelanjutan. Selain itu, karena Anda sudah dikenai biaya untuk vCPU dan memori sole-tenant node, Anda tidak perlu membayar ekstra untuk VM di sole-tenant node Anda.

  • Jika Anda menyediakan sole-tenant node dengan GPU atau SSD Lokal, Anda akan ditagih untuk semua GPU atau SSD Lokal di setiap node yang Anda sediakan. Premium sole-tenancy tidak berlaku untuk GPU atau SSD Lokal.

Ketersediaan

  • Sole-tenant node tersedia di zona tertentu. Untuk memastikan ketersediaan tinggi, jadwalkan VM di sole-tenant node di berbagai zona.

  • Sebelum menggunakan GPU atau SSD Lokal di sole-tenant node, pastikan Anda memiliki kuota GPU atau SSD Lokal yang cukup di zona tempat Anda mencadangkan resource.

  • Compute Engine mendukung GPU pada jenis sole-tenant node n1 dan g2 yang berada di zona dengan dukungan GPU. Tabel berikut menunjukkan jenis GPU yang dapat Anda pasang ke node n1 dan g2 serta jumlah GPU yang harus Anda pasang saat membuat template node.

    Jenis GPU Kuantitas GPU Jenis sole-tenant node
    NVIDIA L4 8 g2
    NVIDIA P100 4 n1
    NVIDIA P4 4 n1
    NVIDIA T4 4 n1
    NVIDIA V100 8 n1
  • Compute Engine mendukung SSD Lokal di jenis sole-tenant node n1, n2, n2d, dan g2 yang ada di zona dengan dukungan SSD Lokal.

Pembatasan

  • Sole-tenant node C3 dan C3D tidak mendukung CPU yang melakukan overcommit.
  • Node tenant tunggal C3 tidak mendukung konfigurasi VM C3 yang berbeda di node tenant tunggal yang sama. Misalnya, Anda tidak dapat menempatkan VM c3-standard di node tenant tunggal yang sama dengan VM c3-highmem.

  • Anda tidak dapat mengupdate kebijakan pemeliharaan di grup node yang aktif.

Konfigurasi VM yang didukung oleh node tenant tunggal M3

Tenancy tunggal mendukung konfigurasi VM berikut untuk node tenant tunggal M3:

  • Di node m3-node-128-3904, sewa tunggal mendukung konfigurasi VM berikut:

    • 1 x m3-ultramem-128
    • 2 x m3-ultramem-64
    • 1 x m3-megamem-128
    • 2 x m3-megamem-64

    Jika ingin menjalankan instance VM m3-ultramem-32, Anda dapat melakukannya dalam konfigurasi berikut:

    • 1 x m3-ultramem-64 (atau 1 x m3-megamem-64) + 1 x m3-ultramem-32
    • 2 x m3-ultramem-32
  • Di node m3-node-128-1952, sewa tunggal mendukung konfigurasi VM berikut:

    • 2 x m3-ultramem-32
    • 1 x m3-megamem-128
    • 2 x m3-megamem-64

    Jika ingin menjalankan instance VM m3-ultramem-32, Anda dapat melakukannya dalam konfigurasi berikut:

    • 1 x m3-megamem-64 + 1 x m3-ultramem-32
    • 2 x m3-ultramem-32

Langkah selanjutnya