Halaman ini menjelaskan masalah umum yang mungkin Anda alami saat menggunakan Compute Engine. Untuk masalah yang secara khusus memengaruhi Confidential VMs, baca Masalah umum Confidential VMs.
Masalah umum
Masalah berikut memberikan panduan pemecahan masalah atau informasi umum.
Membuat pemesanan atau permintaan pemesanan untuk masa mendatang menggunakan template instance yang menentukan jenis mesin A2, C3, atau G2 menyebabkan masalah
Jika Anda menggunakan template instance yang menentukan jenis mesin A2, C3, atau G2 untuk membuat pemesanan, atau membuat dan mengirim permintaan pemesanan untuk masa mendatang untuk ditinjau, Anda akan mengalami masalah. Secara khusus:
Pembuatan pemesanan mungkin gagal. Jika berhasil, salah satu dari hal berikut ini berlaku:
Jika Anda membuat pemesanan yang digunakan secara otomatis (default), pembuatan VM dengan properti yang cocok tidak akan menggunakan pemesanan.
Jika Anda membuat pemesanan tertentu, membuat VM untuk menargetkan pemesanan secara khusus akan gagal.
Berhasil membuat permintaan pemesanan untuk masa mendatang. Namun, jika Anda mengirimkannya untuk ditinjau, Google Cloud akan menolak permintaan Anda.
Anda tidak dapat mengganti template instance yang digunakan untuk membuat permintaan pemesanan atau pemesanan untuk masa mendatang, atau mengganti properti VM template. Jika Anda ingin mencadangkan resource untuk jenis mesin A2, C3, atau G2, lakukan salah satu hal berikut:
Buat single-project atau pemesanan bersama baru dengan menentukan properti secara langsung.
Buat permintaan pemesanan untuk masa mendatang yang baru dengan melakukan hal berikut:
Jika Anda ingin menghentikan permintaan pemesanan untuk masa mendatang yang ada agar tidak membatasi properti permintaan pemesanan untuk masa mendatang, yang dapat Anda buat di project saat ini—atau dalam project yang dibagikan oleh permintaan pemesanan untuk masa mendatang—hapus permintaan pemesanan untuk masa mendatang.
Buat single-project atau permintaan pemesanan untuk masa mendatang yang dibagikan dengan menentukan properti secara langsung dan mengirimkannya untuk ditinjau.
Batasan saat menggunakan jenis mesin c3-standard-*-lssd
dan c3d-standard-*-lssd
dengan Google Kubernetes Engine
Saat menggunakan Google Kubernetes Engine API, node pool dengan SSD Lokal yang terpasang yang Anda sediakan harus memiliki jumlah disk SSD yang sama dengan jenis mesin C3 dan C3D yang dipilih. Misalnya, jika Anda berencana
untuk membuat VM yang menggunakan c3-standard-8-lssd
, harus ada 2 disk SSD,
sedangkan untuk c3d-standard-8-lssd
, hanya diperlukan 1 disk SSD. Jika nomor disk tidak cocok, Anda akan mendapatkan error kesalahan konfigurasi SSD Lokal dari bidang kontrol Compute Engine. Lihat dokumen
Kelompok mesin tujuan umum
untuk memilih jumlah disk SSD Lokal yang benar berdasarkan jenis mesin
lssd
C3 atau C3D.
Penggunaan Konsol Google Cloud Google Kubernetes Engine untuk membuat cluster atau node pool dengan VM c3-standard-*-lssd
dan c3d-standard-*-lssd
akan menyebabkan kegagalan pembuatan node atau kegagalan untuk mendeteksi SSD Lokal sebagai penyimpanan efemeral.
Variabilitas throughput TCP alur tunggal pada VM C3D
VM C3D yang lebih besar dari 30 vCPU mungkin mengalami variabilitas throughput TCP alur tunggal dan terkadang dibatasi hingga 20-25 Gbps. Untuk mencapai kapasitas yang lebih tinggi, gunakan beberapa alur TCP.
Grup instance terkelola yang memiliki seri mesin T2D tidak melakukan penskalaan otomatis seperti yang diharapkan
Grup instance terkelola (MIG) yang memiliki VM seri mesin T2D dalam project yang dibuat sebelum 18 Juni 2023, tidak mendeteksi beban CPU dengan benar pada VM di MIG. Dalam project tersebut, penskalaan otomatis berdasarkan pemakaian CPU di MIG yang memiliki VM seri mesin T2D mungkin salah.
Untuk menerapkan perbaikan pada project Anda, hubungi Cloud Customer Care.
Metrik kemampuan observasi penggunaan CPU salah untuk VM yang menggunakan satu thread per core
Jika CPU VM Anda menggunakan satu thread per core, metrik kemampuan observasi Cloud Monitoring pemakaian CPU di tab Mesin Compute> VM instances > Observability hanya diskalakan menjadi 50%. Dua thread per core adalah setelan default untuk semua jenis mesin, kecuali Tau T2D. Untuk mengetahui informasi selengkapnya, lihat Menetapkan jumlah thread per core.
Untuk menampilkan pemakaian CPU VM Anda yang dinormalkan menjadi 100%, tampilkan pemakaian CPU di Metrics Explorer. Untuk informasi selengkapnya, lihat Membuat diagram dengan Metrics Explorer.
Koneksi SSH-in-browser konsol Google Cloud mungkin gagal jika Anda menggunakan aturan firewall kustom
Jika menggunakan aturan firewall kustom untuk mengontrol akses SSH ke instance VM, Anda mungkin tidak dapat menggunakan fitur SSH-in-browser.
Untuk mengatasi masalah ini, lakukan salah satu langkah berikut:
Aktifkan Identity-Aware Proxy untuk TCP agar dapat terus terhubung ke VM menggunakan fitur Konsol Google Cloud SSH-in-browser.
Buat ulang aturan firewall
default-allow-ssh
untuk terus terhubung ke VM menggunakan SSH-in-browser.Hubungkan ke VM menggunakan Google Cloud CLI, bukan SSH-in-browser.
Pengurangan atau penghapusan pemesanan tertentu akan menghentikan VM menggunakan pemesanan lainnya
Jika Anda mengurangi ukuran atau menghapus pemesanan tertentu yang digunakan oleh satu atau beberapa VM, VM tanpa induk tidak dapat menggunakan pemesanan apa pun.
Secara opsional, untuk mencegah masalah ini, hapus VM atau perbarui properti
reservationAffinity
pada VM hingga jumlah VM yang menargetkan pemesanan tertentu sesuai dengan jumlah VM yang direncanakan untuk pemesanan tertentu. Setelah itu, Anda dapat mengurangi ukuran atau menghapus pemesanan tertentu.Untuk menyelesaikan masalah ini:
Buat jumlah VM di pemesanan tertentu sama dengan jumlah VM yang menargetkannya dengan melakukan satu atau beberapa tindakan berikut: menghapus VM, memperbarui properti
reservationAffinity
VM, memperbesar ukuran pemesanan yang diperkecil, atau membuat ulang pemesanan tertentu yang telah dihapus.Hentikan dan mulai VM yang tersisa.
Pelajari lebih lanjut cara menghapus pemesanan dan mengubah ukuran pemesanan.
Memindahkan VM atau disk menggunakan moveInstance
API atau gcloud CLI menyebabkan perilaku yang tidak terduga
Memindahkan instance virtual machine (VM) menggunakan perintah gcloud compute instances move
atau metode project.moveInstance
dapat menyebabkan kehilangan data, penghapusan VM, atau perilaku tidak terduga lainnya.
Untuk memindahkan VM, sebaiknya ikuti petunjuk di Memindahkan instance VM antarzona atau region.
Disk yang terpasang ke VM dengan jenis mesin n2d-standard-64
tidak mencapai batas performa secara konsisten
Persistent disk yang terpasang ke VM dengan jenis mesin n2d-standard-64
tidak secara konsisten mencapai batas performa maksimum 100.000 IOPS. Ini adalah kasus untuk IOPS baca dan tulis.
Nama sementara untuk disk
Selama update instance virtual machine (VM) yang dimulai menggunakan
perintah gcloud compute instances update
atau
metode instances.update
API, Compute Engine mungkin mengubah nama disk VM Anda untuk sementara waktu, dengan menambahkan akhiran berikut ke nama aslinya:
-temp
-old
-new
Compute Engine menghapus akhiran dan memulihkan nama disk asli saat update selesai.
Meningkatkan latensi untuk beberapa persistent disk yang disebabkan oleh perubahan ukuran disk
Dalam beberapa kasus, mengubah ukuran persistent disk berukuran besar (~3 TB atau lebih) dapat mengganggu performa I/O disk. Jika Anda terkena dampak masalah ini, persistent disk Anda mungkin mengalami peningkatan latensi selama operasi perubahan ukuran. Masalah ini dapat memengaruhi persistent disk dari semua jenis.
Menggunakan image MBR dengan VM C3 dengan SSD Lokal
VM C3 yang dibuat menggunakan c3-standard-44-lssd
dan jenis mesin yang lebih besar tidak berhasil
di-booting dengan image MBR.
Mampu memasang disk PD-Standard dan PD-Extreme yang tidak didukung ke VM C3 dan M3
Persistent disk standar (pd-standard
) adalah jenis boot disk default saat menggunakan Google Cloud CLI atau Compute Engine API. Namun, disk pd-standard
tidak
didukung di VM C3 dan M3. Selain itu, VM C3 tidak mendukung disk
pd-extreme
.
Masalah berikut dapat terjadi saat menggunakan Google Cloud CLI atau Compute Engine API:
pd-standard
dikonfigurasi sebagai jenis boot disk default dan disk akan dibuat kecuali Anda menentukan jenis boot disk lain yang didukung, sepertipd-balanced
ataupd-ssd
.- Sebelum ketersediaan umum (GA)
C3, Anda dapat memasang
pd-extreme
disk ke VM C3 dan diskpd-standard
ke VM C3 dan M3.
Jika Anda membuat VM C3 atau M3 dengan jenis disk yang tidak didukung, pindahkan data Anda ke jenis disk baru yang didukung, seperti yang dijelaskan dalam Mengubah jenis persistent disk. Jika Anda tidak mengubah jenis disk, VM akan terus berfungsi, tetapi beberapa operasi seperti pelepasan dan pemasangan ulang disk akan gagal.
Solusi
Untuk mengatasi masalah ini, lakukan salah satu langkah berikut:
- Gunakan konsol Google Cloud untuk membuat VM C3 atau M3 dan memasang disk. Konsol
membuat VM C3 dan M3 dengan boot disk
pd-balanced
dan tidak mengizinkan penyertaan jenis disk yang tidak didukung ke VM. - Jika Anda menggunakan Google Cloud CLI atau Compute Engine API, konfigurasikan secara eksplisit boot disk jenis
pd-balanced
ataupd-ssd
saat membuat VM.
Proses otomatis Anda mungkin gagal jika menggunakan data respons API tentang kuota komitmen berbasis resource
Proses otomatis yang memakai dan menggunakan data respons API terkait kuota komitmen berbasis resource Compute Engine mungkin akan gagal jika setiap hal berikut terjadi. Proses otomatis Anda dapat menyertakan cuplikan kode, logika bisnis, atau kolom database yang menggunakan atau menyimpan respons API.
Data respons berasal dari salah satu metode Compute Engine API berikut:
Anda menggunakan
int
, bukannumber
, untuk menentukan kolom untuk batas kuota resource dalam isi respons API. Anda dapat menemukan kolom ini dengan cara berikut untuk setiap metode:items[].quotas[].limit
untuk metodecompute.regions.list
.quotas[].limit
untuk metodecompute.regions.get
.quotas[].limit
untuk metodecompute.projects.get
.
Anda memiliki kuota default tak terbatas yang tersedia untuk setiap SKU Compute Engine yang di-commit.
Untuk mengetahui informasi selengkapnya tentang kuota komitmen dan SKU yang di-commit, lihat Kuota untuk komitmen dan resource yang di-commit.
Akar masalah
Saat kuota Anda terbatas, jika Anda menentukan kolom items[].quotas[].limit
atau quotas[].limit
sebagai jenis int
, data respons API untuk batas kuota Anda mungkin masih berada dalam rentang untuk jenis int
dan proses otomatis
Anda mungkin tidak akan terganggu. Namun, jika batas kuota default tidak terbatas, Compute Engine API akan menampilkan nilai untuk kolom limit
yang berada di luar rentang yang ditentukan oleh jenis int
. Proses otomatis Anda tidak dapat menggunakan nilai yang ditampilkan oleh metode API dan akibatnya gagal.
Cara mengatasi masalah ini
Anda dapat mengatasi masalah ini dan terus membuat laporan otomatis dengan cara berikut:
Direkomendasikan: Ikuti dokumentasi referensi Compute Engine API dan gunakan jenis data yang benar untuk definisi metode API. Secara khusus, gunakan jenis
number
untuk menentukan kolomitems[].quotas[].limit
danquotas[].limit
untuk metode API Anda.Kurangi batas kuota Anda menjadi nilai di bawah 9.223.372.036.854.775.807. Anda harus menetapkan batas kuota untuk semua project yang memiliki komitmen berbasis resource, di semua region. Anda dapat melakukannya dengan salah satu cara berikut:
- Ikuti langkah yang sama seperti yang Anda lakukan untuk mengajukan permintaan penambahan kuota, dan meminta batas kuota yang lebih rendah.
- Tetapkan penggantian kuota konsumen.
Masalah umum untuk instance VM Linux
Berikut adalah masalah umum pada VM Linux.
VM RHEL 7 dan CentOS kehilangan akses jaringan setelah reboot
OS image CentOS dan Red Hat Enterprise Linux (RHEL) 7 yang disediakan oleh Google, secara default menonaktifkan nama antarmuka jaringan yang dapat diprediksi.
Namun, jika VM CentOS atau RHEL 7 Anda memiliki beberapa kartu antarmuka jaringan (NIC) dan salah satu NIC ini tidak menggunakan antarmuka VirtIO, akses jaringan mungkin akan hilang saat reboot. Hal ini terjadi karena RHEL tidak mendukung penonaktifan nama antarmuka jaringan yang dapat diprediksi jika setidaknya satu NIC tidak menggunakan antarmuka VirtIO.
Resolusi
Konektivitas jaringan dapat dipulihkan dengan
menghentikan dan memulai VM
hingga masalah selesai. Kehilangan konektivitas jaringan dapat dicegah agar tidak
terjadi lagi dengan melakukan hal berikut:
1. Edit file /etc/default/grub
lalu hapus parameter kernel
net.ifnames=0
dan biosdevname=0
.
2. Buat ulang konfigurasi grub.
3. Mulai ulang VM.
Symlink tidak ada untuk perangkat SSD Lokal di VM C3 dan C3D yang menjalankan SUSE Linux
Image Google Cloud SUSE publik tidak menyertakan konfigurasi udev yang diperlukan untuk membuat symlink bagi perangkat SSD Lokal C3 dan C3D.
Resolusi
Guna menambahkan aturan udev untuk SUSE dan image kustom, lihat Symlink tidak dibuat untuk C3 dan C3D dengan SSD Lokal.
Tanda tangan repomd.xml tidak dapat diverifikasi
Pada sistem berbasis Red Hat Enterprise Linux (RHEL) atau CentOS 7, Anda mungkin melihat error berikut saat mencoba menginstal atau mengupdate software menggunakan yum. Error ini menunjukkan bahwa kunci GPG repositori Anda sudah tidak berlaku atau salah.
Contoh log:
[root@centos7 ~]# yum update
...
google-cloud-sdk/signature | 1.4 kB 00:00:01 !!!
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Trying other mirror.
...
failure: repodata/repomd.xml from google-cloud-sdk: [Errno 256] No more mirrors to try.
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Resolusi
Untuk memperbaikinya, nonaktifkan kunci GPG repositori yang memeriksa konfigurasi repositori yum
dengan menyetel repo_gpgcheck=0
. Dalam image dasar Compute Engine yang didukung, setelan ini mungkin dapat ditemukan di file /etc/yum.repos.d/google-cloud.repo
. Namun,
VM Anda dapat memiliki set ini di file konfigurasi repositori
atau alat otomatisasi yang berbeda.
Repositori Yum biasanya tidak menggunakan kunci GPG untuk validasi repositori. Sebaliknya,
endpoint https
tepercaya.
Untuk menemukan dan memperbarui setelan ini, selesaikan langkah-langkah berikut:
Cari setelan di file
/etc/yum.repos.d/google-cloud.repo
Anda.cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Ubah semua baris yang bertuliskan
repo_gpgcheck=1
menjadirepo_gpgcheck=0
.sudo sed -i 's/repo_gpgcheck=1/repo_gpgcheck=0/g' /etc/yum.repos.d/google-cloud.repo
Pastikan setelan telah diperbarui.
cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Instance yang menggunakan Login OS menampilkan pesan login setelah koneksi
Pada beberapa instance yang menggunakan Login OS, Anda mungkin menerima pesan error berikut setelah koneksi dibuat:
/usr/bin/id: cannot find name for group ID 123456789
Resolusi
Abaikan pesan error.
Masalah umum untuk instance VM Windows
- Instance yang menjalankan Windows 11, Versi 22H2 gagal di-booting. Gunakan Windows 11 versi 21H2 hingga masalah ini diselesaikan.
- Dukungan untuk NVMe di Windows yang menggunakan driver Community NVMe masih dalam versi Beta, performanya mungkin tidak sesuai dengan instance Linux. Driver Community NVMe telah diganti dengan driver Microsoft StorNVMe di image publik Google Cloud. Sebaiknya ganti driver NVME pada VM yang dibuat sebelum Mei 2022 dan gunakan driver Microsoft StorNVMe.
- Setelah membuat instance, Anda tidak dapat langsung terhubung. Semua instance Windows baru menggunakan alat Persiapan sistem (sysprep) untuk menyiapkan instance Anda, yang dapat memerlukan waktu 5–10 menit untuk menyelesaikannya.
- Image Windows Server tidak dapat diaktifkan tanpa koneksi jaringan ke
kms.windows.googlecloud.com
dan akan berhenti berfungsi jika tidak melakukan autentikasi dalam waktu 30 hari. Software yang diaktifkan oleh KMS harus diaktifkan ulang setiap 180 hari, tetapi KMS akan mencoba mengaktifkan kembali setiap 7 hari. Pastikan untuk mengonfigurasi instance Windows agar tetap aktif. - Software kernel yang mengakses register khusus model yang tidak diemulasi akan menghasilkan kesalahan perlindungan umum, yang dapat menyebabkan error sistem, bergantung pada sistem operasi tamu.
Error saat mengukur penyimpangan waktu NTP menggunakan w32tm pada VM Windows
Untuk VM Windows di Compute Engine yang menjalankan NIC VirtIO, terdapat bug umum yang mana pengukuran penyimpangan NTP menghasilkan error saat menggunakan perintah berikut:
w32tm /stripchart /computer:metadata.google.internal
Error akan tampak seperti berikut:
Tracking metadata.google.internal [169.254.169.254:123].
The current time is 11/6/2023 6:52:20 PM.
18:52:20, d:+00.0007693s o:+00.0000285s [ * ]
18:52:22, error: 0x80072733
18:52:24, d:+00.0003550s o:-00.0000754s [ * ]
18:52:26, error: 0x80072733
18:52:28, d:+00.0003728s o:-00.0000696s [ * ]
18:52:30, error: 0x80072733
18:52:32, error: 0x80072733
Bug ini hanya memengaruhi VM Compute Engine dengan NIC VirtIO. VM yang menggunakan gVNIC tidak mengalami masalah ini.
Untuk menghindari masalah ini, Google merekomendasikan penggunaan alat pengukuran penyimpangan NTP lainnya, seperti Meinberg Time Server Monitor.
Memindahkan VM Windows ke seri mesin generasi ketiga menyebabkan masalah booting
Jika Anda memindahkan VM Windows ke seri mesin generasi ketiga (misalnya, C3 atau H3) dari seri mesin generasi pertama atau kedua (misalnya, N1 atau N2), VM akan gagal melakukan booting saat Anda memulai ulang.
Untuk mengatasi masalah ini, lakukan hal berikut:
Pastikan bahwa boot disk VM yang ingin diupgrade kompatibel dengan jenis mesin generasi ketiga dengan menjalankan perintah
gcloud compute disks describe
:gcloud compute disks describe DISK_NAME --zone=ZONE
Ganti kode berikut:
DISK_NAME
: dengan nama boot diskZONE
: zona disk
Output harus berisi hal berikut untuk menggunakan boot disk dengan rangkaian mesin generasi ketiga:
guestOsFeatures: ... - type: GVNIC - type: WINDOWS
Gunakan Konsol Google Cloud untuk membuat VM Windows dengan properti berikut:
- Zona: zona yang sama dengan VM asli
- Boot disk: boot disk VM asli
- Seri mesin: seri mesin generasi ketiga
Throughput jaringan buruk saat menggunakan gVNIC
VM Windows Server 2022 dan Windows 11 yang menggunakan paket GooGet driver gVNIC versi
1.0.0@44
atau yang lebih lama mungkin mengalami throughput jaringan yang buruk saat
menggunakan Google Virtual NIC (gVNIC).
Untuk mengatasi masalah ini, update paket GooGet driver gVNIC ke versi
1.0.0@45
atau yang lebih baru dengan melakukan hal berikut:
Periksa versi driver yang terinstal pada VM dengan menjalankan perintah berikut dari sesi Command Prompt atau Powershell administrator:
googet installed
Outputnya terlihat mirip dengan yang berikut ini:
Installed packages: ... google-compute-engine-driver-gvnic.x86_64 VERSION_NUMBER ...
Jika versi driver
google-compute-engine-driver-gvnic.x86_64
adalah1.0.0@44
atau yang lebih lama, update repositori paket GooGet dengan menjalankan perintah berikut dari sesi Command Prompt atau Powershell administrator:googet update
Bandwidth terbatas dengan gVNIC di Microsoft Windows dengan VM C3 dan C3D
Pada sistem operasi Windows, driver gVNIC tidak mencapai batas bandwidth yang didokumentasikan. Driver gVNIC dapat mencapai bandwidth jaringan hingga 85 Gbps pada VM C3 dan C3D yang menjalankan Microsoft Windows, untuk performa jaringan default dan jaringan per VM Tier_1.
Mengganti driver NVME pada VM yang dibuat sebelum Mei 2022
Jika ingin menggunakan NVMe pada VM yang menggunakan Microsoft Windows, dan VM tersebut dibuat sebelum 1 Mei 2022, Anda harus mengupdate driver NVMe yang ada di OS Tamu agar dapat menggunakan Driver Microsoft StorNVMe.
Anda harus mengupdate driver NVMe pada VM sebelum mengubah jenis mesin menjadi seri mesin generasi ketiga, atau sebelum membuat snapshot boot disk yang akan digunakan untuk membuat VM baru yang menggunakan seri mesin generasi ketiga.
Gunakan perintah berikut untuk menginstal paket driver StorNVME dan menghapus driver komunitas, jika ada di OS tamu.
googet update
googet install google-compute-engine-driver-nvme
Performa lebih rendah untuk SSD Lokal di Microsoft Windows dengan VM C3 dan C3D
Performa SSD lokal terbatas untuk VM C3 dan C3D yang menjalankan Microsoft Windows.
Peningkatan performa sedang dalam proses.
Performa IOPS lebih rendah untuk Hyperdisk Ekstrem pada Microsoft Windows dengan VM C3 dan M3
Performa Hyperdisk Ekstrem terbatas pada VM Microsoft Windows.
Peningkatan performa sedang dalam proses.
Jenis mesin vCPU C3D 180 dan 360 tidak mendukung OS image Windows
Jenis mesin vCPU C3D 180 tidak mendukung image OS Windows Server 2012 dan 2016. VM C3D yang dibuat dengan 180 vCPU serta image OS Windows Server 2012 dan 2016 akan gagal di-booting. Untuk mengatasi masalah ini, pilih jenis mesin yang lebih kecil atau gunakan image OS lain.
VM C3D yang dibuat dengan 360 vCPU dan image OS Windows akan gagal di-booting. Untuk mengatasi masalah ini, pilih jenis mesin yang lebih kecil atau gunakan OS image lain.
Error disk umum pada Windows Server 2016 dan 2012 R2 untuk VM M3, C3, dan C3D
Saat ini, kemampuan untuk menambahkan atau mengubah ukuran Hyperdisk atau Persistent Disk untuk VM M3, C3, atau C3D yang berjalan tidak berfungsi seperti yang diharapkan pada tamu Windows tertentu. Windows Server 2012 R2 dan Windows Server 2016, beserta varian Windows non-server yang terkait, tidak merespons dengan benar perintah pemasangan disk dan ubah ukuran disk.
Misalnya, mengeluarkan disk dari VM M3 yang berjalan akan memutuskan koneksi disk dari instance Windows Server tanpa sistem operasi Windows mengenali bahwa disk telah hilang. Penulisan berikutnya ke disk akan menampilkan error umum.
Resolusi
Anda harus memulai ulang VM M3, C3, atau C3D yang berjalan di Windows setelah mengubah Hyperdisk atau Persistent Disk agar modifikasi disk dapat dikenali oleh tamu tersebut.