Questa pagina descrive i problemi noti che potresti riscontrare durante l'utilizzo di Compute Engine. Per problemi che riguardano in modo specifico per le Confidential VM, vedi Limitazioni di Confidential VM.
Problemi generici
I problemi riportati di seguito forniscono indicazioni per la risoluzione dei problemi o informazioni generali.
La creazione di prenotazioni o richieste di prenotazione futura utilizzando un modello di istanza che specifica un tipo di macchina A2, C3 o G2 causa problemi
Se utilizzi un modello di istanza che specifica un tipo di macchina A2, C3 o G2 per creare una prenotazione o per creare e inviare una richiesta di prenotazione futura e la revisione, si verificano problemi. In particolare:
La creazione della prenotazione potrebbe non riuscire. Se l'operazione va a buon fine, si applica una delle seguenti condizioni:
Se hai creato una prenotazione consumata automaticamente (valore predefinito), la creazione di VM con proprietà corrispondenti non consumerà la prenotazione.
Se hai creato una prenotazione specifica, creando VM per un target specifico la prenotazione non va a buon fine.
Creazione della richiesta di prenotazione futura riuscita. Tuttavia, se invii per la revisione, Google Cloud rifiuta la tua richiesta.
Non puoi sostituire il modello di istanza utilizzato per creare una prenotazione o una richiesta di prenotazione futura né eseguire l'override delle proprietà della VM del modello. Se vuoi riserva risorse per i tipi di macchina A2, C3 o G2, effettua una delle seguenti operazioni anziché:
Crea un nuovo elemento progetto singolo o prenotazione condivisa specificando direttamente le proprietà.
Per creare una nuova richiesta di prenotazione futura:
Se vuoi impedire a una richiesta di prenotazione futura esistente di limitare le proprietà delle richieste di prenotazione futura che puoi creare nel tuo progetto corrente o nei progetti con cui è condivisa, elimina la richiesta di prenotazione futura.
Crea un progetto singolo o richiesta di prenotazione futura condivisa specificando le proprietà direttamente e inviandole per la revisione.
Limitazioni quando si utilizzano i tipi di macchine c3-standard-*-lssd
e c3d-standard-*-lssd
con Google Kubernetes Engine
Quando utilizzi l'API Google Kubernetes Engine, il pool di nodi con SSD locale collegato che esegui il provisioning deve avere lo stesso numero di dischi SSD del tipo di macchina C3 e C3D selezionato. Ad esempio, se prevedi di creare una VM che utilizza c3-standard-8-lssd
, devono essere presenti 2 dischi SSD, mentre per c3d-standard-8-lssd
è richiesto un solo disco SSD. Se
il numero del disco non corrisponde, riceverai un errore di configurazione dell'SSD locale
dal piano di controllo di Compute Engine. Consulta il documento
Famiglia di macchine per uso generale
per selezionare il numero corretto di dischi SSD locali in base al tipo di macchina C3 o C3Dlssd
.
L'utilizzo della console Google Cloud di Google Kubernetes Engine per creare un cluster o un pool di nodi con VM c3-standard-*-lssd
e c3d-standard-*-lssd
comporta un errore di creazione dei nodi o la mancata rilevazione delle unità SSD locali come archiviazione temporanea.
Variabilità della velocità effettiva TCP a flusso singolo sulle VM C3D
Le VM C3D con più di 30 vCPU potrebbero registrare una velocità effettiva TCP a flusso singolo e, occasionalmente, essere limitati a 20-25 Gbps. Per ottenere velocità più elevate, utilizza più flussi TCP.
Il gruppo di istanze gestite con serie di macchine T2D non applica la scalabilità automatica come previsto
Gruppi di istanze gestite che hanno VM della serie di macchine T2D in progetti che create prima del 18 giugno 2023, non rilevano correttamente il carico della CPU sulle VM gruppo di istanze gestite In questi progetti, la scalabilità automatica in base all'utilizzo della CPU in un gruppo di istanze gestite con VM della serie di macchine T2D potrebbe non essere corretta.
Per applicare una correzione al progetto, contatta l'assistenza clienti Google Cloud.
La metrica di osservabilità dell'utilizzo della CPU non è corretta per le VM che utilizzano un thread per core
Se la CPU della VM utilizza un thread per core, l'utilizzo della CPU la metrica di osservabilità di Cloud Monitoring Compute Engine > Istanze VM > Osservabilità viene ridimensionato solo al 50%. Due thread per core è l'impostazione predefinita per tutti i tipi di macchine, tranne Tau T2D. Per ulteriori informazioni, consulta Impostare il numero di thread per core.
Per visualizzare l'utilizzo della CPU della VM normalizzato al 100%, visualizza l'utilizzo della CPU in Metrics Explorer. Per ulteriori informazioni, vedi Crea grafici con Esplora metriche.
Le connessioni SSH nel browser della console Google Cloud potrebbero non riuscire se utilizzi regole firewall personalizzate
Se utilizzi regole firewall personalizzate per controllare l'accesso SSH alle istanze VM, potrebbe non essere in grado di utilizzare il protocollo SSH nel browser funzionalità.
Per risolvere il problema, esegui una delle seguenti operazioni:
Attiva Identity-Aware Proxy per TCP per continuare a connetterti alle VM utilizzando la funzionalità SSH nel browser della console Google Cloud.
Ricrea il
default-allow-ssh
regola firewall per continuare a connetterti alle VM tramite SSH nel browser.Connettiti alle VM utilizzando Google Cloud CLI instead of SSH nel browser.
Il ridimensionamento o l'eliminazione di prenotazioni specifiche impedisce alle VM di utilizzare altre prenotazioni
Se riduci le dimensioni o elimini una prenotazione specifica che è stata utilizzata da una o più VM, le VM orfane non possono utilizzare alcuna prenotazione.
Se vuoi, per evitare questo problema, elimina le VM o aggiorna la proprietà
reservationAffinity
delle VM fino a quando il numero di VM che hanno come target la prenotazione specifica non corrisponde al numero di VM pianificate per la prenotazione specifica. Dopodiché puoi ridurre le dimensioni o eliminare la prenotazione specifica.Per risolvere questo problema:
Rendi uguale il numero di VM nella prenotazione specifica al numero di VM che la hanno come target eseguendo una o più delle seguenti operazioni: eliminazione delle VM, aggiornamento della proprietà
reservationAffinity
delle VM, aumento delle dimensioni della prenotazione sottodimensionata o ricreazione della prenotazione specifica eliminata.Arresta e avvia le VM rimanenti.
Scopri di più su eliminare le prenotazioni e sul ridimensionamento delle prenotazioni.
Il trasferimento di VM o dischi utilizzando l'API moveInstance
o gcloud CLI causa un comportamento imprevisto
Spostamento delle istanze di macchine virtuali (VM) mediante gcloud compute instances move
o il comando
Metodo project.moveInstance
potrebbe causare la perdita di dati, l'eliminazione delle VM o altri comportamenti imprevisti.
Per spostare le VM, ti consigliamo di seguire le istruzioni in Spostare un'istanza VM tra zone o regioni.
I dischi collegati alle VM con tipi di macchine n2d-standard-64
non raggiungono in modo coerente i limiti di prestazioni
I dischi permanenti collegati alle VM con tipi di macchine n2d-standard-64
non
raggiungono in modo coerente il limite di prestazioni massimo di 100.000 IOPS. Questo accade sia per le IOPS in lettura che per quelle in scrittura.
Nomi temporanei per i dischi
Durante gli aggiornamenti delle istanze di macchine virtuali (VM) avviati utilizzando
Comando gcloud compute instances update
o il
instances.update
metodo API,
Compute Engine potrebbe modificare temporaneamente il nome dei dischi della tua VM, aggiungendo
dei seguenti suffissi al nome originale:
-temp
-old
-new
Compute Engine rimuove il suffisso e ripristina i nomi dei dischi originali come aggiornamento completato.
Aumento della latenza per alcuni dischi permanenti causato dal ridimensionamento del disco
In alcuni casi, il ridimensionamento di dischi permanenti di grandi dimensioni (circa 3 TB o più) che disturbano le prestazioni di I/O del disco. Se il problema ti riguarda, i tuoi dischi permanenti potrebbero registrare una maggiore latenza durante l'operazione di ridimensionamento. Questo problema può interessare i dischi permanenti di qualsiasi type.
Possibilità di collegare dischi PD-Standard e PD-Extreme non supportati alle VM C3 e M3
I dischi permanenti standard (pd-standard
) sono il tipo di disco di avvio predefinito quando
utilizzando Google Cloud CLI o l'API Compute Engine. Tuttavia, pd-standard
dischi non sono
supportate sulle VM C3 e M3. Inoltre, le VM C3 non supportano pd-extreme
i dischi permanenti.
Quando utilizzi Google Cloud CLI o l'API Compute Engine, possono verificarsi i seguenti problemi:
pd-standard
è configurato come tipo di disco di avvio predefinito e il disco è creato, a meno che non specifichi un tipo di disco di avvio supportato diverso, comepd-balanced
opd-ssd
.- Prima della disponibilità generale (GA)
della C3, potevi collegare dischi
pd-extreme
alle VM C3 e dischipd-standard
alle VM C3 e M3.
Se hai creato una VM C3 o M3 con un tipo di disco non supportato, sposta i dati su un nuovo tipo di disco supportato, come descritto in Modificare il tipo di disco permanente. Se non modifichi il tipo di disco, le VM continueranno a funzionare, ma operazioni come scollegamento e ricollegamento del disco non andranno a buon fine.
Soluzione
Per risolvere il problema, procedi in uno dei seguenti modi:
- Utilizza la console Google Cloud per creare VM C3 o M3 e collegare i dischi. La console
crea VM C3 e M3 con dischi di avvio
pd-balanced
e non consente di collegare tipi di dischi non supportati alle VM. - Se utilizzi Google Cloud CLI o l'API Compute Engine, configura esplicitamente un disco di avvio
digita
pd-balanced
opd-ssd
durante la creazione di una VM.
I processi automatici potrebbero non riuscire se utilizzano i dati della risposta dell'API relativi alle quote di impegno basate sulle risorse
I tuoi processi automatizzati che consumano e utilizzano i dati di risposta delle API su le quote di impegno basate sulle risorse di Compute Engine potrebbero non andare a buon fine se si verifica una delle seguenti condizioni. I tuoi processi automatizzati possono includere snippet di codice, logica di business o campi di database che utilizzano o archiviare le risposte dell'API.
I dati di risposta provengono da uno dei seguenti metodi dell'API Compute Engine:
Utilizza un
int
anziché unnumber
per definire il campo per il limite di quota della risorsa nei campi di risposta dell'API. Puoi trovare il campo nei seguenti modi per ciascun metodo:items[].quotas[].limit
per il metodocompute.regions.list
.quotas[].limit
per il metodocompute.regions.get
.quotas[].limit
per il metodocompute.projects.get
.
Hai a disposizione una quota predefinita illimitata per SKU di commit di Compute Engine.
Per saperne di più sulle quote per impegni e SKU impegnati, consulta Quote per impegni e risorse impegnate.
Causa principale
Quando hai una quota limitata, se definisci il campo items[].quotas[].limit
o
quotas[].limit
come tipo int
, i dati di risposta dell'API per i limiti di quota
potrebbero comunque rientrare nell'intervallo per il tipo int
e la procedura automatica
potrebbe non essere interrotta. Tuttavia, quando il limite di quota predefinito è illimitato,
l'API Compute Engine restituisce un valore per il campo limit
che rientra
al di fuori dell'intervallo definito dal tipo int
. Il tuo processo automatizzato non può
consuma il valore restituito dal metodo API e, di conseguenza, non riesce.
Come risolvere il problema
Puoi aggirare il problema e continuare a generare report automatici. nei seguenti modi:
Consigliato: segui le Documentazione di riferimento dell'API Compute Engine e utilizzare i tipi di dati corretti per le definizioni dei metodi API. Nello specifico, utilizza il tipo
number
per definire i campiitems[].quotas[].limit
equotas[].limit
per i metodi dell'API.Riduci il limite della quota a un valore inferiore a 9.223.372.036.854.775.807. Devi impostare limiti di quota per tutti i progetti basati sulle risorse in tutte le regioni. Puoi eseguire questa operazione in uno dei seguenti modi:
- Segui la stessa procedura per inviare una richiesta di aumento della quota e richiedi un limite di quota inferiore.
- Imposta un override della quota consumer.
Problemi noti per le istanze Bare Metal
Questi sono i problemi noti delle istanze bare metal di Compute Engine.
La statistica dei pacchetti persi non è corretta
Il numero di pacchetti eliminati segnalati da VIRTCHNL2_OP_GET_STATS
è molto
un numero elevato.
La causa principale è che IDPF segnala EthStats::rx_discards
al sistema operativo come
rtnl_link_stats64::rx_dropped
.
Questo viene visualizzato come RX dropped
quando esegui ifconfig
.
Problemi noti per le istanze VM Linux
Questi sono i problemi noti delle VM Linux.
Prestazioni IOPS inferiori per l'SSD locale su Z3 con immagini SUSE 12
Le VM Z3 sulle immagini SUSE Linux Enterprise Server (SLES) 12 hanno prestazioni inferiori alle aspettative per le IOPS sui dischi SSD locali.
Causa principale
Si tratta di un problema all'interno della base di codice di SLES 12.
Soluzione alternativa
Una patch da SUSE per risolvere questo problema non è disponibile o pianificata. Dovresti invece utilizzare il sistema operativo SLES 15.
Le VM RHEL 7 e CentOS perdono l'accesso alla rete dopo il riavvio
Se le VM CentOS o RHEL 7 hanno più schede di interfaccia di rete (NIC) e una di queste NIC non utilizza l'interfaccia VirtIO, la rete l'accesso potrebbe andare perso al riavvio. Questo accade perché RHEL non supporta disabilitazione dei nomi delle interfacce di rete prevedibili se almeno un NIC non utilizza l'interfaccia di VirtIO.
Risoluzione
La connettività di rete può essere ripristinata fermando e avviando la VM finché il problema non viene risolto. Per evitare che la perdita di connettività di rete si ripeta, segui questi passaggi:
1. Modifica il file /etc/default/grub
e rimuovi i parametri del kernel
net.ifnames=0
e biosdevname=0
.
2. Rigenera la configurazione grub.
3. Riavvia la VM.
Link simbolici mancanti per i dispositivi SSD locali sulle VM C3 e C3D che eseguono SUSE Linux
Le immagini SUSE pubbliche di Google Cloud non includono la configurazione udev richiesta per creare collegamenti simbolici per i dispositivi SSD locali C3 e C3D.
Risoluzione
Per aggiungere regole udev per SUSE e immagini personalizzate, consulta Symlinks not created C3 and C3D with Local SSD.
Impossibile verificare la firma repomd.xml
Sui sistemi Red Hat Enterprise Linux (RHEL) o CentOS 7, potresti vedere il seguente errore quando provi a installare o aggiornare il software utilizzando yum. Questo mostra che hai una chiave GPG del repository scaduta o errata.
Log di esempio:
[root@centos7 ~]# yum update
...
google-cloud-sdk/signature | 1.4 kB 00:00:01 !!!
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Trying other mirror.
...
failure: repodata/repomd.xml from google-cloud-sdk: [Errno 256] No more mirrors to try.
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Risoluzione
Per risolvere il problema, disattiva il controllo della chiave GPG del repository nella configurazione del repository yum impostando repo_gpgcheck=0
. Nelle immagini di base di Compute Engine supportate,
disponibile nel file /etc/yum.repos.d/google-cloud.repo
. Tuttavia,
la tua VM può avere questo valore impostato in diversi file di configurazione del repository
o strumenti di automazione.
I repository Yum in genere non utilizzano le chiavi GPG per la convalida del repository. Invece,
l'endpoint https
è attendibile.
Per individuare e aggiornare questa impostazione, segui questi passaggi:
Cerca l'impostazione nel file
/etc/yum.repos.d/google-cloud.repo
.cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Cambia tutte le righe con
repo_gpgcheck=1
inrepo_gpgcheck=0
.sudo sed -i 's/repo_gpgcheck=1/repo_gpgcheck=0/g' /etc/yum.repos.d/google-cloud.repo
Verifica che l'impostazione sia aggiornata.
cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Le istanze che utilizzano OS Login restituiscono un messaggio di accesso dopo la connessione
In alcune istanze utilizza OS Login, potresti ricevere il seguente messaggio di errore dopo connessione attiva:
/usr/bin/id: cannot find name for group ID 123456789
Risoluzione
Ignora il messaggio di errore.
Problemi noti per le istanze VM Windows
- Il supporto di NVMe su Windows che utilizza il driver NVMe della community è in versione beta, pertanto le prestazioni potrebbero non corrispondere a quelle delle istanze Linux. Il driver NVMe della community è stato sostituito con il driver Microsoft StorNVMe in immagini pubbliche di Google Cloud. Ti consigliamo di sostituire il driver NVME nelle VM create prima di maggio 2022 e di utilizzare il driver Microsoft StorNVMe.
- Dopo aver creato un'istanza, non puoi connetterti immediatamente. Tutte le nuove istanze Windows utilizzano lo strumento Preparazione del sistema (sysprep) per configurare l'istanza, il che può richiedere 5-10 minuti.
- Le immagini di Windows Server non possono essere attivate senza una connessione di rete a
kms.windows.googlecloud.com
e smettono di funzionare se non si autenticano inizialmente entro 30 giorni. Software attivato dal KMS deve riattivare ogni 180 giorni, ma il KMS tenta di riattivarla ogni 7 giorni. Assicurati di configurare le istanze Windows in modo che rimangano attive. - Software kernel che accede a dati non emulati registri specifici del modello genererà errori di protezione generali, che possono causare un arresto anomalo del sistema a seconda del sistema operativo guest.
Errori durante la misurazione dello scostamento di tempo NTP utilizzando w32tm sulle VM Windows
Per le VM Windows su Compute Engine che eseguono NIC VirtIO, è noto un bug in cui la misurazione dello scostamento NTP genera errori quando si utilizza il seguente comando:
w32tm /stripchart /computer:metadata.google.internal
Gli errori sono simili ai seguenti:
Tracking metadata.google.internal [169.254.169.254:123].
The current time is 11/6/2023 6:52:20 PM.
18:52:20, d:+00.0007693s o:+00.0000285s [ * ]
18:52:22, error: 0x80072733
18:52:24, d:+00.0003550s o:-00.0000754s [ * ]
18:52:26, error: 0x80072733
18:52:28, d:+00.0003728s o:-00.0000696s [ * ]
18:52:30, error: 0x80072733
18:52:32, error: 0x80072733
Questo bug interessa solo le VM di Compute Engine con NIC VirtIO. VM che utilizzano gVNIC non riscontrerai questo problema.
Per evitare questo problema, Google consiglia di utilizzare altri strumenti di misurazione della deriva NTP, come Meinberg Time Server Monitor.
Dispositivo di avvio inaccessibile dopo l'aggiornamento di una VM da 1a o 2a generazione a una VM di terza generazione o successive
Windows Server associa la unità di avvio al tipo di interfaccia del disco iniziale al primo avvio. Per cambiare una VM esistente da una serie di macchine meno recenti che utilizza un'interfaccia di disco SCSI a una serie di macchine più recenti che utilizza un'interfaccia di disco NVMe, esegui un sysprep del driver PnP di Windows prima di arrestare la VM. Questo sysprep prepara solo i driver di dispositivo e garantisce che tutti i tipi di interfaccia del disco vengano sottoposti a scansione per la ricerca della unità di avvio al successivo avvio.
Per aggiornare la serie di macchine di una VM:
Da un prompt di PowerShell mentre Administrator
esegue:
PS C:\> start rundll32.exe sppnp.dll,Sysprep_Generalize_Pnp -wait
- Arresta la VM.
- Cambiare la VM nel nuovo tipo di macchina.
- Avvia la VM.
Se la nuova VM non si avvia correttamente, ripristina il tipo di macchina originale per riavviare la VM. Dovrebbe iniziare correttamente. Esamina i requisiti per la migrazione per assicurarti di soddisfarli. Quindi, prova a eseguire di nuovo istruzioni.
Larghezza di banda limitata con gVNIC sulle VM Windows
Sui sistemi operativi Windows, il driver gVNIC non raggiunge i limiti di larghezza di banda documentati per il tipo di macchina. Il driver gVNIC può raggiungere 50 Gbit/s di larghezza di banda di rete sulle VM Windows, sia per le prestazioni di rete standard che per quelle di rete Tier_1 per VM.
Collegamento con numero limitato di dischi per le serie di macchine VM più recenti
VM in esecuzione su Microsoft Windows con l'interfaccia del disco NVMe, che include T2A, tutte le VM di terza generazione e più recenti e VM che utilizzano Confidential Computing), avere un limite di 16 dischi per i collegamenti. Per evitare errori, consolida la tua archiviazione su dischi permanenti e Hyperdisk in un massimo di 16 dischi per VM. Lo spazio di archiviazione SSD locale è escluso da questo problema.
Sostituisci il driver NVME sulle VM create prima di maggio 2022
Se vuoi utilizzare NVMe su una VM che utilizza Microsoft Windows e la VM è stata creata prima del 1° maggio 2022, devi aggiornare il driver NVMe esistente nel sistema operativo guest per utilizzare il driver Microsoft StorNVMe.
Devi aggiornare il driver NVMe sulla VM prima di cambiare il tipo di macchina in una serie di macchine di terza generazione o prima di creare uno snapshot del disco di avvio che verrà utilizzato per creare nuove VM che utilizzano una serie di macchine di terza generazione.
Utilizza i seguenti comandi per installare il pacchetto del driver StorNVME e rimuovere il driver della community, se presente nel sistema operativo guest.
googet update
googet install google-compute-engine-driver-nvme
Prestazioni inferiori per gli SSD locali su Microsoft Windows con VM C3 e C3D
Le prestazioni delle unità SSD locali sono limitate per le VM C3 e C3D che eseguono Microsoft Windows.
Sono in corso miglioramenti delle prestazioni.
Basso throughput di rete quando si utilizza gVNIC
Le VM Windows Server 2022 e Windows 11 che utilizzano il pacchetto GooGet del driver gVNIC
nella versione 1.0.0@44
o precedente potrebbero riscontrare un basso throughput della rete quando
utilizzano Google Virtual NIC (gVNIC).
Per risolvere il problema, aggiorna il pacchetto GooGet del driver gVNIC alla versione1.0.0@45
o successiva nel seguente modo:
Controlla la versione del driver installata sulla VM eseguendo il seguente comando da un prompt dei comandi o da una sessione Powershell di amministratore:
googet installed
L'output è simile al seguente:
Installed packages: ... google-compute-engine-driver-gvnic.x86_64 VERSION_NUMBER ...
Se la versione del driver
google-compute-engine-driver-gvnic.x86_64
è1.0.0@44
o prima, aggiorna Repository di pacchetti GooGet eseguendo questo comando dal prompt dei comandi dell'amministratore Sessione PowerShell:googet update
I tipi di macchine C3D con 180 e 360 vCPU non supportano le immagini del sistema operativo Windows
I tipi di macchine vCPU C3D da 180 vCPU non supportano le immagini sistema operativo Windows Server 2012 e 2016. L'avvio delle VM C3D create con 180 vCPU e immagini del sistema operativo Windows Server 2012 e 2016 non andrà a buon fine. Per risolvere il problema, seleziona un tipo di macchina più piccolo o utilizza un'altra immagine del sistema operativo.
Le VM C3D create con 360 vCPU e immagini del sistema operativo Windows non riusciranno ad avviarsi. Per aggirare il problema, seleziona un tipo di macchina più piccolo o utilizza un'altra immagine sistema operativo.
Errore generico del disco su Windows Server 2016 e 2012 R2 per le VM M3, C3 e C3D
Al momento, la possibilità di aggiungere o ridimensionare un Hyperdisk o un disco persistente per una VM M3, C3 o C3D in esecuzione non funziona come previsto su guest Windows specifici. Windows Server 2012 R2 e Windows Server 2016 e le rispettive applicazioni non server Varianti Windows, non rispondono correttamente al collegamento e al ridimensionamento del disco tramite comandi SQL.
Ad esempio, se rimuovi un disco da una VM M3 in esecuzione, il disco viene disconnesso da una su un'istanza Windows Server senza che il sistema operativo Windows riconosca che quando il disco non è più disponibile. Le scritture successive sul disco restituiscono un errore generico.
Risoluzione
Devi riavviare la VM M3, C3 o C3D in esecuzione su Windows dopo aver modificato un hyperdisk o un disco permanente affinché le modifiche al disco vengano riconosciute da questi guest.