Nesta página são descritos os problemas que você pode encontrar ao usar o Compute Engine. Para problemas que afetam especificamente as VMs confidenciais, consulte Limitações de VMs confidenciais.
Problemas gerais
Os problemas a seguir fornecem orientações para solução de problemas ou informações gerais.
Criar reservas ou solicitações futuras de reserva usando um modelo de instância que especifica um tipo de máquina A2, C3 ou G2 causa problemas
Você encontrará problemas ao usar um modelo de instância que especifica um tipo de máquina A2, C3 ou G2 para criar uma reserva ou para criar e enviar uma solicitação de reserva futura para análise. Especificamente:
A criação da reserva pode falhar. Se ela for bem-sucedida, uma das seguintes condições se aplica:
Se você criou uma reserva consumida automaticamente (padrão), a criação de VMs com propriedades correspondentes não vai consumir a reserva.
Se você criou uma reserva específica, a criação de VMs para visar especificamente a reserva falhará.
A criação da solicitação de reserva futura foi bem-sucedida. No entanto, se você enviá-lo para análise, o Google Cloud recusará a solicitação.
Não é possível substituir o modelo de instância usado para criar uma reserva ou solicitação de reserva futura nem modificar as propriedades de VM do modelo. Se você quiser reservar recursos para os tipos de máquina A2, C3 ou G2, siga um destes procedimentos:
Crie um novo projeto único ou reserva compartilhada especificando propriedades diretamente.
Crie uma nova solicitação de reserva futura da seguinte maneira:
Se você quiser impedir que uma solicitação de reserva futura restrinja as propriedades das solicitações de reserva futuras que possa criar no seu projeto atual ou nos projetos com os quais o pedido de reserva futuro será compartilhado. : exclua a solicitação de reserva futura.
Crie um projeto único ou solicitação de reserva futura compartilhada especificando propriedades diretamente e enviando para revisão.
Limitações ao usar tipos de máquina c3-standard-*-lssd
e c3d-standard-*-lssd
com o Google Kubernetes Engine
Ao usar a API Google Kubernetes Engine, o pool de nós com o SSD local anexado que você provisiona precisa ter o mesmo número de SSDs que o tipo de máquina C3 e C3D selecionado. Por exemplo, se você planeja
criar uma VM que usa o c3-standard-8-lssd
, é necessário ter dois discos SSD,
enquanto que para um c3d-standard-8-lssd
, apenas um disco SSD é necessário. Se o número do disco não corresponder, você receberá um erro de configuração do SSD local do plano de controle do Compute Engine. Consulte o documento Família de máquinas de uso geral para selecionar o número correto de discos SSD locais com base no tipo de máquina lssd
C3 ou C3D.
Usar o console do Google Cloud no Google Kubernetes Engine para criar um cluster ou pool de nós com VMs c3-standard-*-lssd
e c3d-standard-*-lssd
resulta em falha na criação do nó ou em falha na detecção de SSDs locais como armazenamento temporário.
Variabilidade da capacidade de processamento de TCP de fluxo único em VMs C3D
VMs C3D com mais de 30 vCPUs podem apresentar variação de capacidade de TCP de fluxo único e, às vezes, ser limitadas a 20 a 25 Gbps. Para alcançar taxas mais altas, use vários fluxos de TCP.
O grupo gerenciado de instâncias com série de máquina T2D não faz o escalonamento automático conforme esperado
Os grupos gerenciados de instâncias (MIGs) que têm as VMs com a série de máquina T2D em projetos criados antes de 18 de junho de 2023 não detectam corretamente a carga da CPU em VMs no MIG. Nesses projetos, o escalonamento automático com base na utilização da CPU em um MIG que tem VMs com a série de máquina T2D pode estar incorreto.
Para aplicar uma correção ao seu projeto, entre em contato com o Cloud Customer Care.
A métrica de observabilidade de utilização da CPU está incorreta para VMs que usam uma linha de execução por núcleo
Se a CPU da VM usar uma linha de execução por núcleo, a métrica de observabilidade do Cloud Monitoring de utilização da CPU no Google Compute Engine> Instâncias de VM> Observabilidade a guia só é dimensionada para 50%. Duas linhas de execução por núcleo são o padrão para todos os tipos de máquinas, exceto o Tau T2D. Para ver mais informações, consulte Definir número de linhas de execução por núcleo.
Para ver o uso de CPU da sua VM normalizado em 100%, confira a utilização de CPU no Metrics Explorer. Para mais informações, consulte Criar gráficos com o Metrics Explorer.
As conexões SSH no navegador do console do Google Cloud podem falhar se você usar regras de firewall personalizadas
Se você usa regras de firewall personalizadas para controlar o acesso SSH às instâncias de VM, talvez não seja possível usar o recurso SSH no navegador.
Para resolver esse problema, siga uma destas etapas:
Ative o Identity-Aware Proxy para TCP para continuar se conectando às VMs usando o recurso do console do Google Cloud com SSH no navegador.
Recrie a regra
default-allow-ssh
do firewall para continuar a se conectar a VMs usando o SSH no navegador.Conecte-se a VMs usando a CLI do Google Cloud em vez de usar o SSH no navegador.
Reduzir ou excluir reservas específicas impede que as VMs consumam outras reservas
Se você reduzir ou excluir uma reserva específica que foi consumida por uma ou mais VMs, as VMs órfãs não poderão consumir reservas.
Para evitar esse problema, exclua VMs ou atualize a propriedade
reservationAffinity
das VMs até atingir o número específico de VMs que segmentam a VM reserva que corresponde ao número de VMs planejadas para a reserva específica. Depois disso, será possível diminuir ou excluir a reserva específica.Para corrigir esse problema:
Torne o número de VMs na reserva específica igual ao número de VMs que o segmentam ao realizar uma ou mais das seguintes ações: excluir VMs, atualizar a propriedade
reservationAffinity
das VMs, aumentar a reserva reduzida ou recriar a reserva específica excluída.Pare e inicie as VMs restantes.
Saiba mais sobre como excluir reservas e redimensionar reservas.
Mover VMs ou discos usando a API moveInstance
ou a CLI gcloud causa comportamentos inesperados
Mover instâncias de máquina virtual (VM) usando o comando
gcloud compute instances move
ou o
método project.moveInstance
pode causar perda de dados, exclusão de VM ou outro comportamento
inesperado.
Ao mover VMs, recomendamos seguir as instruções em Mover uma instância de VM entre zonas ou regiões.
Os discos anexados a VMs com tipos de máquina n2d-standard-64
não atingem os limites de desempenho de maneira consistente
Os discos permanentes anexados a VMs com tipos de máquina n2d-standard-64
não
alcançam o limite máximo de desempenho de 100.000 IOPS de maneira consistente. Esse é o
caso para IOPS de leitura e gravação.
Nomes temporários para discos
Durante a atualização das instâncias de máquina virtual (VM) iniciadas usando
gcloud compute instances update
comando
ou
instances.update
Método de API,
o Compute Engine pode alterar temporariamente o nome dos discos da sua VM adicionando
os seguintes sufixos ao nome original:
-temp
-old
-new
O Compute Engine remove o sufixo e restaura os nomes dos discos originais à medida que a atualização é concluída.
Latência maior em alguns discos permanentes devido ao redimensionamento do disco
Em alguns casos, o redimensionamento de discos permanentes grandes (aproximadamente 3 TB ou maiores) pode ser prejudicial para o desempenho de E/S deles. Se esse problema afetar seus processos, os discos permanentes poderão ter latência maior durante a operação de redimensionamento. Isso pode acontecer com discos permanentes de qualquer tipo.
Capacidade de anexar discos PD-Standard e PD-Extreme incompatíveis a VMs C3 e M3
Os discos permanentes padrão (pd-standard
) são o tipo de disco de inicialização padrão
ao usar a Google Cloud CLI ou a API Compute Engine. No entanto, os discos pd-standard
não são compatíveis com as VMs C3 e M3. Além disso, as VMs C3 não são compatíveis com discos pd-extreme
.
Os seguintes problemas podem ocorrer ao usar a Google Cloud CLI ou a API Compute Engine:
pd-standard
é configurado como o tipo de disco de inicialização padrão e o disco é criado, a menos que você especifique um tipo diferente de disco de inicialização suportado, comopd-balanced
oupd-ssd
.- Antes da disponibilidade geral (GA, na sigla em inglês) da C3, era possível anexar
pd-extreme
discos às VMs C3 epd-standard
aos VMs C3 e M3.
Se você criou uma VM C3 ou M3 com um tipo de disco não compatível, mova os dados para um novo tipo de disco compatível, conforme descrito em Alterar o tipo do seu disco permanente. Se você não alterar o tipo de disco, as VMs continuarão funcionando, mas algumas operações, como desconexão e reconexão do disco, falharão.
Alternativa
Para resolver esse problema, siga uma destas etapas:
- Use o console do Google Cloud para criar VMs C3 ou M3 e anexar discos. O console cria VMs C3 e M3 com discos de inicialização
pd-balanced
e não permite anexar tipos de disco não compatíveis a VMs. - Se você estiver usando a Google Cloud CLI ou a API Compute Engine, configure explicitamente um disco de inicialização do
tipo
pd-balanced
oupd-ssd
ao criar uma VM.
Seus processos automatizados podem falhar se usarem dados de resposta da API sobre suas cotas de compromisso baseadas em recursos
Os processos automatizados que consomem e usam dados de resposta da API sobre suas cotas de compromisso baseadas em recursos do Compute Engine poderão falhar se cada uma das situações a seguir acontecer. Os processos automatizados podem incluir snippets de código, lógica de negócios ou campos de banco de dados que usam ou armazenam as respostas da API.
Os dados de resposta são de um dos seguintes métodos da API Compute Engine:
Use
int
em vez denumber
para definir o campo do limite de cota de recurso nos corpos de resposta da API. É possível encontrar o campo das seguintes maneiras para cada método:items[].quotas[].limit
para o métodocompute.regions.list
.quotas[].limit
para o métodocompute.regions.get
.quotas[].limit
para o métodocompute.projects.get
.
Você tem uma cota padrão ilimitada disponível para qualquer uma das SKUs confirmadas do Compute Engine.
Para mais informações sobre cotas de compromissos e SKUs confirmadas, consulte Cotas de compromissos e recursos confirmados.
Causa principal
Quando você tem uma cota limitada, se definir o campo items[].quotas[].limit
ou
quotas[].limit
como um tipo int
, os dados de resposta da API para os limites de
cota ainda poderão estar dentro do intervalo do tipo int
e o processo automatizado
não será interrompido. No entanto, quando o limite de cota padrão é ilimitado,
a API Compute Engine retorna um valor para o campo limit
que está fora
do intervalo definido pelo tipo int
. Seu processo automatizado não pode
consumir o valor retornado pelo método da API e falha como resultado.
Como contornar esse problema
É possível contornar esse problema e continuar gerando relatórios automatizados das seguintes maneiras:
Recomendado: siga a documentação de referência da API Compute Engine e use os tipos de dados corretos para as definições de método da API. Mais especificamente, use o tipo
number
para definir os campositems[].quotas[].limit
equotas[].limit
dos métodos da API.Reduza o limite da cota para um valor abaixo de 9.223.372.036.854.775.807. É preciso definir limites de cota para todos os projetos com compromissos baseados em recursos em todas as regiões. É possível fazer isso de uma das seguintes maneiras:
- Siga as mesmas etapas que você seguiria para fazer um pedido de aumento de cota e solicite um limite de cota menor.
- Defina uma substituição de cota do consumidor.
Problemas conhecidos de instâncias bare metal
Estes são os problemas conhecidos das instâncias bare metal do Compute Engine.
A estatística de pacotes descartados está incorreta
O número de pacotes descartados informados por VIRTCHNL2_OP_GET_STATS
é muito
grande.
A causa raiz é que o IDPF informa EthStats::rx_discards
ao SO como
rtnl_link_stats64::rx_dropped
.
Ele aparece como RX dropped
quando você executa ifconfig
.
Problemas conhecidos de instâncias de VMs do Linux
Estes são os problemas conhecidos das VMs do Linux.
Desempenho de IOPS mais baixo para SSD local no Z3 com imagens do SUSE 12
As VMs Z3 nas imagens do SUSE Linux Enterprise Server (SLES) 12 têm uma performance significativamente menor do que o esperado para IOPS em discos SSD locais.
Causa principal
Esse é um problema na base de código do SLES 12.
Alternativa
Não há um patch do SUSE para corrigir esse problema. Em vez disso, use o sistema operacional SLES 15.
As VMs do RHEL 7 e do CentOS perdem acesso à rede após a reinicialização
Se as VMs do CentOS ou do RHEL 7 tiverem várias placas de interface de rede (NICs) e uma delas não usar a interface VirtIO, o acesso à rede poderá ser perdido após a reinicialização. Isso acontece porque o RHEL não é compatível com a desativação de nomes de interface de rede previsíveis se pelo menos uma NIC não usar a interface VirtIO.
Resolução
A conectividade de rede pode ser restaurada
interrompendo e iniciando a VM
até que o problema seja resolvido. Para evitar que a perda de conectividade de rede ocorra novamente,
faça o seguinte:
1. Edite o arquivo /etc/default/grub
e remova os parâmetros do kernel
net.ifnames=0
e biosdevname=0
.
2. Gere novamente a configuração do grub.
3. Reinicialize a VM.
Links simbólicos ausentes para dispositivos SSD locais em VMs C3 e C3D que executam o SUSE Linux
As imagens públicas do SUSE do Google Cloud não incluem a configuração udev necessária para criar links simbólicos de dispositivos SSD locais C3 e C3D.
Resolução
Para adicionar regras udev para SUSE e imagens personalizadas, consulte Links simbólicos não criados C3 e C3D com SSD local.
Não foi possível verificar a assinatura do repomd.xml
Nos sistemas baseados em Red Hat Enterprise Linux (RHEL) ou CentOS 7, você talvez veja o erro a seguir ao tentar instalar ou atualizar o software usando o yum. Esse erro mostra que você tem uma chave GPG de repositório expirada ou incorreta.
Exemplo de registro:
[root@centos7 ~]# yum update
...
google-cloud-sdk/signature | 1.4 kB 00:00:01 !!!
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Trying other mirror.
...
failure: repodata/repomd.xml from google-cloud-sdk: [Errno 256] No more mirrors to try.
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Resolução
Para corrigir isso, desative a verificação de chave GPG do repositório na configuração do repositório yum
configurando repo_gpgcheck=0
. Em imagens compatíveis de base do Compute Engine, essa
configuração pode ser encontrada no arquivo /etc/yum.repos.d/google-cloud.repo
. No entanto,
essa VM pode estar definida em diferentes arquivos de configuração
de repositório ou ferramentas de automação.
Os repositórios do Yum geralmente não usam chaves GPG para validação de repositório. Em vez disso,
o endpoint https
é confiável.
Para localizar e atualizar essa configuração, siga estas etapas:
Procure a configuração no seu arquivo
/etc/yum.repos.d/google-cloud.repo
.cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Altere todas as linhas que dizem
repo_gpgcheck=1
pararepo_gpgcheck=0
.sudo sed -i 's/repo_gpgcheck=1/repo_gpgcheck=0/g' /etc/yum.repos.d/google-cloud.repo
Verifique se a configuração foi atualizada.
cat /etc/yum.repos.d/google-cloud.repo [google-compute-engine] name=Google Compute Engine baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg [google-cloud-sdk] name=Google Cloud SDK baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=0 gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
Mensagem de login retornada após a conexão de instâncias que usam o Login do SO
Em algumas instâncias que usam o login do SO, você pode receber a seguinte mensagem de erro após a conexão ter sido estabelecida:
/usr/bin/id: cannot find name for group ID 123456789
Resolução
Ignore a mensagem de erro.
Problemas conhecidos de instâncias de VM do Windows
- O suporte para NVMe no Windows usando o driver da comunidade NVMe está na versão Beta. O desempenho pode não corresponder ao das instâncias do Linux. O driver NVMe da comunidade foi substituído pelo driver Microsoft StorNVMe nas imagens públicas do Google Cloud. Recomendamos que você substitua o driver NVME nas VMs criadas antes de maio de 2022 e use o driver Microsoft StorNVMe.
- Depois de criar uma instância, não é possível se conectar a ela instantaneamente. Todas as instâncias novas do Windows usam a ferramenta System Preparation (sysprep) para configurar sua instância, o que pode levar de 5 a 10 minutos.
- As imagens do Windows Server não podem ser ativadas sem uma conexão de rede com
kms.windows.googlecloud.com
e param de funcionar quando não são autenticadas dentro de 30 dias. O software ativado pelo KMS precisa ser reativado a cada 180 dias, mas o KMS tenta reativá-lo a cada 7 dias. Configure as instâncias do Windows para que elas permaneçam ativadas. - O software de kernel que acessa registros específicos de modelo sem emulação gerará falhas de proteção geral. Dependendo do sistema operacional convidado, isso pode causar uma falha no sistema.
Erros ao medir o deslocamento de tempo NTP usando w32tm em VMs do Windows
Para VMs do Windows no Compute Engine que executam NICs VirtIO, há um bug conhecido em que a medição do deslocamento de NTP produz erros ao usar o seguinte comando:
w32tm /stripchart /computer:metadata.google.internal
Os erros são semelhantes a estes:
Tracking metadata.google.internal [169.254.169.254:123].
The current time is 11/6/2023 6:52:20 PM.
18:52:20, d:+00.0007693s o:+00.0000285s [ * ]
18:52:22, error: 0x80072733
18:52:24, d:+00.0003550s o:-00.0000754s [ * ]
18:52:26, error: 0x80072733
18:52:28, d:+00.0003728s o:-00.0000696s [ * ]
18:52:30, error: 0x80072733
18:52:32, error: 0x80072733
Esse bug afeta apenas as VMs do Compute Engine com NICs VirtIO. As VMs que usam a gVNIC não encontram esse problema.
Para evitar esse problema, o Google recomenda o uso de outras ferramentas de medição de deslocamento do NTP, como o Monitor de servidor de tempo Meinberg.
Dispositivo de inicialização inacessível após atualizar uma VM de 1ª ou 2ª geração para uma VM de 3ª geração ou mais recente
O Windows Server vincula a unidade de inicialização ao tipo de interface de disco inicial na primeira inicialização. Para mudar uma VM de uma série de máquinas mais antiga que usa uma interface de disco SCSI para uma série de máquinas mais recente que usa uma interface de disco NVMe, execute um sysprep de driver PnP do Windows antes de desligar a VM. Esse sysprep prepara apenas drivers de dispositivo e garante que todos os tipos de interface de disco sejam verificados para a unidade de inicialização na próxima inicialização.
Para atualizar a série de máquinas de uma VM, faça o seguinte:
Em um prompt do PowerShell como Administrator
, execute:
PS C:\> start rundll32.exe sppnp.dll,Sysprep_Generalize_Pnp -wait
- Pare a VM.
- Mude a VM para o novo tipo de máquina.
- Inicie a VM.
Se a nova VM não iniciar corretamente, mude-a de volta para o tipo de máquina original para que ela volte a funcionar. Ela vai ser iniciada com sucesso. Confira os requisitos de migração para garantir que você os atenda. Em seguida, tente seguir as instruções novamente.
Largura de banda limitada com gVNIC em VMs Windows
Em sistemas operacionais Windows, o driver da gVNIC não atinge os limites de largura de banda documentados para o tipo de máquina. O driver da gVNIC pode atingir até 50 Gbps de largura de banda de rede em VMs Windows, para desempenho de rede padrão e por VM de Tier_1.
A quantidade de discos anexados é limitada para séries de máquinas de VM mais recentes
As VMs executadas no Microsoft Windows com a interface de disco NVMe (que inclui T2A, todas as VMs de terceira geração e mais recentes e as VMs que usam a Computação confidencial) têm um limite de conexão de disco de 16 discos. Para evitar erros, consolide o armazenamento do Persistent Disk e do Hyperdisk em um máximo de 16 discos por VM. O armazenamento SSD local não é afetado por esse problema.
Substitua o driver NVME nas VMs criadas antes de maio de 2022
Se você quiser usar o NVMe em uma VM que usa o Microsoft Windows e ela tiver sido criada antes de 1º de maio de 2022, atualize o driver NVMe atual no SO convidado para usar o Driver Microsoft StorNVMe.
Atualize o driver NVMe na VM antes de alterar o tipo de máquina para uma série de máquinas de terceira geração ou antes de criar um snapshot do disco de inicialização que será usado para criar novas VMs que usam uma máquina de terceira geração.
Use os seguintes comandos para instalar o pacote de driver do StorNVME e remover o driver da comunidade, se estiver presente no SO convidado.
googet update
googet install google-compute-engine-driver-nvme
Desempenho mais baixo do SSD local no Microsoft Windows com VMs C3 e C3D
O desempenho do SSD local é limitado para VMs C3 e C3D que executam o Microsoft Windows.
As melhorias no desempenho estão em andamento.
Baixa capacidade de rede ao usar o gVNIC
As VMs do Windows Server 2022 e do Windows 11 que usam o driver gVNIC versão do pacote GooGet
1.0.0@44
ou anterior podem ter uma capacidade de rede ruim ao
usar a NIC virtual do Google (gVNIC).
Para resolver esse problema, atualize o pacote GooGet do driver da gVNIC para a versão
1.0.0@45
ou mais recente fazendo o seguinte:
Verifique qual versão do driver está instalada na VM. Para isso, execute o comando a seguir em um prompt de comando ou sessão do PowerShell como administrador:
googet installed
A saída será assim:
Installed packages: ... google-compute-engine-driver-gvnic.x86_64 VERSION_NUMBER ...
Se a versão do driver
google-compute-engine-driver-gvnic.x86_64
for1.0.0@44
ou anterior, atualize o repositório de pacotes GooGet executando o seguinte comando em um prompt de comando ou sessão do PowerShell como administrador:googet update
Os tipos de máquina de vCPU C3D 180 e 360 não são compatíveis com imagens do SO Windows.
Os tipos de máquina C3D de 180 vCPUs não são compatíveis com imagens do SO Windows Server 2012 e 2016. As VMs C3D criadas com 180 vCPUs e as imagens dos SO Windows Server 2012 e 2016 não serão inicializadas. Para contornar esse probema, selecione um tipo de máquina menor ou use outra imagem do SO.
As VMs C3D criadas com 360 vCPUs e imagens do SO Windows não vão ser inicializadas. Para contornar esse probema, selecione um tipo de máquina menor ou use outra imagem do SO.
Erro de disco genérico no Windows Server 2016 e 2012 R2 para VMs M3, C3 e C3D
No momento, a capacidade de adicionar ou redimensionar um Persistent Disk ou Hyperdisk em uma VM do M3, C3 ou C3D em execução não funciona como esperado em convidados específicos do Windows. O Windows Server 2012 R2 e o Windows Server 2016 e as variantes correspondentes do Windows não relacionadas ao servidor não respondem corretamente aos comandos de anexação e redimensionamento de disco.
Por exemplo, remover um disco de uma VM M3 em execução desconecta o disco de uma instância do Windows Server sem que o sistema operacional Windows reconheça que o disco sumiu. As gravações subsequentes no disco retornarão um erro genérico.
Resolução
É necessário reiniciar a VM do M3, C3 ou C3D em execução no Windows depois de modificar um Hyperdisk ou Persistent Disk para que as modificações de disco sejam reconhecidas por esses convidados.