Problemas conhecidos


Nesta página são descritos os problemas que você pode encontrar ao usar o Compute Engine. Para problemas que afetam especificamente as VMs confidenciais, consulte Limitações de VMs confidenciais.

Problemas gerais

Os problemas a seguir fornecem orientações para solução de problemas ou informações gerais.

Criar reservas ou solicitações futuras de reserva usando um modelo de instância que especifica um tipo de máquina A2, C3 ou G2 causa problemas

Você encontrará problemas ao usar um modelo de instância que especifica um tipo de máquina A2, C3 ou G2 para criar uma reserva ou para criar e enviar uma solicitação de reserva futura para análise. Especificamente:

  • A criação da reserva pode falhar. Se ela for bem-sucedida, uma das seguintes condições se aplica:

    • Se você criou uma reserva consumida automaticamente (padrão), a criação de VMs com propriedades correspondentes não vai consumir a reserva.

    • Se você criou uma reserva específica, a criação de VMs para visar especificamente a reserva falhará.

  • A criação da solicitação de reserva futura foi bem-sucedida. No entanto, se você enviá-lo para análise, o Google Cloud recusará a solicitação.

Não é possível substituir o modelo de instância usado para criar uma reserva ou solicitação de reserva futura nem modificar as propriedades de VM do modelo. Se você quiser reservar recursos para os tipos de máquina A2, C3 ou G2, siga um destes procedimentos:

Limitações ao usar tipos de máquina c3-standard-*-lssd e c3d-standard-*-lssd com o Google Kubernetes Engine

Ao usar a API Google Kubernetes Engine, o pool de nós com o SSD local anexado que você provisiona precisa ter o mesmo número de SSDs que o tipo de máquina C3 e C3D selecionado. Por exemplo, se você planeja criar uma VM que usa o c3-standard-8-lssd, é necessário ter dois discos SSD, enquanto que para um c3d-standard-8-lssd, apenas um disco SSD é necessário. Se o número do disco não corresponder, você receberá um erro de configuração do SSD local do plano de controle do Compute Engine. Consulte o documento Família de máquinas de uso geral para selecionar o número correto de discos SSD locais com base no tipo de máquina lssd C3 ou C3D.

Usar o console do Google Cloud no Google Kubernetes Engine para criar um cluster ou pool de nós com VMs c3-standard-*-lssd e c3d-standard-*-lssd resulta em falha na criação do nó ou em falha na detecção de SSDs locais como armazenamento temporário.

Variabilidade da capacidade de processamento de TCP de fluxo único em VMs C3D

VMs C3D com mais de 30 vCPUs podem apresentar variação de capacidade de TCP de fluxo único e, às vezes, ser limitadas a 20 a 25 Gbps. Para alcançar taxas mais altas, use vários fluxos de TCP.

A métrica de observabilidade de utilização da CPU está incorreta para VMs que usam uma linha de execução por núcleo

Se a CPU da VM usar uma linha de execução por núcleo, a métrica de observabilidade do Cloud Monitoring de utilização da CPU no Google Compute Engine> Instâncias de VM> Observabilidade a guia só é dimensionada para 50%. Duas linhas de execução por núcleo são o padrão para todos os tipos de máquinas, exceto o Tau T2D. Para ver mais informações, consulte Definir número de linhas de execução por núcleo.

Para ver o uso de CPU da sua VM normalizado em 100%, confira a utilização de CPU no Metrics Explorer. Para mais informações, consulte Criar gráficos com o Metrics Explorer.

As conexões SSH no navegador do console do Google Cloud podem falhar se você usar regras de firewall personalizadas

Se você usa regras de firewall personalizadas para controlar o acesso SSH às instâncias de VM, talvez não seja possível usar o recurso SSH no navegador.

Para resolver esse problema, siga uma destas etapas:

Reduzir ou excluir reservas específicas impede que as VMs consumam outras reservas

Se você reduzir ou excluir uma reserva específica que foi consumida por uma ou mais VMs, as VMs órfãs não poderão consumir reservas.

Saiba mais sobre como excluir reservas e redimensionar reservas.

Mover VMs ou discos usando a API moveInstance ou a CLI gcloud causa comportamentos inesperados

Mover instâncias de máquina virtual (VM) usando o comando gcloud compute instances move ou o método project.moveInstance pode causar perda de dados, exclusão de VM ou outro comportamento inesperado.

Ao mover VMs, recomendamos seguir as instruções em Mover uma instância de VM entre zonas ou regiões.

Os discos anexados a VMs com tipos de máquina n2d-standard-64 não atingem os limites de desempenho de maneira consistente

Os discos permanentes anexados a VMs com tipos de máquina n2d-standard-64 não alcançam o limite máximo de desempenho de 100.000 IOPS de maneira consistente. Esse é o caso para IOPS de leitura e gravação.

Nomes temporários para discos

Durante a atualização das instâncias de máquina virtual (VM) iniciadas usando gcloud compute instances update comando ou instances.update Método de API, o Compute Engine pode alterar temporariamente o nome dos discos da sua VM adicionando os seguintes sufixos ao nome original:

  • -temp
  • -old
  • -new

O Compute Engine remove o sufixo e restaura os nomes dos discos originais à medida que a atualização é concluída.

Latência maior em alguns discos permanentes devido ao redimensionamento do disco

Em alguns casos, o redimensionamento de discos permanentes grandes (aproximadamente 3 TB ou maiores) pode ser prejudicial para o desempenho de E/S deles. Se esse problema afetar seus processos, os discos permanentes poderão ter latência maior durante a operação de redimensionamento. Isso pode acontecer com discos permanentes de qualquer tipo.

Seus processos automatizados podem falhar se usarem dados de resposta da API sobre suas cotas de compromisso baseadas em recursos

Os processos automatizados que consomem e usam dados de resposta da API sobre suas cotas de compromisso baseadas em recursos do Compute Engine poderão falhar se cada uma das situações a seguir acontecer. Os processos automatizados podem incluir snippets de código, lógica de negócios ou campos de banco de dados que usam ou armazenam as respostas da API.

  1. Os dados de resposta são de um dos seguintes métodos da API Compute Engine:

  2. Use int em vez de number para definir o campo do limite de cota de recurso nos corpos de resposta da API. É possível encontrar o campo das seguintes maneiras para cada método:

  3. Você tem uma cota padrão ilimitada disponível para qualquer uma das SKUs confirmadas do Compute Engine.

    Para mais informações sobre cotas de compromissos e SKUs confirmadas, consulte Cotas de compromissos e recursos confirmados.

Causa principal

Quando você tem uma cota limitada, se definir o campo items[].quotas[].limit ou quotas[].limit como um tipo int, os dados de resposta da API para os limites de cota ainda poderão estar dentro do intervalo do tipo int e o processo automatizado não será interrompido. No entanto, quando o limite de cota padrão é ilimitado, a API Compute Engine retorna um valor para o campo limit que está fora do intervalo definido pelo tipo int. Seu processo automatizado não pode consumir o valor retornado pelo método da API e falha como resultado.

Como contornar esse problema

É possível contornar esse problema e continuar gerando relatórios automatizados das seguintes maneiras:

  • Recomendado: siga a documentação de referência da API Compute Engine e use os tipos de dados corretos para as definições de método da API. Mais especificamente, use o tipo number para definir os campos items[].quotas[].limit e quotas[].limit dos métodos da API.

  • Reduza o limite da cota para um valor abaixo de 9.223.372.036.854.775.807. É preciso definir limites de cota para todos os projetos com compromissos baseados em recursos em todas as regiões. É possível fazer isso de uma das seguintes maneiras:

Problemas conhecidos de instâncias de VMs do Linux

Estes são os problemas conhecidos das VMs do Linux.

A VM SUSE Enterprise não inicializa após a mudança de tipos de instâncias

Depois de mudar o tipo de instância de uma VM SUSE Linux Enterprise, ela pode não inicializar com o seguinte erro sendo repetido no console serial:

            Starting [0;1;39mdracut initqueue hook[0m...
   [  136.146065] dracut-initqueue[377]: Warning: dracut-initqueue: timeout, still waiting for following initqueue hooks:
   [  136.164820] dracut-initqueue[377]: Warning: /lib/dracut/hooks/initqueue/finished/devexists-\x2fdev\x2fdisk\x2fby-uuid\x2fD3E2-0CEB.sh: "[ -e "/dev/disk/by-uuid/D3E2-0CEB" ]"
   [  136.188732] dracut-initqueue[377]: Warning: /lib/dracut/hooks/initqueue/finished/devexists-\x2fdev\x2fdisk\x2fby-uuid\x2fe7b218a9-449d-4477-8200-a7bb61a9ff4d.sh: "if ! grep -q After=remote-fs-pre.target /run/systemd/generator/systemd-cryptsetup@*.service 2>/dev/null; then
   [  136.220738] dracut-initqueue[377]:     [ -e "/dev/disk/by-uuid/e7b218a9-449d-4477-8200-a7bb61a9ff4d" ]
   [  136.240713] dracut-initqueue[377]: fi"

Causa raiz

O SUSE cria imagens de nuvem com um initramfs versátil (sistema de arquivos RAM inicial) que oferece suporte a vários tipos de instância. Para isso, use as flags --no-hostonly --no-hostonly-cmdline -o multipath durante a criação inicial da imagem. No entanto, quando um novo kernel é instalado ou o initramfs é regenerado, o que acontece durante as atualizações do sistema, essas flags são omitidas por padrão. Isso resulta em um initramfs menor, adaptado especificamente para o hardware do sistema atual, possivelmente excluindo drivers necessários para outros tipos de instância.

Por exemplo, as instâncias C3 usam unidades NVMe, que exigem que módulos específicos sejam incluídos no initramfs. Se um sistema com um initramfs que não tem esses módulos NVMe for migrado para uma instância do C3, o processo de inicialização vai falhar. Esse problema também pode afetar outros tipos de instância com requisitos de hardware exclusivos.

Alternativa

Antes de mudar o tipo de máquina, gere novamente o initramfs com todos os drivers:

dracut --force --no-hostonly

Se o sistema já estiver afetado pelo problema, crie uma VM de resgate temporária. Use o comando chroot para acessar o disco de inicialização da VM afetada e gere novamente o initramfs usando o seguinte comando:

dracut -f --no-hostonly

Desempenho de IOPS mais baixo para SSD local no Z3 com imagens do SUSE 12

As VMs Z3 nas imagens do SUSE Linux Enterprise Server (SLES) 12 têm uma performance significativamente menor do que o esperado para IOPS em discos SSD locais.

Causa principal

Esse é um problema na base de código do SLES 12.

Alternativa

Não há um patch do SUSE para corrigir esse problema. Em vez disso, use o sistema operacional SLES 15.

As VMs do RHEL 7 e do CentOS perdem acesso à rede após a reinicialização

Se as VMs do CentOS ou do RHEL 7 tiverem várias placas de interface de rede (NICs) e uma delas não usar a interface VirtIO, o acesso à rede poderá ser perdido após a reinicialização. Isso acontece porque o RHEL não é compatível com a desativação de nomes de interface de rede previsíveis se pelo menos uma NIC não usar a interface VirtIO.

Resolução

A conectividade de rede pode ser restaurada interrompendo e iniciando a VM até que o problema seja resolvido. Para evitar que a perda de conectividade de rede ocorra novamente, faça o seguinte: 1. Edite o arquivo /etc/default/grub e remova os parâmetros do kernel net.ifnames=0 e biosdevname=0. 2. Gere novamente a configuração do grub. 3. Reinicialize a VM.

As imagens públicas do SUSE do Google Cloud não incluem a configuração udev necessária para criar links simbólicos de dispositivos SSD locais C3 e C3D.

Resolução

Para adicionar regras udev para SUSE e imagens personalizadas, consulte Links simbólicos não criados C3 e C3D com SSD local.

Não foi possível verificar a assinatura do repomd.xml

Nos sistemas baseados em Red Hat Enterprise Linux (RHEL) ou CentOS 7, você talvez veja o erro a seguir ao tentar instalar ou atualizar o software usando o yum. Esse erro mostra que você tem uma chave GPG de repositório expirada ou incorreta.

Exemplo de registro:

[root@centos7 ~]# yum update


...

google-cloud-sdk/signature                                                                  | 1.4 kB  00:00:01 !!!
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk
Trying other mirror.

...

failure: repodata/repomd.xml from google-cloud-sdk: [Errno 256] No more mirrors to try.
https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64/repodata/repomd.xml: [Errno -1] repomd.xml signature could not be verified for google-cloud-sdk

Resolução

Para corrigir isso, desative a verificação de chave GPG do repositório na configuração do repositório yum configurando repo_gpgcheck=0. Em imagens compatíveis de base do Compute Engine, essa configuração pode ser encontrada no arquivo /etc/yum.repos.d/google-cloud.repo. No entanto, essa VM pode estar definida em diferentes arquivos de configuração de repositório ou ferramentas de automação.

Os repositórios do Yum geralmente não usam chaves GPG para validação de repositório. Em vez disso, o endpoint https é confiável.

Para localizar e atualizar essa configuração, siga estas etapas:

  1. Procure a configuração no seu arquivo /etc/yum.repos.d/google-cloud.repo.

    cat /etc/yum.repos.d/google-cloud.repo
    
    
    [google-compute-engine]
    name=Google Compute Engine
    baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable
    enabled=1
    gpgcheck=1
    repo_gpgcheck=1
    gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg
       https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
    [google-cloud-sdk]
    name=Google Cloud SDK
    baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64
    enabled=1
    gpgcheck=1
    repo_gpgcheck=1
    gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg
       https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
    
    
  2. Altere todas as linhas que dizem repo_gpgcheck=1 para repo_gpgcheck=0.

    sudo sed -i 's/repo_gpgcheck=1/repo_gpgcheck=0/g' /etc/yum.repos.d/google-cloud.repo
  3. Verifique se a configuração foi atualizada.

    cat /etc/yum.repos.d/google-cloud.repo
    
    [google-compute-engine]
    name=Google Compute Engine
    baseurl=https://packages.cloud.google.com/yum/repos/google-compute-engine-el7-x86_64-stable
    enabled=1
    gpgcheck=1
    repo_gpgcheck=0
    gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg
       https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
    [google-cloud-sdk]
    name=Google Cloud SDK
    baseurl=https://packages.cloud.google.com/yum/repos/cloud-sdk-el7-x86_64
    enabled=1
    gpgcheck=1
    repo_gpgcheck=0
    gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg
       https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
    

Mensagem de login retornada após a conexão de instâncias que usam o Login do SO

Em algumas instâncias que usam o login do SO, você pode receber a seguinte mensagem de erro após a conexão ter sido estabelecida:

/usr/bin/id: cannot find name for group ID 123456789

Resolução

Ignore a mensagem de erro.

Problemas conhecidos de instâncias de VM do Windows

  • O suporte para NVMe no Windows usando o driver da comunidade NVMe está na versão Beta. O desempenho pode não corresponder ao das instâncias do Linux. O driver NVMe da comunidade foi substituído pelo driver Microsoft StorNVMe nas imagens públicas do Google Cloud. Recomendamos que você substitua o driver NVME nas VMs criadas antes de maio de 2022 e use o driver Microsoft StorNVMe.
  • Depois de criar uma instância, não é possível se conectar a ela instantaneamente. Todas as instâncias novas do Windows usam a ferramenta System Preparation (sysprep) para configurar sua instância, o que pode levar de 5 a 10 minutos.
  • As imagens do Windows Server não podem ser ativadas sem uma conexão de rede com kms.windows.googlecloud.com e param de funcionar quando não são autenticadas dentro de 30 dias. O software ativado pelo KMS precisa ser reativado a cada 180 dias, mas o KMS tenta reativá-lo a cada 7 dias. Configure as instâncias do Windows para que elas permaneçam ativadas.
  • O software de kernel que acessa registros específicos de modelo sem emulação gerará falhas de proteção geral. Dependendo do sistema operacional convidado, isso pode causar uma falha no sistema.

Erros ao medir o deslocamento de tempo NTP usando w32tm em VMs do Windows

Para VMs do Windows no Compute Engine que executam NICs VirtIO, há um bug conhecido em que a medição do deslocamento de NTP produz erros ao usar o seguinte comando:

w32tm /stripchart /computer:metadata.google.internal

Os erros são semelhantes a estes:

Tracking metadata.google.internal [169.254.169.254:123].
The current time is 11/6/2023 6:52:20 PM.
18:52:20, d:+00.0007693s o:+00.0000285s  [                  *                  ]
18:52:22, error: 0x80072733
18:52:24, d:+00.0003550s o:-00.0000754s  [                  *                  ]
18:52:26, error: 0x80072733
18:52:28, d:+00.0003728s o:-00.0000696s  [                  *                  ]
18:52:30, error: 0x80072733
18:52:32, error: 0x80072733

Esse bug afeta apenas as VMs do Compute Engine com NICs VirtIO. As VMs que usam a gVNIC não encontram esse problema.

Para evitar esse problema, o Google recomenda o uso de outras ferramentas de medição de deslocamento do NTP, como o Monitor de servidor de tempo Meinberg.

Dispositivo de inicialização inacessível após atualizar uma VM de 1ª ou 2ª geração para uma VM de 3ª geração ou mais recente

O Windows Server vincula a unidade de inicialização ao tipo de interface de disco inicial na primeira inicialização. Para mudar uma VM de uma série de máquinas mais antiga que usa uma interface de disco SCSI para uma série de máquinas mais recente que usa uma interface de disco NVMe, execute um sysprep de driver PnP do Windows antes de desligar a VM. Esse sysprep prepara apenas drivers de dispositivo e garante que todos os tipos de interface de disco sejam verificados para a unidade de inicialização na próxima inicialização.

Para atualizar a série de máquinas de uma VM, faça o seguinte:

Em um prompt do PowerShell como Administrator, execute:

PS C:\> start rundll32.exe sppnp.dll,Sysprep_Generalize_Pnp -wait
  1. Pare a VM.
  2. Mude a VM para o novo tipo de máquina.
  3. Inicie a VM.

Se a nova VM não iniciar corretamente, mude-a de volta para o tipo de máquina original para que ela volte a funcionar. Ela vai ser iniciada com sucesso. Confira os requisitos de migração para garantir que você os atenda. Em seguida, tente seguir as instruções novamente.

Largura de banda limitada com gVNIC em VMs Windows

O driver da gVNIC empacotado nas imagens do Windows oferecidas pelo Compute Engine pode atingir até 50 Gbps de largura de banda de rede em instâncias do Windows, tanto para a performance de rede padrão quanto para a de rede por VM de Tier_1. Uma versão atualizada do driver da gVNIC pode oferecer desempenho de taxa de linha (até 200 Gbps) e suporte a frames jumbo.

O driver atualizado está disponível apenas para séries de máquinas de terceira geração e mais recentes (exceto N4). Para mais informações, consulte Atualizar a versão do gVNIC no SO Windows.

A quantidade de discos anexados é limitada para séries de máquinas de VM mais recentes

As VMs executadas no Microsoft Windows com a interface de disco NVMe (que inclui T2A, todas as VMs de terceira geração e mais recentes e as VMs que usam a Computação confidencial) têm um limite de conexão de disco de 16 discos. Para evitar erros, consolide o armazenamento do Persistent Disk e do Hyperdisk em um máximo de 16 discos por VM. O armazenamento SSD local não é afetado por esse problema.

Substitua o driver NVME nas VMs criadas antes de maio de 2022

Se você quiser usar o NVMe em uma VM que usa o Microsoft Windows e ela tiver sido criada antes de 1º de maio de 2022, atualize o driver NVMe atual no SO convidado para usar o Driver Microsoft StorNVMe.

Atualize o driver NVMe na VM antes de alterar o tipo de máquina para uma série de máquinas de terceira geração ou antes de criar um snapshot do disco de inicialização que será usado para criar novas VMs que usam uma máquina de terceira geração.

Use os seguintes comandos para instalar o pacote de driver do StorNVME e remover o driver da comunidade, se estiver presente no SO convidado.

googet update
googet install google-compute-engine-driver-nvme

Desempenho mais baixo do SSD local no Microsoft Windows com VMs C3 e C3D

O desempenho do SSD local é limitado para VMs C3 e C3D que executam o Microsoft Windows.

As melhorias no desempenho estão em andamento.

Baixa capacidade de rede ao usar o gVNIC

As VMs do Windows Server 2022 e do Windows 11 que usam o driver gVNIC versão do pacote GooGet 1.0.0@44 ou anterior podem ter uma capacidade de rede ruim ao usar a NIC virtual do Google (gVNIC).

Para resolver esse problema, atualize o pacote GooGet do driver da gVNIC para a versão 1.0.0@45 ou mais recente fazendo o seguinte:

  1. Verifique qual versão do driver está instalada na VM. Para isso, execute o comando a seguir em um prompt de comando ou sessão do PowerShell como administrador:

    googet installed
    

    A saída será assim:

    Installed packages:
      ...
      google-compute-engine-driver-gvnic.x86_64 VERSION_NUMBER
      ...
    
  2. Se a versão do driver google-compute-engine-driver-gvnic.x86_64 for 1.0.0@44 ou anterior, atualize o repositório de pacotes GooGet executando o seguinte comando em um prompt de comando ou sessão do PowerShell como administrador:

    googet update
    

Os tipos de máquina de vCPU C3D 180 e 360 não são compatíveis com imagens do SO Windows.

Os tipos de máquina C3D de 180 vCPUs não são compatíveis com imagens do SO Windows Server 2012 e 2016. As VMs C3D criadas com 180 vCPUs e as imagens dos SO Windows Server 2012 e 2016 não serão inicializadas. Para contornar esse probema, selecione um tipo de máquina menor ou use outra imagem do SO.

As VMs C3D criadas com 360 vCPUs e imagens do SO Windows não vão ser inicializadas. Para contornar esse probema, selecione um tipo de máquina menor ou use outra imagem do SO.

Erro de disco genérico no Windows Server 2016 e 2012 R2 para VMs M3, C3 e C3D

No momento, a capacidade de adicionar ou redimensionar um Persistent Disk ou Hyperdisk em uma VM do M3, C3 ou C3D em execução não funciona como esperado em convidados específicos do Windows. O Windows Server 2012 R2 e o Windows Server 2016 e as variantes correspondentes do Windows não relacionadas ao servidor não respondem corretamente aos comandos de anexação e redimensionamento de disco.

Por exemplo, remover um disco de uma VM M3 em execução desconecta o disco de uma instância do Windows Server sem que o sistema operacional Windows reconheça que o disco sumiu. As gravações subsequentes no disco retornarão um erro genérico.

Resolução

É necessário reiniciar a VM do M3, C3 ou C3D em execução no Windows depois de modificar um Hyperdisk ou Persistent Disk para que as modificações de disco sejam reconhecidas por esses convidados.