Sobre GPUs


É possível anexar unidades de processamento gráfico (GPUs, na sigla em inglês) à instância de VM para acelerar cargas de trabalho específicas no Compute Engine.

Este documento descreve os recursos e as limitações de GPUs em execução no Compute Engine.

GPUs e séries de máquinas

As GPUs são compatíveis com a função N1 de uso geral e com a série de máquinas otimizada para aceleradores (A3, A2 e G2). Para VMs que usam tipos de máquina N1, anexe a GPU à VM durante ou após a criação da VM. Para VMs que usam tipos de máquina A3, A2 ou G2, as GPUs são anexadas automaticamente quando você cria a VM. GPUs não podem ser usadas com outras séries de máquinas.

Série de máquinas com otimização de aceleração

Cada tipo de máquina com otimização de acelerador tem um modelo específico de GPUs NVIDIA anexado.

  • Para os tipos de máquina com otimização de aceleradores A3, há GPUs NVIDIA H100 de 80 GB conectadas.
  • Para tipos de máquina otimizados para aceleradores A2, as GPUs NVIDIA A100 estão anexadas. Elas estão disponíveis nas opções A100 de 40 GB e A100 de 80 GB.
  • Para os tipos de máquina otimizados para acelerador G2, as GPUs NVIDIA L4 estão anexadas..

Para mais informações, consulte Série de máquinas otimizada para aceleradores.

Série N1 de uso geral

Para todos os outros tipos de GPU, é possível usar a maioria dos tipos de máquina N1, exceto o núcleo compartilhado N1.

Nesta série de máquinas, é possível usar tipos de máquina predefinidos ou personalizados.

GPUs em instâncias preemptivas

É possível adicionar GPUs às instâncias de VM preemptivas com preços de spot menores para as GPUs. As GPUs anexadas a instâncias preemptivas funcionam como GPUs normais, mas persistem apenas durante a vida útil da instância. Instâncias preemptivas com GPUs seguem o mesmo processo de preempção de todas as instâncias preemptivas.

Considere solicitar a cota Preemptible GPU dedicada a ser usada para GPUs em instâncias preemptivas. Para mais informações, consulte Cotas para instâncias de VM preemptiva.

Durante os eventos de manutenção, as instâncias preemptivas com GPUs são interrompidas por padrão e não podem ser reiniciadas automaticamente. Para recriar suas instâncias após a interrupção forçada, use um grupo de instâncias gerenciadas. Os grupos de instâncias gerenciadas recriarão as instâncias se os recursos de vCPU, memória e GPU estiverem disponíveis.

Se você quiser receber um aviso antes que as instâncias sejam interrompidas ou se quiser configurar a instância para reiniciar automaticamente após um evento de manutenção, use uma instância padrão com uma GPU. Para instâncias padrão com GPUs, o Google fornece notificação com uma hora de antecedência da preempção.

O Compute Engine não cobrará pelas GPUs se as instâncias forem interrompidas no primeiro minuto de execução.

Para saber as etapas de reinício automático de uma instância padrão, consulte Como atualizar opções para uma instância.

Para saber como criar instâncias preemptivas com GPUs anexadas, leia Criar uma VM com GPUs anexadas.

GPUs e VM confidencial

Não é possível anexar GPUs a instâncias de VM confidenciais. Para mais informações sobre VMs confidenciais, consulte Conceitos de computação confidencial.

GPUs e manutenção do host

As VMs com GPUs anexadas não podem ser migradas em tempo real e precisam ser interrompidas para eventos de manutenção do host. Esses eventos normalmente ocorrem uma vez a cada duas semanas. Quando necessário, os eventos de manutenção também podem ocorrer com mais frequência. Para mais informações sobre como lidar com eventos de manutenção do host da GPU, consulte este link.

GPUs e armazenamento em blocos

É possível adicionar SSDs locais a VMs com GPUs anexadas. Para ver uma lista de suporte de SSD local por tipos e regiões de GPU, consulte Disponibilidade de SSD local por regiões e zonas de GPU.

Preços do GPU

A maioria das VMs com uma GPU anexada recebe descontos por uso prolongado semelhantes às vCPUs. Quando você seleciona uma GPU para uma estação de trabalho virtual, uma licença da NVIDIA RTX Virtual Workstation é adicionada à VM.

Para preços por hora e mensais para GPUs, consulte página de preços de GPU.

Como reservar GPUs com desconto por uso contínuo

Para reservar recursos da GPU em uma zona específica, consulte Reservas de recursos zonais do Compute Engine.

Para receber descontos por compromisso de uso para GPUs em uma zona específica, é preciso comprar compromissos baseados em recursos para as GPUs e também anexar reservas que especifiquem GPUs correspondentes aos seus compromissos. Para mais informações, consulte Anexar reservas a compromissos baseados em recursos.

Restrições e limitações da GPU

Para VMs com GPUs anexadas, as seguintes restrições e limitações são aplicáveis:

  • Se você quiser usar GPUs NVIDIA K80 com suas VMs, as VMs não poderão usar o Intel Skylake ou plataformas de CPU posteriores.

  • Atualmente, as GPUs são compatíveis apenas com os tipos de máquina N1 de uso geral ou otimizados para aceleradores, A3, A2 e G2.

  • Para proteger os usuários e sistemas do Compute Engine, novos projetos têm uma cota global de GPU, o que limita o número total de GPUs que podem ser criadas em qualquer zona compatível. Quando você solicita uma cota de GPU, precisa pedir uma cota para os modelos de GPU que você quer criar em cada região e outra cota global para o número total de GPUs de todos os tipos em todas as zonas.

  • As VMs com uma ou mais GPUs têm um número máximo de vCPUs para cada GPU que é adicionada à instância. Por exemplo, cada GPU NVIDIA K80 permite que você tenha até oito vCPUs e até 52 GB de memória no tipo de máquina da instância. Para ver os intervalos de memória e de vCPU disponíveis para diferentes configurações de GPU, consulte a lista de GPUs.

  • O funcionamento correto das GPUs depende de drivers de dispositivos. Nas GPUs NVIDIA em execução no Compute Engine, é necessário usar uma versão mínima do driver. Para saber mais sobre as versões do driver, consulte Versões necessárias do driver NVIDIA.

  • As VMs com um modelo de GPU anexado específico são cobertas pelo SLA do Compute Engine somente se esse modelo estiver geralmente disponível e é compatível com mais de uma zona na mesma região. O SLA do Compute Engine não abrange modelos de GPU nas zonas a seguir:

    • NVIDIA H100 80GB:
      • us-east5-a
    • NVIDIA L4:
      • europe-west3-b
      • europe-west6-b
    • NVIDIA A100 80GB:
      • asia-southeast1-c
      • us-east4-c
      • us-east5-b
    • NVIDIA A100 40GB:
      • us-east1-b
      • us-west1-b
      • us-west3-b
      • us-west4-b
    • NVIDIA T4:
      • europe-west3-b
      • southamerica-east1-c
      • us-west3-b
    • NVIDIA V100:
      • asia-east1-c
      • us-east1-c
    • NVIDIA P100:
      • australia-southeast1-c
      • europe-west4-a
    • NVIDIA K80:
      • us-west1-b
  • O Compute Engine é compatível com a execução de um usuário simultâneo por GPU.

A seguir