Para acelerar cargas de trabalho específicas no Compute Engine, implante uma VM otimizada para aceleradores com GPUs anexadas ou anexe GPUs a uma VM de uso geral N1.
Este documento descreve os recursos e as limitações de GPUs em execução no Compute Engine.
GPUs e séries de máquinas
As GPUs são compatíveis com a função N1 de uso geral e com a série de máquinas otimizada para aceleradores (A3, A2 e G2). Para VMs que usam tipos de máquina N1, anexe a GPU à VM durante ou após a criação da VM. Para VMs que usam tipos de máquina A3, A2 ou G2, as GPUs são anexadas automaticamente quando você cria a VM. GPUs não podem ser usadas com outras séries de máquinas.
Série de máquinas com otimização de aceleração
Cada tipo de máquina com otimização de acelerador tem um modelo específico de GPUs NVIDIA anexado.
- Para os tipos de máquina com otimização de aceleradores A3, há GPUs NVIDIA H100 de 80 GB
conectadas. Elas estão disponíveis nas seguintes opções:
- A3 High (
a3-highgpu-8g
): esse tipo de máquina tem GPUs H100 de 80 GB anexadas - A3 Mega (
a3-megagpu-8g
): este tipo de máquina tem GPUs Mega H100 de 80 GB anexadas.
- A3 High (
- Para tipos de máquina otimizados para aceleradores A2, as GPUs NVIDIA A100
estão anexadas. Elas estão disponíveis nas seguintes opções:
- A2 Standard (
a2-highgpu-*
,a2-megagpu-*
): esses tipos de máquina têm GPUs A100 de 40 GB anexadas. - A2 Ultra (
a2-ultragpu-*
): esses tipos de máquina têm GPUs A100 de 80 GB anexadas
- A2 Standard (
- Para os tipos de máquina otimizados para acelerador G2 (
g2-standard-*
), as GPUs NVIDIA L4 estão anexadas.
Para mais informações, consulte Série de máquinas otimizada para aceleradores.
Série N1 de uso geral
Para todos os outros tipos de GPU, é possível usar a maioria dos tipos de máquina N1, exceto o
núcleo compartilhado N1. (f1-micro
e g1-small
)
Nesta série de máquinas, é possível usar tipos de máquina predefinidos ou personalizados.
GPUs em VMs do Spot
É possível adicionar GPUs às VMs do Spot a um preço mais baixo para as GPUs. As GPUs anexadas às VMs do Spot funcionam como GPUs normais, mas persistem apenas durante a vida útil da VM. As VMs do Spot com GPUs seguem o mesmo processo de preempção de todas as VMs do Spot.
Considere solicitar a cota Preemptible GPU
dedicada a ser usada para GPUs
em VMs do Spot. Para mais informações, consulte
Cotas para VMs do Spot.
Durante eventos de manutenção, as VMs do Spot com GPUs são interrompidas por padrão e não podem ser reiniciadas automaticamente. Para recriar suas VMs após a interrupção forçada, use um grupo de instâncias gerenciadas. Os grupos gerenciados de instâncias recriarão as instâncias de VM se os recursos de vCPU, memória e GPU estiverem disponíveis.
Se você quiser um aviso antes que as VMs sejam interrompidas ou se quiser configurá-las para reiniciar automaticamente após um evento de manutenção, use VMs padrão com uma GPU. Para VMs padrão com GPUs, o Compute Engine fornece notificação com uma hora de antecedência da preempção.
O Compute Engine não cobrará pelas GPUs se as instâncias forem interrompidas no primeiro minuto de execução.
Para saber como criar VMs do Spot com GPUs anexadas, leia Criar uma VM com GPUs anexadas e Como criar VMs do Spot.
GPUs em VMs com tempos de execução predefinidos
Os recursos de VMs que usam o modelo de provisionamento padrão (VMs padrão) geralmente não podem usar cotas de alocação preemptivas, que são destinadas a cargas de trabalho temporárias e geralmente mais disponíveis. Se o projeto não tiver uma cota preemptiva e você nunca solicitar cota preemptiva, todas as VMs do projeto consomem a cotas de alocação padrão.
No entanto, depois que você solicitar a cota de alocação preemptiva, as VMs padrão que atendem a todos os critérios a seguir poderão consumir apenas a cota de alocação preemptiva.
- A VM tem GPUs anexadas. Pode ser uma VM N1 com GPUs anexadas ou uma VM otimizada para aceleradores.
- A VM está configurada para ser excluída automaticamente após um ambiente de execução predefinido
de até 7 dias usando um dos seguintes métodos:
- Usando o campo
maxRunDuration
outerminationTime
. Para mais informações, consulte Limitar o tempo de execução de uma VM ou Limitar o tempo de execução de VMs em um MIG. - Usando o campo
requestedRunDuration
, que está disponível apenas para grupos gerenciados de instâncias (MIGs). Para mais informações, consulte Sobre solicitações de redimensionamento em um MIG.
- Usando o campo
- A VM não tem permissão para consumir reservas. Para mais informações, consulte Crie VMs sem consumir reservas.
Ao consumir a cota de alocação preemptiva para essas cargas de trabalho, você ganha os benefícios do tempo de execução ininterrupto das VMs padrão e a disponibilidade melhorada da cota de alocação preemptiva.
Independentemente da cota usada, as VMs padrão não se qualificam para o preço das VMs do Spot e não estão sujeitas a preempção.
Para mais informações, consulte Cotas preemptivas
GPUs e VM confidencial
Não é possível anexar GPUs a instâncias de VM confidenciais. Para mais informações sobre VMs confidenciais, consulte Visão geral de VMs confidenciais.
GPUs e armazenamento em blocos
Ao criar uma VM em uma plataforma de GPU, é possível adicionar armazenamento em blocos permanente ou temporário a ela. Para armazenar dados não temporários, use o armazenamento em blocos persistente, como Hyperdisk ML ou Persistent Disk, porque os discos são independentes do ciclo de vida da VM. Os dados no armazenamento permanente podem ser mantidos mesmo depois de você excluir a VM.
Para armazenamento temporário ou caches temporários, use o armazenamento em blocos temporário adicionando discos SSD locais ao criar a VM.
Armazenamento em blocos com disco permanente e Hyperdisks
É possível anexar volumes de disco permanente e Hyperdisk ML a VMs com GPU ativada.
Para treinamento de aprendizado de máquina e veiculação de cargas de trabalho, o Google recomenda o uso de volumes do Hyperdisk ML, que oferecem alta capacidade de processamento e tempos de carregamento de dados mais curtos. Isso torna o Hyperdisk ML uma opção mais econômica para cargas de trabalho de ML, porque oferece tempos de inatividade da GPU mais baixos.
Os volumes do Hyperdisk ML oferecem suporte a vários anexos de leitura somente, para que você possa anexar o mesmo disco a várias VMs, dando a cada VM acesso aos mesmos dados.
Para mais informações sobre os tipos de disco compatíveis com as séries de máquinas que oferecem suporte a GPUs, consulte as páginas de séries de máquinas N1 e otimizadas para aceleradores.
Discos SSD locais
Os discos SSD locais oferecem armazenamento temporário e rápido para armazenamento em cache, processamento de dados ou outros dados temporários. Os discos SSD locais são armazenamento rápido porque estão fisicamente anexados ao servidor que hospeda a VM. Eles são temporários porque os dados são perdidos se a VM for reiniciada.
Não armazene dados com requisitos de persistência fortes em discos SSD locais. Para armazenar dados não temporários, use o armazenamento persistente.
Se você interromper manualmente uma VM com uma GPU, poderá preservar os dados do SSD local, com algumas restrições. Consulte a documentação do SSD local para mais detalhes.
Para saber se o SSD local é compatível com os tipos de GPU, consulte Disponibilidade de SSD local por regiões e zonas de GPU.
GPUs e manutenção do host
As VMs com GPUs anexadas são sempre interrompidas quando o Compute Engine realiza eventos de manutenção nas VMs. Se a VM tiver discos SSD locais anexados, os dados do SSD local serão perdidos após a VM ser interrompida.
Para mais informações sobre como lidar com eventos de manutenção do host da GPU, consulte este link.
Preços do GPU
A maioria das VMs com uma GPU anexada recebe descontos por uso prolongado semelhantes às vCPUs. Quando você seleciona uma GPU para uma estação de trabalho virtual, uma licença da NVIDIA RTX Virtual Workstation é adicionada à VM.
Para preços por hora e mensais para GPUs, consulte página de preços de GPU.
Como reservar GPUs com desconto por uso contínuo
Para reservar recursos da GPU em uma zona específica, consulte Reservas de recursos zonais do Compute Engine.
Para receber descontos por compromisso de uso para GPUs em uma zona específica, é preciso comprar compromissos baseados em recursos para as GPUs e também anexar reservas que especifiquem GPUs correspondentes aos seus compromissos. Para mais informações, consulte Anexar reservas a compromissos baseados em recursos.
Restrições e limitações da GPU
Para VMs com GPUs anexadas, as seguintes restrições e limitações são aplicáveis:
Atualmente, as GPUs são compatíveis apenas com os tipos de máquina de uso geral N1 ou otimizados para aceleradores, A3, A2 e G2.
Para proteger os usuários e sistemas do Compute Engine, novos projetos têm uma cota global de GPU, o que limita o número total de GPUs que podem ser criadas em qualquer zona compatível. Quando você solicita uma cota de GPU, precisa pedir uma cota para os modelos de GPU que você quer criar em cada região e outra cota global para o número total de GPUs de todos os tipos em todas as zonas.
As VMs com uma ou mais GPUs têm um número máximo de vCPUs para cada GPU que é adicionada à instância. Para ver os intervalos de memória e de vCPU disponíveis para diferentes configurações de GPU, consulte a lista de GPUs.
O funcionamento correto das GPUs depende de drivers de dispositivos. Nas GPUs NVIDIA em execução no Compute Engine, é necessário usar uma versão mínima do driver. Para saber mais sobre as versões do driver, consulte Versões necessárias do driver NVIDIA.
As VMs com um modelo de GPU anexado específico são cobertas pelo SLA do Compute Engine somente se esse modelo estiver geralmente disponível e é compatível com mais de uma zona na mesma região. O SLA do Compute Engine não abrange modelos de GPU nas zonas a seguir:
- NVIDIA H100 80GB Mega:
asia-northeast1-b
australia-southeast1-c
europe-west2-b
us-east5-a
us-west4-a
- NVIDIA H100 80GB:
asia-northeast1-b
europe-west1-b
us-east5-a
us-west4-a
- NVIDIA L4:
asia-northeast1-b
northamerica-northeast2-a
- NVIDIA A100 80GB:
asia-southeast1-c
us-east4-c
us-east5-b
- NVIDIA A100 40GB:
us-east1-b
us-west1-b
us-west3-b
us-west4-b
- NVIDIA T4:
europe-west3-b
southamerica-east1-c
us-west3-b
- NVIDIA V100:
asia-east1-c
us-east1-c
- NVIDIA P100:
australia-southeast1-c
europe-west4-a
- NVIDIA H100 80GB Mega:
O Compute Engine é compatível com a execução de um usuário simultâneo por GPU.
A seguir
- Saiba como criar VMs com GPUs anexadas.
- Saiba como adicionar ou remover GPUs.