Guia de comparação e recursos das famílias de máquinas


Este documento descreve as famílias de máquinas, as séries de máquinas e os tipos de máquinas que pode escolher para criar uma instância de máquina virtual (VM) ou uma instância bare metal com os recursos de que precisa. Quando cria uma instância de computação, seleciona um tipo de máquina de uma família de máquinas que determina os recursos disponíveis para essa instância.

Existem várias famílias de máquinas à sua escolha. Cada família de máquinas está organizada em séries de máquinas e tipos de máquinas predefinidos em cada série. Por exemplo, na série de máquinas N2 na família de máquinas de utilização geral, pode selecionar o tipo de máquina n2-standard-4.

Para obter informações sobre as séries de máquinas que suportam VMs do Spot (e VMs preemptivas), consulte os modelos de aprovisionamento de instâncias do Compute Engine.

Nota: esta é uma lista das famílias de máquinas do Compute Engine. Para uma explicação detalhada de cada família de máquinas, consulte as seguintes páginas:
  • Geral —melhor relação preço/desempenho para uma variedade de cargas de trabalho.
  • Otimizado para armazenamento — ideal para cargas de trabalho com baixa utilização de núcleos e alta densidade de armazenamento.
  • Otimizado para computação — concebido para soluções de computação de alto desempenho (HPC) e cargas de trabalho com utilização intensiva de computação; oferece um elevado desempenho por núcleo no Compute Engine.
  • Otimizado para memória — ideal para cargas de trabalho com utilização intensiva de memória, oferecendo mais memória por núcleo do que outras famílias de máquinas, com até 12 TB de memória.
  • Otimizadas para aceleradores — ideais para cargas de trabalho de computação de arquitetura de dispositivos unificados de computação (CUDA) massivamente paralelizadas, como aprendizagem automática (AA) e computação de elevado desempenho (HPC). Esta família é a melhor opção para cargas de trabalho que requerem GPUs.

Terminologia do Compute Engine

Esta documentação usa os seguintes termos:

  • Família de máquinas: um conjunto organizado de configurações de processador e hardware otimizado para cargas de trabalho específicas, por exemplo, de uso geral, otimizadas para aceleradores ou otimizadas para memória.

  • Série de máquinas: as famílias de máquinas são ainda classificadas por série, geração e tipo de processador.

    • Cada série foca-se num aspeto diferente da capacidade de processamento ou do desempenho. Por exemplo, a série E oferece VMs eficientes a um custo baixo, enquanto a série C oferece um melhor desempenho.

    • A geração é indicada por um número ascendente. Por exemplo, a série N1 na família de máquinas de utilização geral é a versão mais antiga da série N2. Normalmente, um número de geração ou série mais elevado indica plataformas ou tecnologias de CPU subjacentes mais recentes. Por exemplo, a série M3, que é executada no processador Intel Xeon Scalable de 3.ª geração (Ice Lake), é uma geração mais recente do que a série M2, que é executada no processador Intel Xeon Scalable de 2.ª geração (Cascade Lake).

    Geração Intel AMD Braço
    Série de máquinas de 4.ª geração N4, C4, X4, M4 e A4 C4D, G4 e H4D (pré-visualização) C4A e A4X
    Série de máquinas de 3.ª geração C3, H3, Z3, M3 e A3 C3D N/A
    Série de máquinas de 2.ª geração N2, E2, C2, M2, A2, G2 N2D, C2D, T2D, E2 T2A
  • Tipo de máquina: cada série de máquinas oferece, pelo menos, um tipo de máquina. Cada tipo de máquina fornece um conjunto de recursos para a sua instância de computação, como vCPUs, memória, discos e GPUs. Se um tipo de máquina predefinido não satisfizer as suas necessidades, também pode criar um tipo de máquina personalizado para algumas séries de máquinas.

As secções seguintes descrevem os diferentes tipos de máquinas.

Tipos de máquinas predefinidos

Os tipos de máquinas predefinidos incluem uma quantidade não configurável de memória e vCPUs. Os tipos de máquinas predefinidos usam uma variedade de rácios de vCPU para memória:

  • highcpu: de 1 a 3 GB de memória por vCPU; normalmente, 2 GB de memória por vCPU.
  • standard — de 3 a 7 GB de memória por vCPU; normalmente, 4 GB de memória por vCPU.
  • highmem — de 7 a 12 GB de memória por vCPU; normalmente, 8 GB de memória por vCPU.
  • megamem — de 12 a 15 GB de memória por vCPU; normalmente, 14 GB de memória por vCPU.
  • hypermem — de 15 a 24 GB de memória por vCPU; normalmente, 16 GB de memória por vCPU.
  • ultramem — de 24 a 31 GB de memória por vCPU.

Por exemplo, um tipo de máquina c3-standard-22 tem 22 vCPUs e, como um tipo de máquina standard, também tem 88 GB de memória.

Tipos de máquinas com SSD local

Os tipos de máquinas com SSD local são tipos de máquinas predefinidos especiais. Os nomes dos tipos de máquinas incluem lssd. Quando cria uma instância de computação com um dos seguintes tipos de máquinas, os discos SSD de titânio ou SSD local são anexados automaticamente à instância:

  • -lssd: Disponíveis com as séries de máquinas C4, C4A, C4D, C3, C3D e H4D (pré-visualização), estes tipos de máquinas associam um número predeterminado de discos SSD de titânio de 375 GiB ou SSD local à instância. Alguns exemplos deste tipo de máquina incluem c4a-standard-4-lssd, c3-standard-88-lssd e c3d-highmem-360-lssd.
  • -standardlssd: Disponíveis com a série de máquinas Z3 otimizadas para armazenamento, estes tipos de máquinas oferecem até 350 GiB de capacidade do disco SSD de titânio por vCPU. Estes tipos de máquinas são recomendados para a pesquisa de alto desempenho e a análise de dados para conjuntos de dados de tamanho médio. Um exemplo deste tipo de máquina é z3-highmem-22-standardlssd.
  • -highlssd: Disponíveis com a série de máquinas Z3, estes tipos de máquinas oferecem entre 350 GiB e 600 GiB de capacidade do disco SSD de titânio por vCPU. Estes tipos de máquinas oferecem um elevado desempenho e são recomendados para streaming com utilização intensiva de armazenamento e análise de dados para conjuntos de dados de grande dimensão. Um exemplo deste tipo de máquina é z3-highmem-88-highlssd.

Outras séries de máquinas também suportam discos SSD locais, mas não usam um nome de tipo de máquina que inclua lssd. Para ver uma lista de todos os tipos de máquinas que pode usar com discos SSD de titânio ou SSD local, consulte o artigo Escolha um número válido de discos SSD local.

Tipos de máquinas bare metal

Os tipos de máquinas bare metal são um tipo de máquina predefinido especial. O nome do tipo de máquina termina em -metal. Quando cria uma instância de computação com um destes tipos de máquinas, não é instalado nenhum hipervisor na instância. Pode anexar discos a uma instância bare metal, tal como faria com uma instância de VM. As instâncias bare metal podem ser usadas em redes VPC e sub-redes da mesma forma que as instâncias de VM.

Para mais informações, consulte o artigo Instâncias bare metal no Compute Engine.

Tipos de máquinas personalizados

Se nenhum dos tipos de máquinas predefinidos corresponder às necessidades da sua carga de trabalho, pode criar uma instância de VM com um tipo de máquina personalizado para a série de máquinas N e E na família de máquinas de utilização geral. .

Os tipos de máquinas personalizados custam ligeiramente mais em comparação com um tipo de máquina predefinido equivalente. Além disso, existem limitações na quantidade de memória e vCPUs que pode selecionar para um tipo de máquina personalizado. Os preços a pedido dos tipos de máquinas personalizados incluem um aumento de 5% em relação aos preços a pedido e de compromisso dos tipos de máquinas predefinidos.

Quando cria um tipo de máquina personalizado, pode usar a funcionalidade de memória expandida. Em vez de usar o tamanho da memória predefinido com base no número de vCPUs que selecionar, pode especificar uma quantidade de memória até ao limite da série de máquinas.

Para mais informações, consulte o artigo Crie uma VM com um tipo de máquina personalizado.

Tipos de máquinas com núcleo partilhado

As séries E2 e N1 contêm tipos de máquinas com núcleo partilhado. Estes tipos de máquinas partilham um núcleo físico, o que pode ser um método económico para executar apps pequenas que não exigem muitos recursos.

  • E2: oferece tipos de máquinas de núcleo partilhado e2-micro, e2-small e e2-medium com 2 vCPUs para períodos curtos de picos de desempenho.

  • N1: oferece tipos de máquinas com núcleo partilhado f1-micro e g1-small que têm até 1 vCPU disponível para períodos curtos de picos de atividade.

Para mais informações, consulte o artigo CPU bursting.

Recomendações de séries e famílias de máquinas

As tabelas seguintes fornecem recomendações para diferentes cargas de trabalho.

Cargas de trabalho de uso geral
N4, N2, N2D, N1 C4, C4A, C4D, C3 e C3D E2 Tau T2D e Tau T2A
Preço/desempenho equilibrado numa vasta gama de tipos de máquinas Desempenho consistentemente elevado para uma variedade de cargas de trabalho Computação diária a um custo inferior Melhor desempenho/custo por núcleo para cargas de trabalho de expansão
  • Servidores Web e de apps de tráfego médio
  • Microsserviços contentorizados
  • Apps de Business Intelligence
  • Ambientes de trabalho virtuais
  • Aplicações de CRM
  • Ambientes de desenvolvimento e teste
  • Processamento em lote
  • Armazenamento e arquivo
  • Servidores de apps e Web com tráfego elevado
  • Bases de dados
  • Caches na memória
  • Servidores de anúncios
  • Game Servers
  • Análise de dados
  • Streaming e transcodificação de multimédia
  • Inferência e preparação de ML baseadas na CPU
  • Servidores Web com pouco tráfego
  • Apps de back office
  • Microsserviços contentorizados
  • Microsserviços
  • Ambientes de trabalho virtuais
  • Ambientes de desenvolvimento e teste
  • Cargas de trabalho de expansão
  • Publicação na Web
  • Microsserviços contentorizados
  • Transcodificação de multimédia
  • Aplicações Java de grande escala

  • Cargas de trabalho otimizadas
    Otimizado para armazenamento Otimizada para computação Otimizada para memória Otimizado pelo acelerador
    Z3 H4D (pré-visualização), H3, C2 e C2D X4, M4, M3, M2 e M1 A4X, A4, A3, A2, G4 e G2
    As proporções de armazenamento em bloco para computação mais elevadas para cargas de trabalho com utilização intensiva de armazenamento Desempenho mais elevado e custo mais baixo para computação de alto desempenho (HPC), cargas de trabalho com vários nós e limitadas pela computação As relações de memória para computação mais elevadas para cargas de trabalho com utilização intensiva de memória Otimizado para cargas de trabalho de computação de alto desempenho aceleradas
    • Bases de dados SQL, NoSQL e vetoriais
    • Estatísticas e armazéns de dados
    • Pesquisar
    • Streaming de multimédia
    • Sistemas de ficheiros paralelos distribuídos de grande dimensão
    • Indústria transformadora, previsão meteorológica, automação de design eletrónico (EDA), servidores Web de alto desempenho
    • Cuidados de saúde e ciências da vida, computação científica
    • Aplicações de processamento sísmico e mecânica estrutural
    • Cargas de trabalho de modelagem e simulação, IA/AA
    • Servidores Web de alto desempenho, servidores de jogos
    • Bases de dados na memória SAP HANA de pequenas a extragrandes
    • Armazenamentos de dados na memória, como o Redis
    • Simulação
    • Bases de dados de elevado desempenho, como o Microsoft SQL Server e o MySQL
    • Automatização de design eletrónico
    • Modelos de IA generativa, como os seguintes:
      • Grandes modelos de linguagem (GML)
      • Modelos de difusão
      • Redes generativas antagónicas (GAN)
    • Inferência e preparação de ML com CUDA
    • Computação de alto desempenho (HPC)
    • Cálculo massivamente paralelizado
    • Processamento de linguagem natural BERT
    • Modelo de recomendação de aprendizagem avançada (DLRM)
    • Transcodificação de vídeo
    • Estação de trabalho de visualização remota

    Depois de criar uma instância de computação, pode usar recomendações de redimensionamento para otimizar a utilização de recursos com base na sua carga de trabalho. Para mais informações, consulte o artigo Aplicação de recomendações de tipo de máquina para VMs.

    Guia da família de máquinas de utilização geral

    A família de máquinas de uso geral oferece várias séries de máquinas com a melhor relação preço/desempenho para uma variedade de cargas de trabalho.

    O Compute Engine oferece séries de máquinas de uso geral que são executadas na arquitetura x86 ou Arm.

    x86

    • A série de máquinas C4 está disponível nas plataformas de CPU Intel Granite Rapids e Emerald Rapids e é alimentada pelo Titanium. Os tipos de máquinas C4 estão otimizados para oferecer um desempenho consistentemente elevado e escalam até 288 vCPUs, 2, 2 TB de memória DDR5 e 18 TiB de SSD local. O C4 está disponível nas configurações highcpu (2 GB de memória por vCPU), standard (3,75 GB de memória por vCPU) e highmem (7,75 GB de memória por vCPU). As instâncias C4 estão alinhadas com a arquitetura de acesso à memória não uniforme (NUMA) subjacente para oferecer um desempenho ideal, fiável e consistente.
    • A série de máquinas C4D está disponível na plataforma de CPU AMD EPYC Turin e é alimentada pelo Titanium. O C4D tem uma frequência de aumento máximo superior à do C3D, com instruções por ciclo (IPC) melhoradas para transações de base de dados mais rápidas. Ao tirar partido do armazenamento Hyperdisk e da rede Titanium, o C4D demonstra um aumento de até 55% nas consultas por segundo no Cloud SQL para MySQL e um desempenho 35% melhor nas cargas de trabalho do Memorystore para Redis em comparação com o C3D. As instâncias C4D estão disponíveis com até 384 vCPUs, 3 TB de memória DDR5 e 12 TiB de SSD local. O C4D está disponível nas configurações highcpu (1,875 GB de memória por vCPU), standard (3,875 GB de memória por vCPU) e highmem (7,875 GB de memória por vCPU). As instâncias C4D estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente.
    • A série de máquinas N4 está disponível na plataforma de CPU Intel Emerald Rapids e é alimentada por Titanium. Os tipos de máquinas N4 estão otimizados para flexibilidade e custo com formas predefinidas e personalizadas, e podem ser dimensionados até 80 vCPUs a 640 GB de memória DDR5. O N4 está disponível nas configurações highcpu (2 GB por vCPU), standard (4 GB por vCPU) e highmem (8 GB por vCPU).
    • A série de máquinas N2 tem até 128 vCPUs, 8 GB de memória por vCPU e está disponível nas plataformas de CPU Intel Ice Lake e Intel Cascade Lake.
    • A série de máquinas N2D tem até 224 vCPUs, 8 GB de memória por vCPU e está disponível nas plataformas AMD EPYC Rome de segunda geração e AMD EPYC Milan de terceira geração.
    • A série de máquinas C3 oferece até 176 vCPUs e 2, 4 ou 8 GB de memória por vCPU na plataforma de CPU Intel Sapphire Rapids e Titanium. As instâncias C3 estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente.
    • A série de máquinas C3D oferece até 360 vCPUs e 2, 4 ou 8 GB de memória por vCPU na plataforma de CPU AMD EPYC Genoa e Titanium. As instâncias C3D estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente.
    • A série de máquinas E2 tem até 32 núcleos virtuais (vCPUs) com até 128 GB de memória, com um máximo de 8 GB por vCPU, e o custo mais baixo de todas as séries de máquinas. A série de máquinas E2 tem uma plataforma de CPU predefinida, que executa um processador Intel ou o processador AMD EPYC™ Rome de segunda geração. O processador é selecionado automaticamente quando cria a instância. Esta série de máquinas oferece uma variedade de recursos de computação ao preço mais baixo no Compute Engine, especialmente quando combinada com descontos por utilização garantida.
    • A série de máquinas Tau T2D oferece um conjunto de funcionalidades otimizado para a expansão. Cada instância de VM pode ter até 60 vCPUs, 4 GB de memória por vCPU e está disponível em processadores AMD EPYC Milan de terceira geração. A série de máquinas Tau T2D não usa cluster-threading, pelo que uma vCPU é equivalente a um núcleo inteiro.
    • As VMs da série de máquinas N1 podem ter até 96 vCPUs, até 6,5 GB de memória por vCPU e estão disponíveis nas plataformas de CPU Intel Sandy Bridge, Ivy Bridge, Haswell, Broadwell e Skylake.

    Braço

    • A série de máquinas C4A é a segunda série de máquinas a ser executada em processadores Arm e a primeira a ser executada em processadores Google Axion, que suportam a arquitetura Arm V9. Google CloudAs instâncias C4a são baseadas na IPU Titanium com descarregamentos de disco e rede. Isto melhora o desempenho da instância reduzindo o processamento no anfitrião.

      As instâncias C4A oferecem até 72 vCPUs com até 8 GB de memória por vCPU num único domínio de acesso uniforme à memória (UMA). Os C4A oferecem -lssdtipos de máquinas com até 6 TiB de capacidade de SSD de titânio. As instâncias C4a não usam multithreading simultâneo (SMT). Uma vCPU numa instância C4A é equivalente a um núcleo físico inteiro.

    • A série de máquinas Tau T2A é a primeira série de máquinas da Google Cloud a ser executada em processadores Arm. As máquinas Tau T2A estão otimizadas para oferecer um preço/desempenho atrativo. Cada VM pode ter até 48 vCPUs com 4 GB de memória por vCPU. A série de máquinas Tau T2A é executada num processador Ampere Altra de 64 núcleos com um conjunto de instruções Arm e uma frequência de todos os núcleos de 3 GHz. Os tipos de máquinas Tau T2A suportam um único nó NUMA e uma vCPU é equivalente a um núcleo inteiro.

    Guia da família de máquinas otimizadas para armazenamento

    A família de máquinas otimizada para armazenamento é mais adequada para cargas de trabalho de alto desempenho e otimizadas para flash, como SQL, NoSQL e bases de dados vetoriais, análise de dados escalável, armazéns de dados e pesquisa, e sistemas de ficheiros distribuídos que precisam de acesso rápido a grandes quantidades de dados armazenados no armazenamento local. A família de máquinas otimizada para armazenamento foi concebida para oferecer um elevado débito de armazenamento local e IOPS com uma latência inferior a um milissegundo.

    • As instâncias Z3 podem ter até 176 vCPUs, 1408 GB de memória e 36 TiB de SSD de titânio.standardlssd
    • As instâncias Z3 podem ter até 88 vCPUs, 704 GB de memória e 36 TiB de SSD de titânio.highlssd
    • As instâncias bare metal Z3 têm 192 vCPUs, 1536 GB de memória e 72 TiB de SSD Titanium local.

    O Z3 é executado no processador Intel Xeon Scalable (nome de código Sapphire Rapids) com memória DDR5 e processadores de descarga Titanium. O Z3 reúne inovações de computação, rede e armazenamento numa única plataforma. As instâncias Z3 estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente.

    Guia da família de máquinas otimizadas para computação

    A família de máquinas otimizadas para computação está otimizada para executar aplicações de computação de elevado desempenho (HPC), de vários nós e limitadas pela computação, oferecendo um elevado desempenho por núcleo.

    • As instâncias H4D (pré-visualização) oferecem 192 vCPUs e 720 GB de memória DDR5. As instâncias H4D são executadas na plataforma de CPU AMD EPYC Turin, com transferência de tarefas Titanium e suporte para Cloud RDMA. As instâncias H4D estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente. O H4D oferece uma escalabilidade melhorada para cargas de trabalho de vários nós e cargas de trabalho de HPC. O RDMA na nuvem é um componente de infraestrutura de rede que lhe permite criar uma verdadeira plataforma de HPC na nuvem que pode executar cálculos científicos e cargas de trabalho de ML/IA. O RDMA na nuvem oferece rácios de desempenho/preço comparáveis aos da infraestrutura no local.
    • As instâncias H3 oferecem 88 vCPUs e 352 GB de memória DDR5. As instâncias H3 são executadas na plataforma de CPU Intel Sapphire Rapids e em processadores de descarregamento Titanium. As instâncias H3 estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente. O H3 oferece melhorias de desempenho para uma grande variedade de cargas de trabalho de HPC, como dinâmica molecular, geociências computacionais, análise de risco financeiro, modelagem meteorológica, EDA de front-end e back-end, e dinâmica de fluidos computacional.
    • As instâncias C2 oferecem até 60 vCPUs, 4 GB de memória por vCPU e estão disponíveis na plataforma de CPU Intel Cascade Lake. As instâncias C2 estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente.
    • As instâncias C2D oferecem até 112 vCPUs, até 8 GB de memória por vCPU e estão disponíveis na plataforma AMD EPYC Milan de terceira geração. As instâncias C2D estão alinhadas com a arquitetura NUMA subjacente para oferecer um desempenho ideal, fiável e consistente.

    Guia da família de máquinas otimizadas para memória

    A família de máquinas com megamemória tem séries de máquinas ideais para cargas de trabalho SAP OLAP e OLTP, modelagem genómica, automatização de design eletrónico e cargas de trabalho de HPC com utilização intensiva de memória. Esta família oferece mais memória por núcleo do que qualquer outra família de máquinas, com até 32 TB de memória.

    • As instâncias bare metal X4 oferecem até 1920 vCPUs, com 17 GB de memória por vCPU. O X4 tem tipos de máquinas com 16, 24 e 32 TB de memória e está disponível na plataforma de CPU Intel Sapphire Rapids.
    • As instâncias M4 oferecem até 224 vCPUs, com até 26,5 GB de memória por vCPU, e estão disponíveis na plataforma de CPU Intel Emerald Rapids.
    • As instâncias M3 oferecem até 128 vCPUs, com até 30,5 GB de memória por vCPU e estão disponíveis na plataforma de CPU Intel Ice Lake.
    • As instâncias M2 estão disponíveis como tipos de máquinas de 6 TB, 9 TB e 12 TB e estão disponíveis na plataforma de CPU Intel Cascade Lake.
    • As instâncias M1 oferecem até 160 vCPUs, 14, 9 GB a 24 GB de memória por vCPU e estão disponíveis nas plataformas de CPU Intel Skylake e Broadwell.

    Guia da família de máquinas otimizadas pelo acelerador

    A família de máquinas otimizadas para aceleradores é ideal para cargas de trabalho de computação de arquitetura de dispositivos unificados de computação (CUDA) paralelizadas em massa, como aprendizagem automática (AA) e computação de elevado desempenho (HPC). Esta família de máquinas é a escolha ideal para cargas de trabalho que requerem GPUs.

    A Google também oferece o Hipercomputador de IA para criar clusters de VMs otimizadas para aceleradores com comunicação entre GPUs, que foram concebidas para executar cargas de trabalho de IA e ML muito intensivas. Para mais informações, consulte a Vista geral do hipercomputador de IA.

    Braço

    • As instâncias A4X oferecem até 140 vCPUs e até 884 GB de memória. Cada tipo de máquina A4X tem 4 GPUs NVIDIA B200 anexadas a 2 CPUs NVIDIA Grace. As instâncias A4X têm uma largura de banda de rede máxima de até 2000 GBps.

    x86

    • As instâncias A4 oferecem até 224 vCPUs e até 3968 GB de memória. Cada tipo de máquina A4 tem 8 GPUs NVIDIA B200 anexadas. As instâncias A4 têm uma largura de banda de rede máxima de até 3600 Gbps e estão disponíveis na plataforma de CPU Intel Emerald Rapids.
    • As instâncias A3 oferecem até 224 vCPUs e até 2952 GB de memória. Cada tipo de máquina A3 tem 1, 2, 4 ou 8 GPUs NVIDIA H100 ou 8 H200 anexadas. As instâncias A3 têm uma largura de banda de rede máxima de até 3200 Gbps e estão disponíveis nas seguintes plataformas de CPU:
      • Intel Emerald Rapids - A3 Ultra
      • Intel Sapphire Rapids: A3 Mega, High e Edge
    • As instâncias A2 oferecem entre 12 e 96 vCPUs e até 1360 GB de memória. Cada tipo de máquina A2 tem 1, 2, 4, 8 ou 16 GPUs NVIDIA A100 anexadas. As instâncias A2 têm uma largura de banda de rede máxima de até 100 Gbps e estão disponíveis na plataforma de CPU Intel Cascade Lake.
    • As instâncias G4 (pré-visualização) oferecem 48 a 384 vCPUs e até 1440 GB de memória. Cada instância G4 tem 1, 2, 4 ou 8 GPUs NVIDIA RTX PRO 6000 anexadas. As instâncias G4 têm uma largura de banda de rede máxima de até 400 Gbps e estão disponíveis na plataforma de CPU AMD EPYC Turin.
    • As instâncias G2 oferecem 4 a 96 vCPUs e até 432 GB de memória. Cada tipo de máquina G2 tem 1, 2, 4 ou 8 GPUs NVIDIA L4 anexadas. As instâncias G2 têm uma largura de banda de rede máxima de até 100 Gbps e estão disponíveis na plataforma de CPU Intel Cascade Lake.

    Comparação de séries de máquinas

    Use a tabela seguinte para comparar cada família de máquinas e determinar qual é adequada para a sua carga de trabalho. Se, depois de rever esta secção, ainda não tiver a certeza de qual é a melhor família para a sua carga de trabalho, comece pela família de máquinas de uso geral. Para ver detalhes sobre todos os processadores compatíveis, consulte o artigo Plataformas de CPU.

    Para saber como a sua seleção afeta o desempenho dos volumes de disco anexados às suas instâncias de computação, consulte:

    Compare as caraterísticas de diferentes séries de máquinas, desde C4A a G2. Pode selecionar propriedades específicas no campo Escolha propriedades da instância para comparar para comparar essas propriedades em todas as séries de máquinas na tabela seguinte.

    Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Utilização geral Otimizada para custos Otimizada para armazenamento Otimizada para computação Otimizada para computação Otimizada para computação Otimizada para computação Otimizada para memória Otimizada para memória Otimizada para memória Otimizada para memória Otimizada para memória Otimizado pelo acelerador Otimizado pelo acelerador Otimizado pelo acelerador Otimizado pelo acelerador Otimizado pelo acelerador Otimizado pelo acelerador Otimizado pelo acelerador Otimizado pelo acelerador
    Máquina virtual (VM) Máquina virtual (VM) VM e bare metal VM e bare metal Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) VM e bare metal Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Bare metal Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM) Máquina virtual (VM)
    Intel Emerald Rapids e Granite Rapids Google Axion AMD EPYC Turin Intel Sapphire Rapids AMD EPYC Genoa Intel Emerald Rapids Intel Cascade Lake e Ice Lake AMD EPYC Rome e EPYC Milan Intel Skylake, Broadwell, Haswell, Sandy Bridge e Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake, Broadwell e Haswell, AMD EPYC Rome e EPYC Milan Intel Sapphire Rapids AMD EPYC Turin Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Sapphire Rapids Intel Emerald Rapids Intel Ice Lake Intel Cascade Lake Intel Skylake e Broadwell Intel Skylake, Broadwell, Haswell, Sandy Bridge e Ivy Bridge NVIDIA Grace Intel Emerald Rapids Intel Emerald Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Turin Intel Cascade Lake
    x86 Braço x86 x86 x86 x86 x86 x86 x86 x86 Braço x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 Braço x86 x86 x86 x86 x86 x86
    2 a 288 1 a 72 2 a 384 4 a 176 4 a 360 2 a 80 2 a 128 2 a 224 1 a 96 1 a 60 1 a 48 0,25 a 32 8 a 192 192 88 4 a 60 2 a 112 960 a 1920 16 a 224 32 a 128 208 a 416 40 a 160 1 a 96 140 224 224 208 12 a 96 48 a 384 4 a 96
    Discussão Principal Discussão Discussão Discussão Discussão Discussão Discussão Discussão Principal Principal Discussão Discussão Principal Principal Discussão Discussão Discussão Discussão Discussão Discussão Discussão Discussão Principal Discussão Discussão Discussão Discussão Discussão Discussão
    2 a 2232 GB 2 a 576 GB 3 a 3072 GB 8 a 1408 GB 8 a 2880 GB 2 a 640 GB 2 a 864 GB 2 a 896 GB 1,8 a 624 GB 4 a 240 GB 4 a 192 GB 1 a 128 GB 64 a 1536 GB 720 a 1488 GB 352 GB 16 a 240 GB 4 a 896 GB 16 384 a 32 768 GB 248 a 5952 GB 976 a 3904 GB 5888 a 11 776 GB 961 a 3844 GB 3,75 a 624 GB 884 GB 3968 GB 2952 GB 1872 GB 85 a 1360 GB 180 a 1440 GB 16 a 432 GB
    <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> Intel TDX <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> <style="white-space:no-wrap;"> AMD SEV , AMD SEV-SNP </style="white-space:no-wrap;"> <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> Intel TDX, NVIDIA Confidential Computing
    NVMe NVMe NVMe NVMe NVMe NVMe SCSI e NVMe SCSI e NVMe SCSI e NVMe SCSI e NVMe NVMe SCSI NVMe NVMe NVMe SCSI e NVMe SCSI e NVMe NVMe NVMe NVMe SCSI SCSI e NVMe SCSI e NVMe NVMe NVMe NVMe NVMe SCSI e NVMe NVMe NVMe
    128 0 12 TiB 12 TiB 12 TiB 0 9 TiB 9 TiB 9 TiB 0 0 0 36 TiB (VM), 72 TiB (Metal) 3 TiB 0 3 TiB 3 TiB 0 0 3 TiB 0 3 TiB 9 TiB 12 TiB 12 TiB 12 TiB 6 TiB 3 TiB 12 TiB 3 TiB
    Zonal e regional Zonal e regional Zonal e regional Zonal Zonal Zonal e regional Zonal Zonal Zonal Zonal Zonal e regional Zonal
    Zonal Zonal Zonal e regional Zonal e regional Zonal e regional Zonal Zonal Zonal e regional Zonal Zonal Zonal Zonal Zonal Zonal Zonal Zonal e regional Zonal Zonal Zonal
    Zonal Zonal Zonal e regional Zonal e regional Zonal e regional Zonal Zonal Zonal e regional Zonal Zonal Zonal Zonal Zonal Zonal Zonal e regional Zonal Zonal Zonal
    gVNIC e IDPF gVNIC gVNIC e IDPF gVNIC e IDPF gVNIC gVNIC gVNIC e VirtIO-Net gVNIC e VirtIO-Net gVNIC e VirtIO-Net gVNIC e VirtIO-Net gVNIC gVNIC e VirtIO-Net gVNIC e IDPF gVNIC, IRDMA gVNIC gVNIC e VirtIO-Net gVNIC e VirtIO-Net IDPF gVNIC gVNIC gVNIC e VirtIO-Net gVNIC e VirtIO-Net gVNIC e VirtIO-Net gVNIC e MRDMA gVNIC e MRDMA gVNIC e MRDMA gVNIC gVNIC e VirtIO-Net gVNIC gVNIC e VirtIO-Net
    10 a 100 Gbps 10 a 50 Gbps 10 a 100 Gbps 23 a 100 Gbps 20 a 100 Gbps 10 a 50 Gbps 10 a 32 Gbps 10 a 32 Gbps 2 a 32 Gbps 10 a 32 Gbps 10 a 32 Gbps 1 a 16 Gbps 23 a 100 Gbps Até 200 Gbps Até 200 Gbps 10 a 32 Gbps 10 a 32 Gbps Até 100 Gbps 16 a 100 Gbps Até 32 Gbps Até 32 Gbps Até 32 Gbps 2 a 32 Gbps até 2000 GBps Até 3600 Gbps Até 3200 Gbps Até 1800 Gbps 24 a 100 Gbps 50 a 400 Gbps 10 a 100 Gbps
    50 a 200 Gbps 50 a 100 Gbps 50 a 200 Gbps 50 a 200 Gbps 50 a 200 Gbps 50 a 100 Gbps 50 a 100 Gbps 50 a 200 Gbps 50 a 100 Gbps 50 a 100 Gbps 50 a 200 Gbps 50 a 100 Gbps 50 a 100 Gbps até 2000 GBps Até 3600 Gbps Até 3200 Gbps Até 1800 Gbps 50 a 100 Gbps 50 a 400 Gbps 50 a 100 Gbps
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 4 8 8 8 16 8 8
    DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos DFs baseados em recursos e DFs flexíveis DFs baseados em recursos e DFs flexíveis DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos DFs baseados em recursos

    GPUs e instâncias de computação

    As GPUs são usadas para acelerar cargas de trabalho e são suportadas para instâncias A4X, A4, A3, A2, G4, G2 e N1. Para instâncias que usam os tipos de máquinas A4X, A4, A3, A2, G4 ou G2, as GPUs são anexadas automaticamente quando cria a instância. Para instâncias que usam tipos de máquinas N1, pode anexar GPUs à instância durante ou após a criação da instância. Não é possível usar GPUs com outras séries de máquinas.

    As instâncias otimizadas para aceleradores têm um número fixo de GPUs, vCPUs e memória por tipo de máquina, com exceção das máquinas G2, que oferecem um intervalo de memória personalizado. As instâncias N1 com menos GPUs anexadas estão limitadas a um número máximo de vCPUs. Em geral, um número mais elevado de GPUs permite-lhe criar instâncias com um número mais elevado de vCPUs e memória. Para mais informações, consulte o artigo GPUs no Compute Engine.

    O que se segue?