Guía de comparación y recursos de las familias de máquinas


En este documento se describen las familias, las series y los tipos de máquinas que puedes elegir para crear una instancia de máquina virtual o una instancia de hardware desnudo con los recursos que necesites. Cuando creas una instancia de computación, seleccionas un tipo de máquina de una familia de máquinas que determina los recursos disponibles para esa instancia.

Puedes elegir entre varias familias de máquinas. Cada familia de máquinas se organiza en series de máquinas y tipos de máquinas predefinidos dentro de cada serie. Por ejemplo, en la serie de máquinas N2 de la familia de máquinas de uso general, puedes seleccionar el tipo de máquina n2-standard-4.

Para obtener información sobre las series de máquinas que admiten VMs de acceso puntual (y VMs interrumpibles), consulta Modelos de aprovisionamiento de instancias de Compute Engine.

Nota: Esta es una lista de las familias de máquinas de Compute Engine. Para obtener una explicación detallada de cada familia de máquinas, consulta las siguientes páginas:
  • Uso general: la mejor relación precio-rendimiento para una gran variedad de cargas de trabajo.
  • Optimizado para almacenamiento: es la mejor opción para cargas de trabajo con un uso de núcleos bajo y una densidad de almacenamiento alta.
  • Optimizadas para la computación: ofrecen el mayor rendimiento por núcleo en Compute Engine y están optimizadas para cargas de trabajo que requieren una gran cantidad de recursos de computación.
  • Memoria optimizada: ideal para cargas de trabajo que requieren un uso intensivo de la memoria, ya que ofrece más memoria por núcleo que otras familias de máquinas, con hasta 12 TB de memoria.
  • Optimizadas para aceleradores: ideales para cargas de trabajo de computación de Compute Unified Device Architecture (CUDA) masivamente paralelas, como el aprendizaje automático y la computación de alto rendimiento. Esta familia es la mejor opción para las cargas de trabajo que requieren GPUs.

Terminología de Compute Engine

En esta documentación se utilizan los siguientes términos:

  • Familia de máquinas: conjunto seleccionado de configuraciones de procesador y hardware optimizadas para cargas de trabajo específicas, como las de uso general, las optimizadas para aceleradores o las optimizadas para memoria.

  • Serie de máquinas: las familias de máquinas se clasifican en series, generaciones y tipos de procesador.

    • Cada serie se centra en un aspecto diferente de la potencia de computación o el rendimiento. Por ejemplo, la serie E ofrece máquinas virtuales eficientes a un coste bajo, mientras que la serie C ofrece un mejor rendimiento.

    • La generación se indica con un número ascendente. Por ejemplo, la serie N1 de la familia de máquinas de uso general es la versión anterior de la serie N2. Un número de generación o de serie más alto suele indicar que las plataformas o tecnologías de CPU subyacentes son más recientes. Por ejemplo, la serie M3, que se ejecuta en procesadores escalables Intel Xeon de 3.ª generación (Ice Lake), es una generación más reciente que la serie M2, que se ejecuta en procesadores escalables Intel Xeon de 2.ª generación (Cascade Lake).

      Generación Intel AMD Activar
      Serie de máquinas de 4.ª generación N4, C4, X4, M4 y A4 C4D, G4 C4A, A4X
      Serie de máquinas de 3.ª generación C3, H3, Z3, M3 y A3 C3D N/A
      Serie de máquinas de 2.ª generación N2, E2, C2, M2, A2 y G2 N2D, C2D, T2D y E2 T2A
  • Tipo de máquina: cada serie de máquinas ofrece al menos un tipo de máquina. Cada tipo de máquina proporciona un conjunto de recursos para tu instancia de computación, como vCPUs, memoria, discos y GPUs. Si un tipo de máquina predefinido no se ajusta a tus necesidades, también puedes crear un tipo de máquina personalizada para algunas series de máquinas.

En las siguientes secciones se describen los distintos tipos de máquinas.

Tipos de máquinas predefinidas

Los tipos de máquinas predefinidos incluyen una cantidad de memoria y de vCPUs que no se pueden configurar. Los tipos de máquinas predefinidos usan varias proporciones de vCPU a memoria:

  • highcpu: de 1 a 3 GB de memoria por vCPU. Normalmente, 2 GB de memoria por vCPU.
  • standard: de 3 a 7 GB de memoria por vCPU; normalmente, 4 GB de memoria por vCPU.
  • highmem: de 7 a 12 GB de memoria por vCPU; normalmente, 8 GB de memoria por vCPU.
  • megamem: de 12 a 15 GB de memoria por vCPU; normalmente, 14 GB de memoria por vCPU.
  • hypermem: de 15 a 24 GB de memoria por vCPU; normalmente, 16 GB de memoria por vCPU.
  • ultramem: de 24 a 31 GB de memoria por vCPU.

Por ejemplo, el tipo de máquina c3-standard-22 tiene 22 vCPUs y, como tipo de máquina standard, también tiene 88 GB de memoria.

Tipos de máquinas con SSD local

Los tipos de máquinas con SSD local son tipos de máquinas predefinidos especiales. Los nombres de los tipos de máquina incluyen lssd. Cuando creas una instancia de computación con uno de los siguientes tipos de máquina, los discos SSD de Titanium o los discos SSD locales se adjuntan automáticamente a la instancia:

  • -lssd: disponibles con las series de máquinas C4, C4A, C4D, C3 y C3D, estos tipos de máquinas adjuntan un número predeterminado de discos SSD locales de 375 GiB a la instancia. Algunos ejemplos de este tipo de máquina son c4a-standard-4-lssd, c3-standard-88-lssd y c3d-highmem-360-lssd.
  • -standardlssd: disponibles con la serie de máquinas Z3 optimizadas para el almacenamiento, estos tipos de máquinas proporcionan hasta 350 GiB de capacidad de disco SSD Titanium por vCPU. Estos tipos de máquina se recomiendan para búsquedas de alto rendimiento y análisis de datos en conjuntos de datos de tamaño medio. Un ejemplo de este tipo de máquina es z3-highmem-22-standardlssd.
  • -highlssd: disponibles con la serie de máquinas Z3, estos tipos de máquinas proporcionan entre 350 y 600 GiB de capacidad de disco SSD de titanio por vCPU. Estos tipos de máquinas ofrecen un alto rendimiento y se recomiendan para la transmisión y el análisis de datos que requieren mucho almacenamiento en conjuntos de datos de gran tamaño. Un ejemplo de este tipo de máquina es z3-highmem-88-highlssd.

Otras series de máquinas también admiten discos SSD locales, pero no usan un nombre de tipo de máquina que incluya lssd. Para ver una lista de todos los tipos de máquinas que puedes usar con discos SSD Titanium o SSD locales, consulta Elegir un número válido de discos SSD locales.

Tipos de máquinas Bare Metal

Los tipos de máquinas de hardware desnudo son un tipo de máquina predefinida especial. El nombre del tipo de máquina termina en -metal. Cuando creas una instancia de computación con uno de estos tipos de máquina, no se instala ningún hipervisor en la instancia. Puedes adjuntar discos a una instancia Bare Metal igual que lo harías con una instancia de VM. Las instancias de hardware desnudo se pueden usar en redes y subredes de VPC de la misma forma que las instancias de VM.

Estos tipos de máquinas están disponibles con las series de máquinas C4, C4D, C3, X4 y Z3. Para obtener más información, consulta el artículo sobre las instancias de hardware desnudo en Compute Engine.

Tipos de máquinas personalizadas

Si ninguno de los tipos de máquinas predefinidos se ajusta a las necesidades de tu carga de trabajo, puedes crear una instancia de máquina virtual con un tipo de máquina personalizada para las series de máquinas N y E de la familia de máquinas de uso general. .

El uso de tipos de máquinas personalizadas cuesta un poco más que el de un tipo de máquina predefinido equivalente. Además, hay limitaciones en la cantidad de memoria y vCPUs que puedes seleccionar para un tipo de máquina personalizada. Los precios bajo demanda de los tipos de máquinas personalizadas incluyen un suplemento del 5% en comparación con los precios bajo demanda y de compromiso de los tipos de máquinas predefinidos.

Cuando crees un tipo de máquina personalizado, puedes usar la función de memoria ampliada. En lugar de usar el tamaño de memoria predeterminado en función del número de vCPUs que selecciones, puedes especificar una cantidad de memoria, hasta el límite de la serie de máquinas.

Para obtener más información, consulta Crear una VM con un tipo de máquina personalizado.

Tipos de máquinas de núcleo compartido

Las series E2 y N1 contienen tipos de máquinas de núcleo compartido. Estos tipos de máquinas comparten un núcleo físico, lo que puede ser un método rentable para ejecutar aplicaciones pequeñas que no requieren un uso intensivo de recursos.

  • E2 ofrece tipos de máquinas de núcleo compartido e2-micro, e2-small y e2-medium con 2 vCPUs para periodos cortos de ráfaga.

  • N1 ofrece los tipos de máquinas de núcleo compartido f1-micro y g1-small, que tienen hasta 1 vCPU disponible durante breves periodos de ráfaga.

Para obtener más información, consulta CPU bursting.

Recomendaciones de familias y series de máquinas

En las siguientes tablas se ofrecen recomendaciones para diferentes cargas de trabajo.

Cargas de trabajo de uso general
N4, N2, N2D y N1 C4, C4A, C4D, C3, C3D E2 Tau T2D y Tau T2A
Relación precio-rendimiento equilibrada en una amplia gama de tipos de máquinas Rendimiento alto y constante para una gran variedad de cargas de trabajo Rendimiento cotidiano a un coste más bajo Mejor rendimiento por núcleo y coste para cargas de trabajo de escalado horizontal
  • Servidores web y de aplicaciones con tráfico medio
  • Microservicios en contenedores
  • Aplicaciones de inteligencia empresarial
  • Escritorios virtuales
  • Aplicaciones de CRM
  • Entornos de desarrollo y pruebas
  • Procesamiento por lotes
  • Almacenamiento y archivo
  • Servidores web y de aplicaciones con mucho tráfico
  • Bases de datos
  • Cachés en memoria
  • Servidores de anuncios
  • Game Servers
  • Analíticas de datos
  • Transmisión y transcodificación de contenido multimedia
  • Entrenamiento e inferencia de aprendizaje automático basados en CPU
  • Servidores web con poco tráfico
  • Aplicaciones de back-office
  • Microservicios en contenedores
  • Microservicios
  • Escritorios virtuales
  • Entornos de desarrollo y pruebas
  • Cargas de trabajo de escalado horizontal
  • Servicio web
  • Microservicios en contenedores
  • Transcodificación multimedia
  • Aplicaciones Java a gran escala

  • Cargas de trabajo optimizadas
    Almacenamiento optimizado Optimizada para la computación Con memoria optimizada Optimizada para aceleradores
    Z3 H3, C2 y C2D X4, M4, M3, M2 y M1 A4X, A4, A3, A2, G4, G2
    Las mayores ratios de almacenamiento en bloques por recursos de computación para cargas de trabajo que requieren mucho espacio de almacenamiento Rendimiento ultra alto para cargas de trabajo que requieren una gran cantidad de recursos informáticos Las mayores ratios de memoria por recursos de computación para cargas de trabajo que requieren un uso intensivo de la memoria Optimizado para cargas de trabajo de computación de alto rendimiento aceleradas
    • Bases de datos SQL, NoSQL y vectoriales
    • Analíticas y almacenes de datos
    • Buscar
    • Streaming de contenido multimedia
    • Sistemas de archivos paralelos distribuidos de gran tamaño
    • Cargas de trabajo vinculadas a la computación
    • Servidores web de alto rendimiento
    • Game Servers
    • Computación de alto rendimiento (HPC)
    • Transcodificación multimedia
    • Cargas de trabajo de modelado y simulación
    • Inteligencia artificial y aprendizaje automático
    • Bases de datos en memoria de SAP HANA de tamaño pequeño a extra grande
    • Almacenes de datos en memoria, como Redis
    • Simulación
    • Bases de datos de alto rendimiento, como Microsoft SQL Server o MySQL
    • Automatización del diseño electrónico
    • Modelos de IA generativa como los siguientes:
      • Modelos de lenguaje extensos (LLMs)
      • Modelos de difusión
      • Redes generativas antagónicas (GAN)
    • Entrenamiento e inferencia de aprendizaje automático habilitado con CUDA
    • Computación de alto rendimiento (HPC)
    • Computación masiva en paralelo
    • Procesamiento del lenguaje natural BERT
    • Modelo de recomendación de aprendizaje profundo (DLRM)
    • Transcodificación de vídeo
    • Estación de trabajo de visualización remota

    Después de crear una instancia de computación, puedes usar las recomendaciones de reajuste de tamaño para optimizar el uso de recursos en función de tu carga de trabajo. Para obtener más información, consulta Aplicar recomendaciones de tipo de máquina a máquinas virtuales.

    Guía de la familia de máquinas de uso general

    La familia de máquinas de uso general ofrece varias series de máquinas con la mejor relación precio-rendimiento para una gran variedad de cargas de trabajo.

    Compute Engine ofrece series de máquinas de uso general que se ejecutan en la arquitectura x86 o Arm.

    x86

    • La serie de máquinas C4 está disponible en las plataformas de CPU Intel Granite Rapids y Emerald Rapids, y utiliza la tecnología de Titanium. Los tipos de máquinas C4 están optimizados para ofrecer un rendimiento alto y constante, y pueden escalarse hasta 288 vCPUs, 2,2 TB de memoria DDR5 y 18 TiB de SSD local. C4 está disponible en configuraciones highcpu (2 GB de memoria por vCPU), standard (3,75 GB de memoria por vCPU) y highmem (7,75 GB de memoria por vCPU). Las instancias C4 se ajustan a la arquitectura subyacente de acceso a memoria no uniforme (NUMA) para ofrecer un rendimiento óptimo, fiable y uniforme.
    • La serie de máquinas C4D está disponible en la plataforma de CPU AMD EPYC Turin y se basa en Titanium. C4D tiene una frecuencia de aumento máximo mayor que C3D, con instrucciones por ciclo de reloj (IPC) mejoradas para que las transacciones de bases de datos sean más rápidas. Al aprovechar el almacenamiento Hyperdisk y la red Titanium, C4D demuestra hasta un 55% más de consultas por segundo en Cloud SQL para MySQL y un 35% más de rendimiento en las cargas de trabajo de Memorystore para Redis en comparación con C3D. Las instancias C4D están disponibles con hasta 384 vCPUs, 3 TB de memoria DDR5 y 12 TiB de SSD local. C4D está disponible en las configuraciones highcpu (1,875 GB de memoria por vCPU), standard (3,875 GB de memoria por vCPU) y highmem (7,875 GB de memoria por vCPU). Las instancias C4D se ajustan a la arquitectura NUMA subyacente para ofrecer un rendimiento óptimo, fiable y uniforme.
    • La serie de máquinas N4 está disponible en la plataforma de CPU Intel Emerald Rapids y utiliza la tecnología de Titanium. Los tipos de máquinas N4 están optimizados para ofrecer flexibilidad y rentabilidad, tanto con formas predefinidas como personalizadas, y pueden escalarse hasta 80 vCPUs con 640 GB de memoria DDR5. N4 está disponible en las configuraciones highcpu (2 GB por vCPU), standard (4 GB por vCPU) y highmem (8 GB por vCPU).
    • La serie de máquinas N2 tiene hasta 128 vCPUs, 8 GB de memoria por vCPU y está disponible en las plataformas de CPU Intel Ice Lake e Intel Cascade Lake.
    • La serie de máquinas N2D tiene hasta 224 vCPUs y 8 GB de memoria por vCPU, y está disponible en las plataformas AMD EPYC Rome de segunda generación y AMD EPYC Milan de tercera generación.
    • La serie de máquinas C3 ofrece hasta 176 vCPUs y 2, 4 u 8 GB de memoria por vCPU en la plataforma de CPU Intel Sapphire Rapids y Titanium. Las instancias C3 se han diseñado para que se ajusten a la arquitectura NUMA subyacente y ofrezcan un rendimiento óptimo, fiable y uniforme.
    • La serie de máquinas C3D ofrece hasta 360 vCPUs y 2, 4 u 8 GB de memoria por vCPU en la plataforma de CPU AMD EPYC Genoa y Titanium. Las instancias C3D se han diseñado para que se ajusten a la arquitectura NUMA subyacente y ofrezcan un rendimiento óptimo, fiable y uniforme.
    • La serie de máquinas E2 tiene hasta 32 núcleos virtuales (vCPUs) con hasta 128 GB de memoria, un máximo de 8 GB por vCPU y el coste más bajo de todas las series de máquinas. La serie de máquinas E2 tiene una plataforma de CPU predefinida que ejecuta un procesador Intel o el procesador AMD EPYC™ Rome de segunda generación. El procesador se selecciona automáticamente cuando creas la instancia. Esta serie de máquinas ofrece una gran variedad de recursos de computación al precio más bajo de Compute Engine, sobre todo si se combina con descuentos por uso confirmado.
    • La serie de máquinas Tau T2D ofrece un conjunto de funciones optimizado para el escalado horizontal. Cada instancia de máquina virtual puede tener hasta 60 vCPUs y 4 GB de memoria por vCPU, y está disponible en los procesadores AMD EPYC Milan de tercera generación. La serie de máquinas Tau T2D no usa el multihilo de clúster, por lo que una vCPU equivale a un núcleo completo.
    • Las máquinas virtuales de la serie N1 pueden tener hasta 96 vCPUs y hasta 6,5 GB de memoria por vCPU.Están disponibles en las plataformas de CPU Intel Sandy Bridge, Ivy Bridge, Haswell, Broadwell y Skylake.

    Arm

    • La serie de máquinas C4A es la segunda serie de máquinas de Google Cloud que se ejecuta en procesadores Arm y la primera que se ejecuta en procesadores Google Axion, que admiten la arquitectura Arm V9. Las instancias C4A se basan en la IPU Titanium con descargas de disco y de red, lo que mejora el rendimiento de las instancias al reducir el procesamiento en el host.

      Las instancias C4A proporcionan hasta 72 vCPUs con hasta 8 GB de memoria por vCPU en un solo dominio de acceso a memoria uniforme (UMA). C4A ofrece tipos de máquinas -lssd que incluyen hasta 6 TiB de capacidad de SSD Titanium. Las instancias de C4A no usan multihilo simultáneo (SMT). Una vCPU de una instancia C4A equivale a un núcleo físico completo.

    • La serie de máquinas Tau T2A es la primera serie de máquinas de Google Cloud que se ejecuta en procesadores Arm. Las máquinas Tau T2A están optimizadas para ofrecer una relación precio-rendimiento atractiva. Cada máquina virtual puede tener hasta 48 vCPUs con 4 GB de memoria por vCPU. La serie de máquinas Tau T2A se ejecuta en un procesador Ampere Altra de 64 núcleos con un conjunto de instrucciones Arm y una frecuencia de 3 GHz en todos los núcleos. Los tipos de máquinas Tau T2A admiten un solo nodo NUMA y una vCPU equivale a un núcleo completo.

    Guía de la familia de máquinas con almacenamiento optimizado

    La familia de máquinas optimizadas para el almacenamiento es la más adecuada para cargas de trabajo de alto rendimiento y optimizadas para flash, como bases de datos SQL, NoSQL y vectoriales, analíticas de datos de escalado horizontal, almacenes de datos y búsquedas, así como sistemas de archivos distribuidos que necesitan un acceso rápido a grandes cantidades de datos almacenados en almacenamiento local. La familia de máquinas optimizadas para el almacenamiento se ha diseñado para proporcionar un alto rendimiento de almacenamiento local y un número de IOPS elevado con una latencia inferior a un milisegundo.

    • Las instancias Z3 standardlssd pueden tener hasta 176 vCPUs, 1408 GB de memoria y 36 TiB de SSD de titanio.
    • Las instancias Z3 highlssd pueden tener hasta 88 vCPUs, 704 GB de memoria y 36 TiB de SSD Titanium.
    • Las instancias de hardware desnudo Z3 tienen 192 vCPUs, 1536 GB de memoria y 72 TiB de SSD local de titanio.

    Z3 se ejecuta en el procesador escalable Intel Xeon (nombre en clave Sapphire Rapids) con memoria DDR5 y procesadores de descarga Titanium. Z3 combina innovaciones en computación, redes y almacenamiento en una sola plataforma. Las instancias Z3 se ajustan a la arquitectura NUMA subyacente para ofrecer un rendimiento óptimo, fiable y uniforme.

    Guía de la familia de máquinas optimizadas para la computación

    La familia de máquinas optimizadas para la computación está optimizada para ejecutar aplicaciones con uso intensivo de recursos de computación, ya que ofrece el mayor rendimiento por núcleo.

    • Las instancias H3 ofrecen 88 vCPUs y 352 GB de memoria DDR5. Las instancias H3 se ejecutan en la plataforma de CPU Intel Sapphire Rapids y en procesadores de descarga Titanium. Las instancias H3 se ajustan a la arquitectura subyacente de acceso a memoria no uniforme (NUMA) para ofrecer un rendimiento óptimo, fiable y uniforme. H3 ofrece mejoras de rendimiento para una amplia variedad de cargas de trabajo de HPC, como la dinámica molecular, la geociencia computacional, el análisis de riesgos financieros, la modelización meteorológica, la EDA frontend y backend, y la dinámica de fluidos computacional.
    • Las instancias C2 ofrecen hasta 60 vCPUs y 4 GB de memoria por vCPU, y están disponibles en la plataforma de CPU Intel Cascade Lake. Las instancias C2 se alinean con la arquitectura NUMA subyacente para ofrecer un rendimiento óptimo, fiable y constante.
    • Las instancias C2D ofrecen hasta 112 vCPUs y hasta 8 GB de memoria por vCPU, y están disponibles en la plataforma AMD EPYC Milan de tercera generación. Las instancias C2D se ajustan a la arquitectura NUMA subyacente para ofrecer un rendimiento óptimo, fiable y uniforme.

    Guía de la familia de máquinas con memoria optimizada

    La familia de máquinas optimizadas para la memoria tiene series de máquinas ideales para cargas de trabajo de SAP OLAP y OLTP, modelado genómico, automatización de diseño electrónico y cargas de trabajo de HPC que requieren mucha memoria. Esta familia ofrece más memoria por núcleo que cualquier otra familia de máquinas, con hasta 32 TB de memoria.

    • Las instancias de hardware desnudo X4 ofrecen hasta 1920 vCPUs, con 17 GB de memoria por vCPU. X4 tiene tipos de máquinas con 16, 24 y 32 TB de memoria, y está disponible en la plataforma de CPU Intel Sapphire Rapids.
    • Las instancias M4 ofrecen hasta 224 vCPUs, con hasta 26,5 GB de memoria por vCPU, y están disponibles en la plataforma de CPU Intel Emerald Rapids.
    • Las instancias M3 ofrecen hasta 128 vCPUs, con hasta 30,5 GB de memoria por vCPU, y están disponibles en la plataforma de CPU Intel Ice Lake.
    • Las instancias M2 están disponibles como tipos de máquinas de 6, 9 y 12 TB, y se pueden usar en la plataforma de CPU Intel Cascade Lake.
    • Las instancias M1 ofrecen hasta 160 vCPUs, de 14, 9 a 24 GB de memoria por vCPU y están disponibles en las plataformas de CPU Intel Skylake y Broadwell.

    Guía de la familia de máquinas optimizadas para aceleradores

    La familia de máquinas optimizadas para aceleradores es ideal para cargas de trabajo de computación de arquitectura de dispositivo unificada de computación (CUDA) masivamente paralelas, como el aprendizaje automático y la computación de alto rendimiento (HPC). Esta familia de máquinas es la opción óptima para las cargas de trabajo que requieren GPUs.

    Google también ofrece AI Hypercomputer para crear clústeres de VMs optimizadas para aceleradores con comunicación entre GPUs, que están diseñadas para ejecutar cargas de trabajo de IA y aprendizaje automático muy intensivas. Para obtener más información, consulta la descripción general de AI Hypercomputer.

    Arm

    • Las instancias A4X ofrecen hasta 140 vCPUs y hasta 884 GB de memoria. Cada tipo de máquina A4X tiene 4 GPUs NVIDIA B200 conectadas a 2 CPUs NVIDIA Grace. Las instancias A4X tienen un ancho de banda de red máximo de hasta 2000 Gbps.

    x86

    • Las instancias A4 ofrecen hasta 224 vCPUs y hasta 3968 GB de memoria. Cada tipo de máquina A4 tiene 8 GPUs NVIDIA B200 conectadas. Las instancias A4 tienen un ancho de banda de red máximo de hasta 3600 Gbps y están disponibles en la plataforma de CPU Intel Emerald Rapids.
    • Las instancias A3 ofrecen hasta 224 vCPUs y hasta 2952 GB de memoria. Cada tipo de máquina A3 tiene conectadas 1, 2, 4 u 8 GPUs NVIDIA H100 u 8 H200. Las instancias A3 tienen un ancho de banda de red máximo de hasta 3200 Gbps y están disponibles en las siguientes plataformas de CPU:
      • Intel Emerald Rapids - A3 Ultra
      • Intel Sapphire Rapids: A3 Mega, High y Edge
    • Las instancias A2 ofrecen entre 12 y 96 vCPUs, y hasta 1360 GB de memoria. Cada tipo de máquina A2 tiene conectadas 1, 2, 4, 8 o 16 GPUs NVIDIA A100. Las instancias A2 tienen un ancho de banda de red máximo de hasta 100 Gbps y están disponibles en la plataforma de CPU Intel Cascade Lake.
    • Las instancias G4 (vista previa) ofrecen de 48 a 384 vCPUs y hasta 1440 GB de memoria. Cada instancia G4 tiene conectadas 1, 2, 4 u 8 GPUs NVIDIA RTX PRO 6000. Las instancias G4 tienen un ancho de banda de red máximo de hasta 400 Gbps y están disponibles en la plataforma de CPU AMD EPYC Turin.
    • Las instancias G2 ofrecen de 4 a 96 vCPUs y hasta 432 GB de memoria. Cada tipo de máquina G2 tiene 1, 2, 4 u 8 GPUs NVIDIA L4 conectadas. Las instancias G2 tienen un ancho de banda de red máximo de hasta 100 Gbps y están disponibles en la plataforma de CPU Intel Cascade Lake.

    Comparación de series de máquinas

    Usa la siguiente tabla para comparar cada familia de máquinas y determinar cuál es la más adecuada para tu carga de trabajo. Si, después de leer esta sección, sigues sin saber qué familia es la más adecuada para tu carga de trabajo, empieza con la familia de máquinas de uso general. Para obtener información sobre todos los procesadores compatibles, consulta Plataformas de CPU.

    Para saber cómo afecta tu selección al rendimiento de los volúmenes de disco conectados a tus instancias de computación, consulta los siguientes artículos:

    Compara las características de las diferentes series de máquinas, desde C4A hasta G2. Puede seleccionar propiedades específicas en el campo Elegir propiedades de instancia para comparar y comparar esas propiedades en todas las series de máquinas de la tabla siguiente.

    Uso general Uso general Uso general Uso general Uso general Uso general Uso general Uso general Uso general Uso general Uso general Optimización de costes Almacenamiento optimizado Optimizada para la computación Optimizada para la computación Optimizada para la computación Memoria optimizada Memoria optimizada Memoria optimizada Memoria optimizada Memoria optimizada Optimizada para aceleradores Optimizada para aceleradores Optimizada para aceleradores Optimizada para aceleradores Optimizada para aceleradores Optimizada para aceleradores Optimizada para aceleradores Optimizada para aceleradores
    VM VM Máquinas virtuales y bare metal Máquinas virtuales y bare metal VM VM VM VM VM VM VM VM Máquinas virtuales y bare metal VM VM VM Bare metal VM VM VM VM VM VM VM VM VM VM VM VM
    Intel Emerald Rapids y Granite Rapids Google Axion AMD EPYC Turin Intel Sapphire Rapids AMD EPYC Genoa Intel Emerald Rapids Intel Cascade Lake e Ice Lake AMD EPYC Rome y EPYC Milan Intel Skylake, Broadwell, Haswell, Sandy Bridge e Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake, Broadwell y Haswell, AMD EPYC Rome y EPYC Milan Intel Sapphire Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Sapphire Rapids Intel Emerald Rapids Intel Ice Lake Intel Cascade Lake Intel Skylake y Broadwell Intel Skylake, Broadwell, Haswell, Sandy Bridge e Ivy Bridge NVIDIA Grace Intel Emerald Rapids Intel Emerald Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Turin Intel Cascade Lake
    x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86
    De 2 a 288 De 1 a 72 De 2 a 384 4 a 176 De 4 a 360 De 2 a 80 De 2 a 128 De 2 a 224 De 1 a 96 De 1 a 60 De 1 a 48 De 0,25 a 32 De 8 a 192 88 De 4 a 60 De 2 a 112 De 960 a 1920 De 16 a 224 De 32 a 128 De 208 a 416 De 40 a 160 De 1 a 96 140 224 224 208 De 12 a 96 De 48 a 384 De 4 a 96
    Conversación Core Conversación Conversación Conversación Conversación Conversación Conversación Conversación Core Core Conversación Conversación Core Conversación Conversación Conversación Conversación Conversación Conversación Conversación Conversación Core Conversación Conversación Conversación Conversación Conversación Conversación
    De 2 a 2232 GB De 2 a 576 GB De 3 a 3072 GB De 8 a 1408 GB De 8 a 2880 GB De 2 a 640 GB De 2 a 864 GB De 2 a 896 GB De 1,8 a 624 GB De 4 a 240 GB De 4 a 192 GB De 1 a 128 GB De 64 a 1536 GB 352 GB De 16 a 240 GB De 4 a 896 GB De 16.384 a 32.768 GB De 248 a 5952 GB De 976 a 3904 GB De 5888 a 11.776 GB De 961 a 3844 GB De 3,75 a 624 GB 884 GB 3968 GB 2952 GB 1872 GB De 85 a 1360 GB De 180 a 1440 GB De 16 a 432 GB
    <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> Intel TDX <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> <style="white-space:no-wrap;"> AMD SEV , AMD SEV-SNP </style="white-space:no-wrap;"> <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> Intel TDX, Computación confidencial de NVIDIA
    NVMe NVMe NVMe NVMe NVMe NVMe SCSI y NVMe SCSI y NVMe SCSI y NVMe SCSI y NVMe NVMe SCSI NVMe NVMe SCSI y NVMe SCSI y NVMe NVMe NVMe NVMe SCSI SCSI y NVMe SCSI y NVMe NVMe NVMe NVMe NVMe SCSI y NVMe NVMe NVMe
    18 TiB 6 TiB 12 TiB 12 TiB 12 TiB 0 9 TiB 9 TiB 9 TiB 0 0 0 36 TiB (máquina virtual) y 72 TiB (Metal) 0 3 TiB 3 TiB 0 0 3 TiB 0 3 TiB 9 TiB 12 TiB 12 TiB 12 TiB 6 TiB 3 TiB 12 TiB 3 TiB
    Zonales y regionales Zonales y regionales Zonales y regionales Por zonas Por zonas Zonales y regionales Por zonas Por zonas Por zonas Por zonas Zonales y regionales Por zonas
    Por zonas Por zonas Zonales y regionales Zonales y regionales Zonales y regionales Por zonas Por zonas Zonales y regionales Por zonas Por zonas Por zonas Por zonas Por zonas Por zonas Por zonas Zonales y regionales Por zonas Por zonas Por zonas
    Por zonas Por zonas Zonales y regionales Zonales y regionales Zonales y regionales Por zonas Por zonas Zonales y regionales Por zonas Por zonas Por zonas Por zonas Por zonas Por zonas Zonales y regionales Por zonas Por zonas Por zonas
    gVNIC e IDPF gVNIC gVNIC e IDPF gVNIC e IDPF gVNIC gVNIC gVNIC y VirtIO-Net gVNIC y VirtIO-Net gVNIC y VirtIO-Net gVNIC y VirtIO-Net gVNIC gVNIC y VirtIO-Net gVNIC e IDPF gVNIC gVNIC y VirtIO-Net gVNIC y VirtIO-Net IDPF gVNIC gVNIC gVNIC y VirtIO-Net gVNIC y VirtIO-Net gVNIC y VirtIO-Net gVNIC y MRDMA gVNIC y MRDMA gVNIC y MRDMA gVNIC gVNIC y VirtIO-Net gVNIC gVNIC y VirtIO-Net
    De 10 a 100 Gbps De 10 a 50 Gbps De 10 a 100 Gbps De 23 a 100 Gbps De 20 a 100 Gbps De 10 a 50 Gbps De 10 a 32 Gbps De 10 a 32 Gbps De 2 a 32 Gbps De 10 a 32 Gbps De 10 a 32 Gbps De 1 a 16 Gbps De 23 a 100 Gbps hasta 200 Gbps De 10 a 32 Gbps De 10 a 32 Gbps hasta 100 Gbps De 16 a 100 Gbps hasta 32 Gbps hasta 32 Gbps hasta 32 Gbps De 2 a 32 Gbps hasta 2000 GBps hasta 3600 Gbps hasta 3200 Gbps hasta 1800 Gbps De 24 a 100 Gbps De 50 a 400 Gbps De 10 a 100 Gbps
    De 50 a 200 Gbps De 50 a 100 Gbps De 50 a 200 Gbps De 50 a 200 Gbps De 50 a 200 Gbps De 50 a 100 Gbps De 50 a 100 Gbps De 50 a 200 Gbps De 50 a 100 Gbps De 50 a 100 Gbps De 50 a 200 Gbps De 50 a 100 Gbps De 50 a 100 Gbps hasta 2000 GBps hasta 3600 Gbps hasta 3200 Gbps hasta 1800 Gbps De 50 a 100 Gbps De 50 a 400 Gbps De 50 a 100 Gbps
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 4 8 8 8 16 8 8
    Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos y flexibles Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos Descuentos por compromiso de uso basados en recursos

    GPUs e instancias de proceso

    Las GPUs se usan para acelerar las cargas de trabajo y son compatibles con las instancias A4X, A4, A3, A2, G4, G2 y N1. En las instancias que usan los tipos de máquina A4X, A4, A3, A2, G4 o G2, las GPUs se conectan automáticamente al crear la instancia. En el caso de las instancias que usan tipos de máquina N1, puedes adjuntar GPUs a la instancia durante o después de crearla. Las GPUs no se pueden usar con ninguna otra serie de máquinas.

    Las instancias optimizadas para aceleradores tienen un número fijo de GPUs, vCPUs y memoria por tipo de máquina, a excepción de las máquinas G2, que ofrecen un intervalo de memoria personalizado. Las instancias N1 con menos GPUs conectadas tienen un número máximo de vCPUs. Por lo general, un mayor número de GPUs te permite crear instancias con un mayor número de vCPUs y memoria. Para obtener más información, consulta el artículo sobre GPUs en Compute Engine.

    Siguientes pasos