Familia de máquinas optimizadas para aceleradores


En este documento se describe la familia de máquinas optimizadas para aceleradores, que te ofrece instancias de máquina virtual (VM) con GPUs NVIDIA preconectadas. Estas instancias se han diseñado específicamente para la inteligencia artificial (IA), el aprendizaje automático (ML), la computación de alto rendimiento (HPC) y las aplicaciones con un uso intensivo de gráficos.

La familia de máquinas optimizadas para aceleradores está disponible en las siguientes series de máquinas: A4X, A4, A3, A2, G4 y G2. Cada tipo de máquina de una serie tiene un modelo y un número específicos de GPUs NVIDIA conectadas. También puedes conectar algunos modelos de GPU a tipos de máquinas de uso general N1.

En la siguiente sección se indica la serie de máquinas recomendada en función de tus cargas de trabajo de GPU:

Tipo de carga de trabajo Tipo de máquina recomendado
Entrenar modelos A4X, A4, A3 Ultra, A3 Mega, A3 High y A2

Para identificar la mejor opción, consulta las recomendaciones para modelos de entrenamiento previo en la documentación de AI Hypercomputer.

Ajustar modelos A4X, A4, A3 Ultra, A3 Mega, A3 High, A2 y G4 (vista previa)

Para identificar la mejor opción, consulta las recomendaciones para ajustar modelos en la documentación de AI Hypercomputer.

Inferencia de servicio A4X, A4, A3 Ultra, A3 Mega, A3 High, A3 Edge, A2 y G4 (vista previa)

Para identificar la mejor opción, consulta las recomendaciones para servir inferencias en la documentación de AI Hypercomputer.

Cargas de trabajo que requieren muchos recursos gráficos G4 (vista previa), G2 y N1+T4
Computación de alto rendimiento Para las cargas de trabajo de computación de alto rendimiento, cualquier serie de máquinas optimizadas para aceleradores funciona bien. La mejor opción depende de la cantidad de cálculos que se deban delegar en la GPU.

Para obtener más información, consulta las recomendaciones para HPC en la documentación de AI Hypercomputer.

Opciones de precios y consumo

Las opciones de consumo hacen referencia a las formas de obtener y usar recursos de computación. Google Cloud factura los tipos de máquinas optimizados para aceleradores por las GPUs que tengan vinculadas, la vCPU predefinida, la memoria y el almacenamiento SSD local incluido (si procede). Los descuentos para las instancias optimizadas para aceleradores varían en función de la opción de consumo que utilices. Para obtener más información sobre los precios de las instancias optimizadas para aceleradores, consulta la sección Familia de tipos de máquinas optimizadas para aceleradores de la página de precios de las instancias de máquinas virtuales.

Los descuentos para las instancias optimizadas para aceleradores varían en función de la opción de consumo que elijas:

  • Bajo demanda: puedes recibir descuentos por compromiso de uso (CUDs) para algunos recursos comprando compromisos basados en recursos. Sin embargo, las GPUs y los discos SSD locales que uses con la opción bajo demanda no pueden acogerse a los CUDs. Para recibir descuentos por compromiso de uso de GPUs y discos SSD locales, utiliza una de las opciones de reserva.
  • Spot: las máquinas virtuales de acceso puntual reciben descuentos automáticamente a través de los precios de las máquinas virtuales de acceso puntual.
  • Inicio flexible (vista previa): las instancias aprovisionadas mediante la opción de consumo Inicio flexible reciben automáticamente descuentos a través de los precios de Dynamic Workload Scheduler.
  • Reservas: puedes recibir CUDs para tus recursos de tipo de máquina optimizada para aceleradores comprando compromisos basados en recursos. Los compromisos de GPUs y discos SSD locales requieren reservas adjuntas de esos recursos.

Disponibilidad de opciones de consumo por tipo de máquina

En la siguiente tabla se resume la disponibilidad de cada opción de consumo por serie de máquinas. Para obtener más información sobre cómo elegir una opción de consumo, consulta el artículo Elegir un modelo de consumo de la documentación de AI Hypercomputer.

Tipo de máquina bajo demanda Spot Inicio flexible (vista previa) Reservas bajo demanda Reservas futuras (vista previa) Reservas futuras en el modo Calendario (vista previa) Reservas futuras en AI Hypercomputer (vista previa)
A4X
A4
A3 Ultra
  • A3 Mega
  • A3 High con 8 GPUs
  • A3 Edge
A3 High con menos de 8 GPUs
A2 Ultra y A2 Standard
G4 (vista previa) 1
G2

1Para saber cómo acceder a esta serie de máquinas, ponte en contacto con tu equipo de cuentas de Google.

Serie de máquinas A4X

La serie de máquinas A4X se ejecuta en una plataforma a escala de exaflops basada en la arquitectura a escala de rack NVIDIA GB200 NVL72 y tiene hasta 140 vCPUs y 884 GB de memoria. Esta serie de máquinas está optimizada para cargas de trabajo de entrenamiento de ML y HPC que requieren muchos recursos de computación y memoria, y que dependen de la red. La serie de máquinas A4X está disponible en un solo tipo de máquina.

Las instancias de VM creadas con el tipo de máquina A4X ofrecen las siguientes funciones:

  • Aceleración de GPU con superchips NVIDIA GB200: las instancias A4X tienen superchips NVIDIA GB200 conectados automáticamente. Estos superchips tienen GPUs NVIDIA B200 y ofrecen 180 GB de memoria por GPU. A4X tiene dos sockets con CPUs NVIDIA Grace™ con núcleos Arm® Neoverse™ V2. Estas CPUs están conectadas a cuatro GPUs B200 con una comunicación rápida entre chips (NVLink-C2C).

  • Plataforma de CPU NVIDIA Grace: las instancias A4X usan la plataforma de CPU NVIDIA Grace. Para obtener más información sobre la plataforma, consulta Plataformas de CPU.

  • Escalabilidad de NVLink líder del sector: NVLink multinodo que se puede ampliar hasta 72 GPUs en un solo dominio. Las GPUs NVIDIA B200 proporcionan un ancho de banda de GPU NVLink de 1800 GBps, bidireccionalmente por GPU. Con la topología NVLink de todos a todos entre 4 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 130 TB/s.

  • Conectividad de red mejorada con RoCE: en las instancias A4X, RDMA sobre Ethernet convergente (RoCE) aumenta el rendimiento de la red al combinar las tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 (CX-7) con la red de cuatro vías alineada con los raíles de todo el centro de datos de Google. Al aprovechar RDMA sobre Ethernet convergente (RoCE), las instancias A4X consiguen un rendimiento mucho mayor entre las instancias de un clúster en comparación con las instancias A4.

    Las NICs CX-7, aisladas físicamente en una topología de red alineada con rieles de cuatro vías, permiten que las instancias A4X se escalen horizontalmente en grupos de 72 GPUs hasta alcanzar miles de GPUs en un solo clúster sin bloqueos.

  • Velocidades de red más altas: ofrece velocidades de red hasta 4 veces superiores a las de las instancias creadas con los tipos de máquinas A3.

  • Optimizaciones de virtualización para transferencias y recuperación de datos: la topología Peripheral Component Interconnect Express (PCIe) de las instancias A4X proporciona información de localidad más precisa que las cargas de trabajo pueden usar para optimizar las transferencias de datos.

    Las GPUs también exponen el restablecimiento a nivel de función (FLR) para recuperarse correctamente de los fallos y admiten operaciones atómicas para mejorar la simultaneidad en determinados casos.

  • Compatibilidad con SSD local e hiperdisco: se añaden automáticamente 12.000 GiB de SSD local a las instancias A4X. Las unidades SSD locales se pueden usar como discos de trabajo rápidos o para introducir datos en las GPUs, lo que evita los cuellos de botella de E/S.

    En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, puedes adjuntar hasta 512 TiB de Hyperdisk a las instancias A4X.

  • Asignación densa y compatibilidad con la programación basada en la topología: cuando aprovisionas instancias A4X a través de Cluster Director, puedes solicitar bloques de capacidad asignada de forma densa. Tus máquinas host se asignan muy cerca entre sí, se aprovisionan como bloques de recursos y están interconectadas con una estructura de red de aprendizaje automático dinámica para minimizar los saltos de red y optimizar la latencia. Además, Cluster Director proporciona información de topología a nivel de nodo y de clúster que se puede usar para colocar tareas.

Tipo de máquina A4X

Los tipos de máquinas A4X optimizadas para aceleradores usan superchips NVIDIA GB200 Grace Blackwell (nvidia-gb200) y son ideales para entrenar y servir modelos fundacionales.

A4X es una plataforma exaescalar basada en NVIDIA GB200 NVL72. Cada máquina tiene dos sockets con CPUs NVIDIA Grace con núcleos Arm Neoverse V2. Estas CPUs están conectadas a cuatro GPUs NVIDIA B200 Blackwell con una comunicación rápida entre chips (NVLink-C2C).

Superchips NVIDIA GB200 Grace Blackwell conectados
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a4x-highgpu-4g 140 884 12.000 6 2000 4 720

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A4X

Tipos de discos admitidos en instancias A4X

Las instancias de A4X pueden usar los siguientes tipos de almacenamiento en bloque:

  • Hyperdisk Balanced (hyperdisk-balanced): es el único tipo de disco compatible con el disco de arranque.
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquina A4X.
Número máximo de discos por instancia1
Tipos de máquina Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme SSD local conectada
a4x-highgpu-4g 128 128 N/A N/A 8 32

1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.

Límites de disco y capacidad

Puedes adjuntar una combinación de diferentes tipos de Hyperdisk a una instancia, pero la capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar los 512 TiB en el caso de los Hyperdisks.

Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk.

Serie de máquinas A4

La serie de máquinas A4 ofrece tipos de máquinas con hasta 224 vCPUs y 3968 GB de memoria. Las instancias A4 ofrecen un rendimiento hasta 3 veces superior al de los tipos de instancias de GPU anteriores en la mayoría de las cargas de trabajo aceleradas por GPU. Se recomienda A4 para cargas de trabajo de entrenamiento de aprendizaje automático, especialmente a gran escala (por ejemplo, cientos o miles de GPUs). La serie de máquinas A4 está disponible en un solo tipo de máquina.

Las instancias de VM creadas con el tipo de máquina A4 ofrecen las siguientes funciones:

  • Aceleración de GPU con GPUs NVIDIA B200: las GPUs NVIDIA B200 se adjuntan automáticamente a las instancias A4, que ofrecen 180 GB de memoria de GPU por GPU.

  • Procesador escalable Intel Xeon de 5.ª generación (Emerald Rapids): ofrece una frecuencia turbo máxima sostenida de un solo núcleo de hasta 4,0 GHz. Para obtener más información sobre este procesador, consulta Plataforma de CPU.

  • Escalabilidad de NVLink líder del sector: las GPUs NVIDIA B200 proporcionan un ancho de banda de NVLink de GPU de 1800 GBps bidireccional por GPU.

    Con la topología NVLink de todos a todos entre 8 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 14,4 TBps.

  • Redes mejoradas con RoCE: RDMA sobre Ethernet convergente (RoCE) aumenta el rendimiento de la red combinando tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 con la red de cuatro vías alineada con los raíles de los centros de datos de Google. Al aprovechar RDMA sobre Ethernet convergente (RoCE), las instancias A4 consiguen un rendimiento mucho mayor entre las instancias de un clúster en comparación con la mayoría de las instancias A3, excepto las que se ejecutan en el tipo de máquina A3 Ultra.

  • Velocidades de red aumentadas: ofrece velocidades de red hasta 4 veces superiores en comparación con las instancias A2 de la generación anterior.

    Para obtener más información sobre las redes, consulta Ancho de banda de red y GPUs.

  • Optimizaciones de virtualización para transferencias y recuperación de datos: la topología Peripheral Component Interconnect Express (PCIe) de las instancias A4 proporciona información de ubicación más precisa que las cargas de trabajo pueden usar para optimizar las transferencias de datos.

    Las GPUs también exponen el restablecimiento a nivel de función (FLR) para recuperarse correctamente de los fallos y admiten operaciones atómicas para mejorar la simultaneidad en determinados casos.

  • Compatibilidad con SSD local e hiperdisco: se añaden automáticamente 12.000 GiB de SSD local a las instancias A4. Los SSD locales se pueden usar como discos de almacenamiento temporal rápidos o para introducir datos en las GPUs, lo que evita los cuellos de botella de E/S.

    En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, también puedes adjuntar hasta 512 TiB de Hyperdisk a las instancias A4.

  • Asignación densa y compatibilidad con la programación basada en la topología: cuando aprovisionas instancias A4 que usan las funciones y los servicios disponibles en Cluster Director, puedes solicitar bloques de capacidad asignada de forma densa. Tus máquinas host se asignan físicamente cerca unas de otras, se aprovisionan como bloques de recursos y se interconectan con una estructura de red de aprendizaje automático dinámica para minimizar los saltos de red y optimizar la latencia. Además, puedes obtener información de topología a nivel de nodo y clúster que se puede usar para la colocación de trabajos.

Tipo de máquina A4

Los tipos de máquinas A4 optimizadas para aceleradores tienen GPUs NVIDIA B200 Blackwell (nvidia-b200) conectadas y son ideales para entrenar y servir modelos fundacionales.

GPUs NVIDIA B200 Blackwell conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a4-highgpu-8g 224 3968 12.000 10 3600 8 1440

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A4

Tipos de discos admitidos para instancias A4

Las instancias A4 pueden usar los siguientes tipos de almacenamiento en bloque:

  • Hyperdisk Balanced (hyperdisk-balanced): es el único tipo de disco compatible con el disco de arranque.
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquina A4.
Número máximo de discos por instancia1
Tipos de máquina Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme SSD local conectada
a4-highgpu-8g 128 128 N/A N/A 8 32

1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.

Límites de disco y capacidad

Puedes adjuntar una combinación de diferentes tipos de Hyperdisk a una instancia, pero la capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar los 512 TiB en el caso de los Hyperdisks.

Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk.

Serie de máquinas A3

La serie de máquinas A3 tiene hasta 224 vCPUs y 2944 GB de memoria. Esta serie de máquinas está optimizada para cargas de trabajo de entrenamiento de aprendizaje automático y HPC que requieren muchos recursos de computación y memoria, y que dependen de la red. La serie de máquinas A3 está disponible en los tipos de máquinas A3 Ultra, A3 Mega, A3 High y A3 Edge.

Las instancias de VM creadas con los tipos de máquinas A3 ofrecen las siguientes funciones:

Función A3 Ultra A3 Mega, High y Edge
Aceleración por GPU

GPUs NVIDIA H200 SXM conectadas, que ofrecen 141 GB de memoria de GPU por GPU y proporcionan una memoria más grande y rápida para admitir modelos de lenguaje grandes y cargas de trabajo de HPC.

GPUs NVIDIA H100 SXM conectadas, que ofrecen 80 GB de memoria de GPU por GPU y son ideales para modelos de lenguaje grandes basados en transformadores, bases de datos y HPC.

Procesadores escalables Intel Xeon

Procesador escalable Intel Xeon de 5.ª generación (Emerald Rapids) y ofrece una frecuencia turbo máxima sostenida de un solo núcleo de hasta 4,0 GHz. Para obtener más información sobre este procesador, consulta Plataforma de CPU.

Procesador escalable Intel Xeon de 4.ª generación (Sapphire Rapids) y ofrece una frecuencia turbo máxima de hasta 3,3 GHz sostenida en un solo núcleo. Para obtener más información sobre este procesador, consulta Plataforma de CPU.

Escalabilidad NVLink líder en el sector

Las GPUs NVIDIA H200 ofrecen un ancho de banda NVLink de GPU máximo de 900 GB/s unidireccional.

Con la topología NVLink de todos a todos entre 8 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 7,2 TB/s.

Las GPUs NVIDIA H100 proporcionan un ancho de banda de GPU NVLink máximo de 450 GB/s unidireccional.

Con la topología NVLink de todos a todos entre 8 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 7,2 TB/s.

Redes mejoradas En este tipo de máquina, RDMA sobre Ethernet convergente (RoCE) aumenta el rendimiento de la red combinando tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 con nuestra red de cuatro vías alineada con los raíles de todo el centro de datos. Al aprovechar RDMA sobre Ethernet convergente (RoCE), el tipo de máquina a3-ultragpu-8g consigue un rendimiento mucho mayor entre las instancias de un clúster en comparación con otros tipos de máquinas A3.
  • En los tipos de máquinas A3 Mega, GPUDirect-TCPXO mejora aún más GPUDirect-TCPX al descargar el protocolo TCP. Al aprovechar GPUDirect-TCPXO, el tipo de máquina a3-megagpu-8g duplica el ancho de banda de la red en comparación con los tipos de máquinas A3 High y A3 Edge.
  • En los tipos de máquina A3 Edge y A3 High, GPUDirect-TCPX aumenta el rendimiento de la red al permitir que las cargas útiles de los paquetes de datos se transfieran directamente de la memoria de la GPU a la interfaz de red. Al aprovechar GPUDirect-TCPX, estos tipos de máquinas consiguen un rendimiento mucho mayor entre las instancias de un clúster en comparación con los tipos de máquinas optimizadas para aceleradores A2 o G2.
Velocidades de red mejoradas

Ofrece velocidades de red hasta 4 veces superiores en comparación con la serie de máquinas A2 de la generación anterior.

Para obtener más información sobre las redes, consulta la sección Ancho de banda de red y GPUs.

Ofrece velocidades de red hasta 2,5 veces superiores a las de la serie de máquinas A2 de la generación anterior.

Para obtener más información sobre las redes, consulta la sección Ancho de banda de red y GPUs.

Optimizaciones de virtualización

La topología Peripheral Component Interconnect Express (PCIe) de las instancias A3 proporciona información de localidad más precisa que las cargas de trabajo pueden usar para optimizar las transferencias de datos.

Las GPUs también exponen el restablecimiento a nivel de función (FLR) para recuperarse correctamente de los fallos y admiten operaciones atómicas para mejorar la simultaneidad en determinados casos.

Compatibilidad con SSD local, Persistent Disk e Hyperdisk

Las unidades SSD locales se pueden usar como discos de trabajo rápidos o para introducir datos en las GPUs, al tiempo que se evitan los cuellos de botella de E/S. La SSD local se adjunta de la siguiente manera:

  • Se añaden automáticamente 12.000 GiB de SSD local a las instancias A3 Ultra.
  • Se añaden automáticamente 6000 GiB de SSD local a las instancias A3 Mega, High y Edge.

También puedes adjuntar hasta 512 TiB de almacenamiento en discos persistentes e Hyperdisk a los tipos de máquinas de estas series para las aplicaciones que requieran un mayor rendimiento de almacenamiento. En algunos tipos de máquinas, también se admiten hasta 257 TiB de discos persistentes.

Compatibilidad con la política de posición compacta

Te ofrece más control sobre la ubicación física de tus instancias en los centros de datos.

Esto permite que las instancias que se encuentran en una misma zona de disponibilidad tengan una latencia más baja y un mayor ancho de banda.

Para obtener más información, consulta el artículo Acerca de las políticas de colocación compacta.

Tipo de máquina A3 Ultra

Los tipos de máquinas A3 Ultra tienen GPUs NVIDIA H200 SXM (nvidia-h200-141gb) conectadas y ofrecen el mayor rendimiento de red de la serie A3. Los tipos de máquinas A3 Ultra son ideales para entrenar y servir modelos fundacionales.

GPUs NVIDIA H200 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a3-ultragpu-8g 224 2952 12.000 10 3600 8 1128

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A3 Ultra

Tipo de máquina A3 Mega

Los tipos de máquinas A3 Mega tienen GPUs NVIDIA H100 SXM y son ideales para entrenar modelos grandes y para la inferencia multihost.
GPUs NVIDIA H100 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3)
a3-megagpu-8g 208 1872 6000 9 1800 8 640

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A3 Mega

Tipo de máquina A3 High

Los tipos de máquinas A3 High tienen GPUs NVIDIA H100 SXM y son adecuados tanto para la inferencia de modelos grandes como para el ajuste fino de modelos.
GPUs NVIDIA H100 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1500 1 50 2 160
a3-highgpu-4g 104 936 3000 1 100 4 320
a3-highgpu-8g 208 1872 6000 5 1000 8 640

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A3 High

Tipo de máquina A3 Edge

Los tipos de máquinas A3 Edge tienen GPUs NVIDIA H100 SXM y se han diseñado específicamente para servir. Están disponibles en un conjunto limitado de regiones.
GPUs NVIDIA H100 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3)
a3-edgegpu-8g 208 1872 6000 5
  • 800: para asia-south1 y northamerica-northeast2
  • 400: para el resto de las regiones de A3 Edge
8 640

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A3 Edge

Tipos de discos admitidos en instancias A3

A3 Ultra

Las instancias A3 Ultra pueden usar los siguientes tipos de almacenamiento en bloque:

  • Hyperdisk Balanced (hyperdisk-balanced): es el único tipo de disco compatible con el disco de arranque.
  • Hyperdisk Balanced High Availability (hyperdisk-balanced-high-availability)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquina A3.
Número máximo de discos por instancia1
Tipos de máquina
Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme Discos
SSD locales
conectados
a3-ultragpu-8g 128 128 128 N/A N/A 8 32

1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.

A3 Mega

Las instancias A3 Mega pueden usar los siguientes tipos de almacenamiento en bloque:

  • Disco persistente balanceado (pd-balanced)
  • Disco persistente SSD (rendimiento) (pd-ssd)
  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hyperdisk Balanced High Availability (hyperdisk-balanced-high-availability)
  • Hyperdisk ML (hyperdisk-ml)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Rendimiento de Hyperdisk (hyperdisk-throughput)
  • SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquinas A3
Número máximo de discos por instancia1
Tipos de máquina
Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme Discos
SSD locales
conectados
a3-megagpu-8g 128 32 32 64 64 8 16

1El uso de Hyperdisk y Persistent Disk se cobra por separado de los precios de los tipos de máquinas. Para consultar los precios de los discos, consulta la sección Precios de Persistent Disk e Hyperdisk.

A3 High

Las instancias A3 High pueden usar los siguientes tipos de almacenamiento en bloque:

  • Disco persistente balanceado (pd-balanced)
  • Disco persistente SSD (rendimiento) (pd-ssd)
  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hyperdisk Balanced High Availability (hyperdisk-balanced-high-availability)
  • Hyperdisk ML (hyperdisk-ml)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Rendimiento de Hyperdisk (hyperdisk-throughput)
  • SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquinas A3
Número máximo de discos por instancia1
Tipos de máquina
Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme Discos
SSD locales
conectados
a3-highgpu-1g 128 32 32 64 64 N/A 2
a3-highgpu-2g 128 32 32 64 64 N/A 4
a3-highgpu-4g 128 32 32 64 64 8 8
a3-highgpu-8g 128 32 32 64 64 8 16

1El uso de Hyperdisk y Persistent Disk se cobra por separado de los precios de los tipos de máquinas. Para consultar los precios de los discos, consulta la sección Precios de Persistent Disk e Hyperdisk.

A3 Edge

Las instancias A3 Edge pueden usar los siguientes tipos de almacenamiento en bloque:

  • Disco persistente balanceado (pd-balanced)
  • Disco persistente SSD (rendimiento) (pd-ssd)
  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hyperdisk Balanced High Availability (hyperdisk-balanced-high-availability)
  • Hyperdisk ML (hyperdisk-ml)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Rendimiento de Hyperdisk (hyperdisk-throughput)
  • SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquinas A3
Número máximo de discos por instancia1
Tipos de máquina Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme SSD local conectada
a3-edgegpu-8g 128 32 32 64 64 8 16

1El uso de Hyperdisk y Persistent Disk se cobra por separado de los precios de los tipos de máquinas. Para consultar los precios de los discos, consulta la sección Precios de Persistent Disk e Hyperdisk.

Límites de disco y capacidad

Si el tipo de máquina lo admite, puedes asociar una combinación de volúmenes de hiperdisco y de disco persistente a una instancia, pero se aplican las siguientes restricciones:

  • El número combinado de volúmenes de hiperdisco y de disco persistente no puede superar los 128 por instancia.
  • La capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar lo siguiente:

    • En el caso de los tipos de máquina con menos de 32 vCPUs:

      • 257 TiB para todos los Hyperdisk o todos los Persistent Disk
      • 257 TiB para una combinación de Hyperdisk y Persistent Disk
    • En los tipos de máquina con 32 vCPUs o más:

      • 512 TiB para todos los Hyperdisk
      • 512 TiB para una combinación de Hyperdisk y Persistent Disk
      • 257 TiB para todos los discos persistentes

Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk y Capacidad máxima de los discos persistentes.

Serie de máquinas A2

La serie de máquinas A2 está disponible en los tipos de máquinas A2 Standard y A2 Ultra. Estos tipos de máquinas tienen entre 12 y 96 vCPUs, y hasta 1360 GB de memoria.

Las instancias de máquina virtual creadas con los tipos de máquinas A2 ofrecen las siguientes funciones:

  • Aceleración por GPU: cada instancia A2 tiene GPUs NVIDIA A100. Están disponibles en las opciones A100 de 40 GB y A100 de 80 GB.

  • Escalabilidad de NVLink líder en el sector que proporciona un ancho de banda máximo de NVLink entre GPUs de 600 GBps. Por ejemplo, los sistemas con 16 GPUs tienen un ancho de banda de NVLink agregado de hasta 9,6 TBps. Estas 16 GPUs se pueden usar como un único acelerador de alto rendimiento con un espacio de memoria unificado para ofrecer hasta 10 petaFLOPS de potencia de computación y hasta 20 petaFLOPS de potencia de computación de inferencia que se pueden usar en cargas de trabajo de inteligencia artificial, aprendizaje profundo y aprendizaje automático.

  • Velocidades de computación mejoradas: las GPUs NVIDIA A100 incluidas ofrecen velocidades de computación hasta 10 veces superiores a las GPUs NVIDIA V100 de la generación anterior.

    Con la serie de máquinas A2, puedes obtener hasta 100 Gbps de ancho de banda de red.

  • Compatibilidad con SSD local, Persistent Disk e Hyperdisk: para usar discos temporales rápidos o para introducir datos en las GPUs y, al mismo tiempo, evitar cuellos de botella de E/S, los tipos de máquina A2 admiten SSD local de la siguiente manera:

    • En los tipos de máquinas estándar A2, puedes añadir hasta 3000 GiB de SSD local al crear una instancia.
    • En los tipos de máquinas A2 Ultra, el SSD local se conecta automáticamente al crear una instancia.

    En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, también puede adjuntar hasta 257 TiB de Persistent Disk y 512 TiB de volúmenes de Hyperdisk a las instancias A2.

  • Compatibilidad con la política de colocación compacta: te ofrece más control sobre la colocación física de tus instancias en los centros de datos. Esto permite que las instancias que se encuentran en una sola zona de disponibilidad tengan una latencia más baja y un ancho de banda mayor. Para obtener más información, consulta el artículo Reducir la latencia con políticas de emplazamiento compactas.

Los siguientes tipos de máquinas están disponibles para la serie de máquinas A2.

Tipos de máquinas A2 Ultra

Estos tipos de máquinas tienen un número fijo de GPUs A100 de 80 GB. Los SSD locales se adjuntan automáticamente a las instancias creadas con los tipos de máquina A2 Ultra.

GPUs NVIDIA A100 de 80 GB conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM2e)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1500 50 4 320
a2-ultragpu-8g 96 1360 3000 100 8 640

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A2 Ultra

  • Solo puedes solicitar capacidad con las opciones de consumo admitidas para el tipo de máquina A2 Ultra.
  • No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A2 Ultra.
  • Solo puedes usar un tipo de máquina A2 Ultra en determinadas regiones y zonas.
  • El tipo de máquina A2 Ultra solo está disponible en la plataforma Cascade Lake.
  • Si tu instancia usa un tipo de máquina A2 Ultra, no puedes cambiarlo. Si necesitas usar otro tipo de máquina A2 Ultra o cualquier otro tipo de máquina, debes crear una instancia.
  • No puedes cambiar ningún otro tipo de máquina a un tipo de máquina A2 Ultra. Si necesitas una instancia que use un tipo de máquina A2 Ultra, debes crear una instancia nueva.
  • No puedes hacer un formato rápido de los SSD locales conectados en instancias de Windows que usen tipos de máquinas A2 Ultra. Para formatear estas unidades SSD locales, debes realizar un formateo completo con la utilidad diskpart y especificar format fs=ntfs label=tmpfs.

Tipos de máquinas estándar A2

Estos tipos de máquinas tienen un número fijo de GPUs A100 de 40 GB. También puedes añadir discos SSD locales al crear una instancia A2 Standard. Para saber el número de discos que puedes conectar, consulta la sección Tipos de máquinas que requieren que elijas un número de discos SSD locales.

GPUs NVIDIA A100 de 40 GB conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local compatible Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM2)
a2-highgpu-1g 12 85 24 1 40
a2-highgpu-2g 24 170 32 2 80
a2-highgpu-4g 48 340 50 4 160
a2-highgpu-8g 96 680 100 8 320
a2-megagpu-16g 96 1360 100 16 640

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de A2 Standard

  • Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para el tipo de máquina A2 estándar.
  • No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible por las instancias que usen un tipo de máquina A2 estándar.
  • Solo puedes usar un tipo de máquina estándar A2 en determinadas regiones y zonas.
  • El tipo de máquina estándar A2 solo está disponible en la plataforma Cascade Lake.
  • Si tu instancia usa un tipo de máquina A2 estándar, solo puedes cambiar de un tipo de máquina A2 estándar a otro. No puedes cambiar a ningún otro tipo de máquina. Para obtener más información, consulta Modificar instancias optimizadas para aceleradores.
  • No puedes usar el sistema operativo Windows con los a2-megagpu-16gtipos de máquinas estándar A2. Si usas sistemas operativos Windows, elige otro tipo de máquina A2 Standard.
  • No puedes hacer un formato rápido de los SSD locales conectados en instancias de Windows que usen tipos de máquinas estándar A2. Para formatear estas unidades SSD locales, debes realizar un formateo completo con la utilidad diskpart y especificar format fs=ntfs label=tmpfs.
  • Los tipos de máquinas estándar A2 no admiten el alquiler exclusivo.

Tipos de discos admitidos en instancias A2

Las instancias A2 pueden usar los siguientes tipos de almacenamiento en bloque:

  • Hyperdisk ML (hyperdisk-ml)
  • Disco persistente balanceado (pd-balanced)
  • Disco persistente SSD (rendimiento) (pd-ssd)
  • Persistent Disk estándar (pd-standard)
  • SSD local: se adjunta automáticamente a las instancias creadas con los tipos de máquinas A2 Ultra.

Si el tipo de máquina lo admite, puedes asociar una combinación de volúmenes de hiperdisco y de disco persistente a una instancia, pero se aplican las siguientes restricciones:

  • El número combinado de volúmenes de hiperdisco y de disco persistente no puede superar los 128 por instancia.
  • La capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar lo siguiente:

    • En el caso de los tipos de máquina con menos de 32 vCPUs:

      • 257 TiB para todos los Hyperdisk o todos los Persistent Disk
      • 257 TiB para una combinación de Hyperdisk y Persistent Disk
    • En los tipos de máquina con 32 vCPUs o más:

      • 512 TiB para todos los Hyperdisk
      • 512 TiB para una combinación de Hyperdisk y Persistent Disk
      • 257 TiB para todos los discos persistentes

Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk y Capacidad máxima de los discos persistentes.

Serie de máquinas G4

La serie de máquinas G4 usa la plataforma de CPU AMD EPYC Turin e incluye GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition. Esta serie de máquinas ofrece mejoras significativas con respecto a la serie de máquinas G2 de la generación anterior, ya que cuenta con mucha más memoria de GPU, un mayor ancho de banda de memoria de GPU y un mayor ancho de banda de red.

Las instancias G4 tienen hasta 384 vCPUs, 1440 GB de memoria y 12 TiB de discos SSD Titanium conectados. Las instancias G4 también proporcionan hasta 400 Gbps de rendimiento de red estándar.

Esta serie de máquinas está diseñada especialmente para cargas de trabajo como las de simulación de NVIDIA Omniverse, las aplicaciones que requieren muchos recursos gráficos, la transcodificación de vídeo y los escritorios virtuales. La serie de máquinas G4 también ofrece una solución de bajo coste para realizar inferencias de un solo host y ajuste de modelos en comparación con los tipos de máquina de la serie A.

Las instancias que usan el tipo de máquina G4 ofrecen las siguientes funciones:

  • Aceleración por GPU con GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition: las instancias G4 adjuntan automáticamente GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, que ofrecen 96 GB de memoria de GPU por GPU.

  • Plataforma de CPU AMD EPYC Turin de 5.ª generación: esta plataforma ofrece una frecuencia de aumento máxima sostenida de hasta 4,1 GHz. Para obtener más información sobre este procesador, consulta Plataforma de CPU.

  • Rendimiento gráfico de nueva generación: las GPUs NVIDIA RTX PRO 6000 ofrecen mejoras significativas en el rendimiento y las funciones en comparación con las GPUs NVIDIA L4 que se incluyen en la serie de máquinas G2. Estas mejoras son las siguientes:

    • Núcleos Tensor de 5.ª generación: estos núcleos incorporan compatibilidad con la precisión FP4 y la generación de varios fotogramas de DLSS 4. Al usar estos Tensor Cores de quinta generación, las GPUs NVIDIA RTX PRO 6000 ofrecen un rendimiento mejorado para acelerar tareas como el desarrollo de LLMs locales y la creación de contenido, en comparación con las GPUs NVIDIA L4.
    • Núcleos RT de cuarta generación: estos núcleos ofrecen hasta el doble de rendimiento de trazado de rayos que las GPUs NVIDIA L4 de la generación anterior, lo que acelera el renderizado de las cargas de trabajo de diseño y fabricación.
    • Número de núcleos: la GPU NVIDIA RTX PRO 6000 incluye 24.064 núcleos CUDA, 752 núcleos Tensor de quinta generación y 188 núcleos RT de cuarta generación. Esta actualización supone un aumento considerable con respecto a generaciones anteriores, como la GPU L4,que tiene 7680 núcleos CUDA y 240 Tensor Cores.
  • GPU con varias instancias (MIG): esta función permite que una sola GPU se divida en hasta cuatro instancias de GPU totalmente aisladas en una sola instancia de VM. Para obtener más información sobre la tecnología MIG de NVIDIA, consulta el artículo GPU de varias instancias de NVIDIA en la documentación de NVIDIA.

  • Compatibilidad con Peripheral Component Interconnect Express (PCIe) Gen 5: las instancias G4 admiten PCI Express Gen 5, lo que mejora la velocidad de transferencia de datos de la memoria de la CPU a la GPU en comparación con PCIe Gen 3, que usan las instancias G2.

  • Compatibilidad con Titanium SSD e Hyperdisk: las instancias G4 admiten la conexión de hasta 12.000 GiB de Titanium SSD. La unidad SSD de titanio proporciona discos de trabajo rápidos o introduce datos en las GPUs, lo que ayuda a evitar los cuellos de botella de E/S.

    En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, las instancias G4 también admiten la conexión de hasta 512 TiB de Hyperdisk.

  • Comunicación peer-to-peer (P2P) entre GPUs: las instancias G4 admiten la comunicación P2P entre GPUs, lo que permite la transferencia directa de datos entre GPUs de la misma instancia. Esto puede mejorar significativamente el rendimiento de las cargas de trabajo de varias GPUs, ya que reduce la latencia de transferencia de datos y libera recursos de la CPU. Para obtener más información, consulta Comunicación peer-to-peer (P2P) de GPU G4.

Tipos de máquinas G4

Los tipos de máquinas G4 optimizadas para aceleradores usan GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition (nvidia-rtx-pro-6000) y son adecuados para cargas de trabajo de simulación de NVIDIA Omniverse, aplicaciones con un uso intensivo de gráficos, transcodificación de vídeo y escritorios virtuales. Los tipos de máquinas G4 también ofrecen una solución de bajo coste para realizar inferencias de un solo host y ajustes de modelos en comparación con los tipos de máquinas de la serie A.

GPUs NVIDIA RTX PRO 6000 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) Máximo de SSD Titanium admitido (GiB)2 Número de NICs físicas Ancho de banda de red máximo (Gbps)3 Número de GPUs Memoria de la GPU4
(GB GDDR7)
g4-standard-48 48 180 1500 1 50 1 96
g4-standard-96 96 360 3000 1 100 2 192
g4-standard-192 192 720 6000 1 200 4 384
g4-standard-384 384 1440 12.000 2 400 8 17.

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2Puedes añadir discos SSD de Titanium al crear una instancia G4. Para saber el número de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas un número de discos SSD locales.
3El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Consulta Ancho de banda de la red.
La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de G4

  • Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para un tipo de máquina G4.
  • No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible por las instancias que usen un tipo de máquina G4.
  • Solo puedes usar un tipo de máquina G4 en determinadas regiones y zonas.
  • No puedes usar Persistent Disk (regional o zonal) en una instancia que use un tipo de máquina G4.
  • El tipo de máquina G4 solo está disponible en la plataforma AMD EPYC Turin de quinta generación.
  • Solo puedes crear instancias bajo demanda. No se admiten reservas, inicio flexible ni máquinas virtuales de Spot. Para empezar a usar las instancias G4, ponte en contacto con tu equipo de cuentas de Google.
  • Solo puedes crear instancias de G4 en us-central1-b.
  • Solo puedes usar los tipos de disco Hyperdisk Balanced y Hyperdisk Extreme en una instancia que use un tipo de máquina G4.
  • No puedes aplicar descuentos por uso confirmado a instancias que usen un tipo de máquina G4.
  • No puedes crear instancias de VM confidenciales que usen un tipo de máquina G4.
  • No puedes crear instancias G4 en nodos de único cliente.
  • No puedes crear instancias G4 que usen la estación de trabajo virtual (vWS) NVIDIA RTX.

Tipos de discos admitidos en instancias G4

Las instancias G4 pueden usar los siguientes tipos de almacenamiento en bloque:

  • Hyperdisk Balanced (hyperdisk-balanced)
  • Hyperdisk Extreme (hyperdisk-extreme)
  • Titanium SSD: puedes añadir Titanium SSD a las instancias creadas con los tipos de máquina G4.

Número máximo de discos por instancia1
Tipos de máquina Todos los Hyperdisk Hyperdisk Balanced Hyperdisk Extreme Titanium SSD
g4-standard-48 32 32 0 4
g4-standard-96 32 32 8 8
g4-standard-192 64 64 8 12.
g4-standard-384 128 128 8 32

1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.

Puedes adjuntar una combinación de diferentes tipos de Hyperdisk a una instancia, pero la capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar los 512 TiB en el caso de los Hyperdisks.

Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk.

Comunicación entre iguales (P2P) de G4

Las instancias G4 mejoran el rendimiento de las cargas de trabajo de varias GPUs mediante la comunicación directa entre GPUs (P2P). Esta función permite que las GPUs que se conectan a la misma instancia G4 intercambien datos directamente a través del bus PCIe, sin necesidad de transferir datos a través de la memoria principal de la CPU. Esta ruta directa reduce la latencia, disminuye el uso de la CPU y aumenta el ancho de banda efectivo entre las GPUs. La comunicación P2P acelera significativamente las aplicaciones de varias GPUs, como el entrenamiento de aprendizaje automático y la computación de alto rendimiento.

Por lo general, esta función no requiere que modifiques el código de tu aplicación. Solo tienes que configurar NCCL para usar P2P. Para configurar NCCL, antes de ejecutar tus cargas de trabajo, define la variable de entorno NCCL_P2P_LEVEL en tu instancia G4 en función del tipo de máquina:

  • En las instancias G4 con 2 o 4 GPUs (g4-standard-96 y g4-standard-192), defina NCCL_P2P_LEVEL=PHB
  • En las instancias G4 con 8 GPUs (g4-standard-384), define NCCL_P2P_LEVEL=SYS.

Define la variable de entorno con una de las siguientes opciones:

  • En la línea de comandos, ejecuta el comando de exportación adecuado (por ejemplo, export NCCL_P2P_LEVEL=SYS) en la sesión de shell en la que quieras ejecutar tu aplicación. Para que este ajuste sea permanente, añade este comando a la secuencia de comandos de inicio de tu shell (por ejemplo, ~/.bashrc).
  • Añade el ajuste adecuado (por ejemplo, NCCL_P2P_LEVEL=SYS) al archivo de configuración de NCCL, que se encuentra en /etc/nccl.conf.

Ventajas y rendimiento principales

  • Acelera las cargas de trabajo de varias GPUs en instancias G4 con dos o más GPUs: proporciona tiempos de ejecución más rápidos para las aplicaciones que se ejecutan en los tipos de máquina g4-standard-96, g4-standard-192 y g4-standard-384.
  • Proporciona una comunicación de gran ancho de banda: permite alcanzar altas velocidades de transferencia de datos entre GPUs.
  • Mejora el rendimiento de NCCL: ofrece mejoras significativas en el rendimiento de las aplicaciones que usan la biblioteca de comunicación colectiva de NVIDIA (NCCL) en comparación con la comunicación que no usa P2P. El hipervisor de Google aísla de forma segura esta comunicación P2P en tus instancias.

    • En las instancias de cuatro GPUs (g4-standard-192), todas las GPUs están en un solo nodo NUMA, lo que permite la comunicación P2P más eficiente. Esto puede suponer una mejora del rendimiento de hasta 2,04 veces en colectivos como Allgather, Allreduce y ReduceScatter.
    • En las instancias de ocho GPUs (g4-standard-384), las GPUs se distribuyen en dos nodos NUMA. La comunicación P2P se acelera para el tráfico tanto dentro como entre estos nodos, con mejoras de rendimiento de hasta 2,19 veces para los mismos colectivos.

Serie de máquinas G2

La serie de máquinas G2 está disponible en tipos de máquinas estándar que tienen de 4 a 96 vCPUs y hasta 432 GB de memoria. Esta serie de máquinas está optimizada para cargas de trabajo de inferencia y gráficos. La serie de máquinas G2 está disponible en un solo tipo de máquina estándar con varias configuraciones.

Las instancias creadas con los tipos de máquinas G2 ofrecen las siguientes funciones:

  • Aceleración por GPU: cada tipo de máquina G2 tiene GPUs NVIDIA L4.

  • Tasas de inferencia mejoradas: el tipo de máquina G2 admite el tipo de datos FP8 (coma flotante de 8 bits), lo que acelera las tasas de inferencia de aprendizaje automático y reduce los requisitos de memoria.

  • Rendimiento gráfico de nueva generación: las GPUs NVIDIA L4 ofrecen una mejora de hasta 3 veces en el rendimiento gráfico gracias a los núcleos RT de tercera generación y a la tecnología NVIDIA DLSS 3 (Supermuestreo por aprendizaje profundo).

  • Ancho de banda de red de alto rendimiento: con los tipos de máquina G2, puedes obtener hasta 100 Gbps de ancho de banda de red.

  • Compatibilidad con SSD local, Persistent Disk e Hyperdisk: puedes añadir hasta 3000 GiB de SSD local a las instancias G2. Se puede usar para discos de trabajo rápidos o para introducir datos en las GPUs y, al mismo tiempo, evitar cuellos de botella de E/S.

    También puedes conectar volúmenes de hiperdisco y de Persistent Disk a instancias G2 para aplicaciones que requieran más almacenamiento persistente. La capacidad de almacenamiento máxima depende del número de vCPUs que tenga la instancia. Para obtener más información, consulta Tipos de discos admitidos.

  • Compatibilidad con la política de colocación compacta: te ofrece más control sobre la colocación física de tus instancias en los centros de datos. Esto permite que las instancias que se encuentran en una sola zona de disponibilidad tengan una latencia más baja y un ancho de banda mayor. Para obtener más información, consulta el artículo Reducir la latencia con políticas de emplazamiento compactas.

Tipos de máquinas G2

Los tipos de máquinas G2 optimizadas para aceleradores tienen GPUs NVIDIA L4 conectadas y son ideales para cargas de trabajo de inferencia optimizadas para costes, con un uso intensivo de gráficos y de computación de alto rendimiento.

Cada tipo de máquina G2 también tiene una memoria predeterminada y un intervalo de memoria personalizado. El intervalo de memoria personalizado define la cantidad de memoria que puedes asignar a tu instancia para cada tipo de máquina. También puedes añadir discos SSD locales al crear una instancia G2. Para saber el número de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas un número de discos SSD locales.

GPUs NVIDIA L4 conectadas
Tipo de máquina Número de vCPUs1 Memoria de instancia predeterminada (GB) Intervalo de memoria de instancia personalizada (GB) SSD local máxima admitida (GiB) Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3 (GB GDDR6)
g2-standard-4 4 16 De 16 a 32 375 10 1 24
g2-standard-8 8 32 De 32 a 54 375 16 1 24
g2-standard-12 12 48 48-54 375 16 1 24
g2-standard-16 16 64 De 54 a 64 375 32 1 24
g2-standard-24 24 96 De 96 a 108 750 32 2 48
g2-standard-32 32 128 De 96 a 128 375 32 1 24
g2-standard-48 48 192 De 192 a 216 1500 50 4 96
g2-standard-96 96 384 De 384 a 432 3000 100 8 192

1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Limitaciones de G2

Tipos de discos admitidos en instancias G2

Las instancias G2 pueden usar los siguientes tipos de almacenamiento en bloque:

  • Disco persistente balanceado (pd-balanced)
  • Disco persistente SSD (rendimiento) (pd-ssd)
  • Hyperdisk ML (hyperdisk-ml)
  • Rendimiento de Hyperdisk (hyperdisk-throughput)
  • SSD local

Si el tipo de máquina lo admite, puedes asociar una combinación de volúmenes de hiperdisco y de disco persistente a una instancia, pero se aplican las siguientes restricciones:

  • El número combinado de volúmenes de hiperdisco y de disco persistente no puede superar los 128 por instancia.
  • La capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar lo siguiente:

    • En el caso de los tipos de máquina con menos de 32 vCPUs:

      • 257 TiB para todos los Hyperdisk o todos los Persistent Disk
      • 257 TiB para una combinación de Hyperdisk y Persistent Disk
    • En los tipos de máquina con 32 vCPUs o más:

      • 512 TiB para todos los Hyperdisk
      • 512 TiB para una combinación de Hyperdisk y Persistent Disk
      • 257 TiB para todos los discos persistentes

Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk y Capacidad máxima de los discos persistentes.

Siguientes pasos