En este documento se describe la familia de máquinas optimizadas para aceleradores, que te ofrece instancias de máquina virtual (VM) con GPUs NVIDIA preconectadas. Estas instancias se han diseñado específicamente para la inteligencia artificial (IA), el aprendizaje automático (ML), la computación de alto rendimiento (HPC) y las aplicaciones con un uso intensivo de gráficos.
La familia de máquinas optimizadas para aceleradores está disponible en las siguientes series de máquinas: A4X, A4, A3, A2, G4 y G2. Cada tipo de máquina de una serie tiene un modelo y un número específicos de GPUs NVIDIA conectadas. También puedes conectar algunos modelos de GPU a tipos de máquinas de uso general N1.
Serie de máquinas recomendada por tipo de carga de trabajo
En la siguiente sección se indica la serie de máquinas recomendada en función de tus cargas de trabajo de GPU:
Tipo de carga de trabajo | Tipo de máquina recomendado |
---|---|
Entrenar modelos | A4X, A4, A3 Ultra, A3 Mega, A3 High y A2 Para identificar la mejor opción, consulta las recomendaciones para modelos de entrenamiento previo en la documentación de AI Hypercomputer. |
Ajustar modelos | A4X, A4, A3 Ultra, A3 Mega, A3 High, A2 y G4 (vista previa) Para identificar la mejor opción, consulta las recomendaciones para ajustar modelos en la documentación de AI Hypercomputer. |
Inferencia de servicio | A4X, A4, A3 Ultra, A3 Mega, A3 High, A3 Edge, A2 y G4 (vista previa) Para identificar la mejor opción, consulta las recomendaciones para servir inferencias en la documentación de AI Hypercomputer. |
Cargas de trabajo que requieren muchos recursos gráficos | G4 (vista previa), G2 y N1+T4 |
Computación de alto rendimiento | Para las cargas de trabajo de computación de alto rendimiento, cualquier serie de máquinas optimizadas para aceleradores funciona bien. La mejor opción depende de la cantidad de cálculos que se deban
delegar en la GPU. Para obtener más información, consulta las recomendaciones para HPC en la documentación de AI Hypercomputer. |
Opciones de precios y consumo
Las opciones de consumo hacen referencia a las formas de obtener y usar recursos de computación. Google Cloud factura los tipos de máquinas optimizados para aceleradores por las GPUs que tengan vinculadas, la vCPU predefinida, la memoria y el almacenamiento SSD local incluido (si procede). Los descuentos para las instancias optimizadas para aceleradores varían en función de la opción de consumo que utilices. Para obtener más información sobre los precios de las instancias optimizadas para aceleradores, consulta la sección Familia de tipos de máquinas optimizadas para aceleradores de la página de precios de las instancias de máquinas virtuales.
Los descuentos para las instancias optimizadas para aceleradores varían en función de la opción de consumo que elijas:
- Bajo demanda: puedes recibir descuentos por compromiso de uso (CUDs) para algunos recursos comprando compromisos basados en recursos. Sin embargo, las GPUs y los discos SSD locales que uses con la opción bajo demanda no pueden acogerse a los CUDs. Para recibir descuentos por compromiso de uso de GPUs y discos SSD locales, utiliza una de las opciones de reserva.
- Spot: las máquinas virtuales de acceso puntual reciben descuentos automáticamente a través de los precios de las máquinas virtuales de acceso puntual.
- Inicio flexible (vista previa): las instancias aprovisionadas mediante la opción de consumo Inicio flexible reciben automáticamente descuentos a través de los precios de Dynamic Workload Scheduler.
- Reservas: puedes recibir CUDs para tus recursos de tipo de máquina optimizada para aceleradores comprando compromisos basados en recursos. Los compromisos de GPUs y discos SSD locales requieren reservas adjuntas de esos recursos.
Disponibilidad de opciones de consumo por tipo de máquina
En la siguiente tabla se resume la disponibilidad de cada opción de consumo por serie de máquinas. Para obtener más información sobre cómo elegir una opción de consumo, consulta el artículo Elegir un modelo de consumo de la documentación de AI Hypercomputer.
Tipo de máquina | bajo demanda | Spot | Inicio flexible (vista previa) | Reservas bajo demanda | Reservas futuras (vista previa) | Reservas futuras en el modo Calendario (vista previa) | Reservas futuras en AI Hypercomputer (vista previa) |
---|---|---|---|---|---|---|---|
A4X | |||||||
A4 | |||||||
A3 Ultra | |||||||
|
|||||||
A3 High con menos de 8 GPUs | |||||||
A2 Ultra y A2 Standard | |||||||
G4 (vista previa) | 1 | ||||||
G2 |
1Para saber cómo acceder a esta serie de máquinas, ponte en contacto con tu equipo de cuentas de Google.
Serie de máquinas A4X
La serie de máquinas A4X se ejecuta en una plataforma a escala de exaflops basada en la arquitectura a escala de rack NVIDIA GB200 NVL72 y tiene hasta 140 vCPUs y 884 GB de memoria. Esta serie de máquinas está optimizada para cargas de trabajo de entrenamiento de ML y HPC que requieren muchos recursos de computación y memoria, y que dependen de la red. La serie de máquinas A4X está disponible en un solo tipo de máquina.
Las instancias de VM creadas con el tipo de máquina A4X ofrecen las siguientes funciones:
Aceleración de GPU con superchips NVIDIA GB200: las instancias A4X tienen superchips NVIDIA GB200 conectados automáticamente. Estos superchips tienen GPUs NVIDIA B200 y ofrecen 180 GB de memoria por GPU. A4X tiene dos sockets con CPUs NVIDIA Grace™ con núcleos Arm® Neoverse™ V2. Estas CPUs están conectadas a cuatro GPUs B200 con una comunicación rápida entre chips (NVLink-C2C).
Plataforma de CPU NVIDIA Grace: las instancias A4X usan la plataforma de CPU NVIDIA Grace. Para obtener más información sobre la plataforma, consulta Plataformas de CPU.
Escalabilidad de NVLink líder del sector: NVLink multinodo que se puede ampliar hasta 72 GPUs en un solo dominio. Las GPUs NVIDIA B200 proporcionan un ancho de banda de GPU NVLink de 1800 GBps, bidireccionalmente por GPU. Con la topología NVLink de todos a todos entre 4 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 130 TB/s.
Conectividad de red mejorada con RoCE: en las instancias A4X, RDMA sobre Ethernet convergente (RoCE) aumenta el rendimiento de la red al combinar las tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 (CX-7) con la red de cuatro vías alineada con los raíles de todo el centro de datos de Google. Al aprovechar RDMA sobre Ethernet convergente (RoCE), las instancias A4X consiguen un rendimiento mucho mayor entre las instancias de un clúster en comparación con las instancias A4.
Las NICs CX-7, aisladas físicamente en una topología de red alineada con rieles de cuatro vías, permiten que las instancias A4X se escalen horizontalmente en grupos de 72 GPUs hasta alcanzar miles de GPUs en un solo clúster sin bloqueos.
Velocidades de red más altas: ofrece velocidades de red hasta 4 veces superiores a las de las instancias creadas con los tipos de máquinas A3.
Optimizaciones de virtualización para transferencias y recuperación de datos: la topología Peripheral Component Interconnect Express (PCIe) de las instancias A4X proporciona información de localidad más precisa que las cargas de trabajo pueden usar para optimizar las transferencias de datos.
Las GPUs también exponen el restablecimiento a nivel de función (FLR) para recuperarse correctamente de los fallos y admiten operaciones atómicas para mejorar la simultaneidad en determinados casos.
Compatibilidad con SSD local e hiperdisco: se añaden automáticamente 12.000 GiB de SSD local a las instancias A4X. Las unidades SSD locales se pueden usar como discos de trabajo rápidos o para introducir datos en las GPUs, lo que evita los cuellos de botella de E/S.
En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, puedes adjuntar hasta 512 TiB de Hyperdisk a las instancias A4X.
Asignación densa y compatibilidad con la programación basada en la topología: cuando aprovisionas instancias A4X a través de Cluster Director, puedes solicitar bloques de capacidad asignada de forma densa. Tus máquinas host se asignan muy cerca entre sí, se aprovisionan como bloques de recursos y están interconectadas con una estructura de red de aprendizaje automático dinámica para minimizar los saltos de red y optimizar la latencia. Además, Cluster Director proporciona información de topología a nivel de nodo y de clúster que se puede usar para colocar tareas.
Tipo de máquina A4X
Los tipos de máquinas A4X optimizadas para aceleradores
usan superchips NVIDIA GB200 Grace Blackwell (nvidia-gb200
) y
son ideales para entrenar y servir modelos fundacionales.
A4X es una plataforma exaescalar basada en NVIDIA GB200 NVL72. Cada máquina tiene dos sockets con CPUs NVIDIA Grace con núcleos Arm Neoverse V2. Estas CPUs están conectadas a cuatro GPUs NVIDIA B200 Blackwell con una comunicación rápida entre chips (NVLink-C2C).
Superchips NVIDIA GB200 Grace Blackwell conectados | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Número de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM3e) |
a4x-highgpu-4g |
140 | 884 | 12.000 | 6 | 2000 | 4 | 720 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A4X
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para un tipo de máquina A4X.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A4X.
- Solo puedes usar un tipo de máquina A4X en determinadas regiones y zonas.
- No puedes usar Persistent Disk (regional o de zona) en una instancia que use un tipo de máquina A4X.
- El tipo de máquina A4X solo está disponible en la plataforma NVIDIA Grace.
- No puedes cambiar el tipo de máquina de una instancia a un tipo de máquina A4X. Solo puedes crear instancias de A4X. Después de crear una instancia con un tipo de máquina A4X, no puedes cambiar el tipo de máquina.
- No puedes ejecutar sistemas operativos Windows en un tipo de máquina A4X.
- Las instancias A4X no admiten lo siguiente:
Tipos de discos admitidos en instancias A4X
Las instancias de A4X pueden usar los siguientes tipos de almacenamiento en bloque:
- Hyperdisk Balanced (
hyperdisk-balanced
): es el único tipo de disco compatible con el disco de arranque. - Hyperdisk Extreme (
hyperdisk-extreme
) - SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquina A4X.
Número máximo de discos por instancia1 | ||||||
---|---|---|---|---|---|---|
Tipos de máquina | Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Throughput | Hyperdisk ML | Hyperdisk Extreme | SSD local conectada |
a4x-highgpu-4g |
128 | 128 | N/A | N/A | 8 | 32 |
1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.
Límites de disco y capacidad
Puedes adjuntar una combinación de diferentes tipos de Hyperdisk a una instancia, pero la capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar los 512 TiB en el caso de los Hyperdisks.
Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk.
Serie de máquinas A4
La serie de máquinas A4 ofrece tipos de máquinas con hasta 224 vCPUs y 3968 GB de memoria. Las instancias A4 ofrecen un rendimiento hasta 3 veces superior al de los tipos de instancias de GPU anteriores en la mayoría de las cargas de trabajo aceleradas por GPU. Se recomienda A4 para cargas de trabajo de entrenamiento de aprendizaje automático, especialmente a gran escala (por ejemplo, cientos o miles de GPUs). La serie de máquinas A4 está disponible en un solo tipo de máquina.
Las instancias de VM creadas con el tipo de máquina A4 ofrecen las siguientes funciones:
Aceleración de GPU con GPUs NVIDIA B200: las GPUs NVIDIA B200 se adjuntan automáticamente a las instancias A4, que ofrecen 180 GB de memoria de GPU por GPU.
Procesador escalable Intel Xeon de 5.ª generación (Emerald Rapids): ofrece una frecuencia turbo máxima sostenida de un solo núcleo de hasta 4,0 GHz. Para obtener más información sobre este procesador, consulta Plataforma de CPU.
Escalabilidad de NVLink líder del sector: las GPUs NVIDIA B200 proporcionan un ancho de banda de NVLink de GPU de 1800 GBps bidireccional por GPU.
Con la topología NVLink de todos a todos entre 8 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 14,4 TBps.
Redes mejoradas con RoCE: RDMA sobre Ethernet convergente (RoCE) aumenta el rendimiento de la red combinando tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 con la red de cuatro vías alineada con los raíles de los centros de datos de Google. Al aprovechar RDMA sobre Ethernet convergente (RoCE), las instancias A4 consiguen un rendimiento mucho mayor entre las instancias de un clúster en comparación con la mayoría de las instancias A3, excepto las que se ejecutan en el tipo de máquina A3 Ultra.
Velocidades de red aumentadas: ofrece velocidades de red hasta 4 veces superiores en comparación con las instancias A2 de la generación anterior.
Para obtener más información sobre las redes, consulta Ancho de banda de red y GPUs.
Optimizaciones de virtualización para transferencias y recuperación de datos: la topología Peripheral Component Interconnect Express (PCIe) de las instancias A4 proporciona información de ubicación más precisa que las cargas de trabajo pueden usar para optimizar las transferencias de datos.
Las GPUs también exponen el restablecimiento a nivel de función (FLR) para recuperarse correctamente de los fallos y admiten operaciones atómicas para mejorar la simultaneidad en determinados casos.
Compatibilidad con SSD local e hiperdisco: se añaden automáticamente 12.000 GiB de SSD local a las instancias A4. Los SSD locales se pueden usar como discos de almacenamiento temporal rápidos o para introducir datos en las GPUs, lo que evita los cuellos de botella de E/S.
En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, también puedes adjuntar hasta 512 TiB de Hyperdisk a las instancias A4.
Asignación densa y compatibilidad con la programación basada en la topología: cuando aprovisionas instancias A4 que usan las funciones y los servicios disponibles en Cluster Director, puedes solicitar bloques de capacidad asignada de forma densa. Tus máquinas host se asignan físicamente cerca unas de otras, se aprovisionan como bloques de recursos y se interconectan con una estructura de red de aprendizaje automático dinámica para minimizar los saltos de red y optimizar la latencia. Además, puedes obtener información de topología a nivel de nodo y clúster que se puede usar para la colocación de trabajos.
Tipo de máquina A4
Los tipos de máquinas A4 optimizadas para aceleradores
tienen GPUs NVIDIA B200 Blackwell
(nvidia-b200
) conectadas y son ideales para entrenar y servir modelos fundacionales.
GPUs NVIDIA B200 Blackwell conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Número de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM3e) |
a4-highgpu-8g |
224 | 3968 | 12.000 | 10 | 3600 | 8 | 1440 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A4
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para un tipo de máquina A4.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A4.
- Solo puedes usar un tipo de máquina A4 en determinadas regiones y zonas.
- No puedes usar Persistent Disk (regional o zonal) en una instancia que use un tipo de máquina A4.
- El tipo de máquina A4 solo está disponible en la plataforma de CPU Emerald Rapids.
- No puedes cambiar el tipo de máquina de una instancia a un tipo de máquina A4. Solo puedes crear instancias A4 nuevas. Después de crear una instancia con un tipo de máquina A4, no puedes cambiar el tipo de máquina.
- Los tipos de máquinas A4 no admiten el único propietario.
- No puedes ejecutar sistemas operativos Windows en un tipo de máquina A4.
Tipos de discos admitidos para instancias A4
Las instancias A4 pueden usar los siguientes tipos de almacenamiento en bloque:
- Hyperdisk Balanced (
hyperdisk-balanced
): es el único tipo de disco compatible con el disco de arranque. - Hyperdisk Extreme (
hyperdisk-extreme
) - SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquina A4.
Número máximo de discos por instancia1 | ||||||
---|---|---|---|---|---|---|
Tipos de máquina | Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Throughput | Hyperdisk ML | Hyperdisk Extreme | SSD local conectada |
a4-highgpu-8g |
128 | 128 | N/A | N/A | 8 | 32 |
1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.
Límites de disco y capacidad
Puedes adjuntar una combinación de diferentes tipos de Hyperdisk a una instancia, pero la capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar los 512 TiB en el caso de los Hyperdisks.
Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk.
Serie de máquinas A3
La serie de máquinas A3 tiene hasta 224 vCPUs y 2944 GB de memoria. Esta serie de máquinas está optimizada para cargas de trabajo de entrenamiento de aprendizaje automático y HPC que requieren muchos recursos de computación y memoria, y que dependen de la red. La serie de máquinas A3 está disponible en los tipos de máquinas A3 Ultra, A3 Mega, A3 High y A3 Edge.
Las instancias de VM creadas con los tipos de máquinas A3 ofrecen las siguientes funciones:
Función | A3 Ultra | A3 Mega, High y Edge |
---|---|---|
Aceleración por GPU | GPUs NVIDIA H200 SXM conectadas, que ofrecen 141 GB de memoria de GPU por GPU y proporcionan una memoria más grande y rápida para admitir modelos de lenguaje grandes y cargas de trabajo de HPC. |
GPUs NVIDIA H100 SXM conectadas, que ofrecen 80 GB de memoria de GPU por GPU y son ideales para modelos de lenguaje grandes basados en transformadores, bases de datos y HPC. |
Procesadores escalables Intel Xeon | Procesador escalable Intel Xeon de 5.ª generación (Emerald Rapids) y ofrece una frecuencia turbo máxima sostenida de un solo núcleo de hasta 4,0 GHz. Para obtener más información sobre este procesador, consulta Plataforma de CPU. |
Procesador escalable Intel Xeon de 4.ª generación (Sapphire Rapids) y ofrece una frecuencia turbo máxima de hasta 3,3 GHz sostenida en un solo núcleo. Para obtener más información sobre este procesador, consulta Plataforma de CPU. |
Escalabilidad NVLink líder en el sector | Las GPUs NVIDIA H200 ofrecen un ancho de banda NVLink de GPU máximo de 900 GB/s unidireccional. Con la topología NVLink de todos a todos entre 8 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 7,2 TB/s. |
Las GPUs NVIDIA H100 proporcionan un ancho de banda de GPU NVLink máximo de 450 GB/s unidireccional. Con la topología NVLink de todos a todos entre 8 GPUs de un sistema, el ancho de banda agregado de NVLink es de hasta 7,2 TB/s. |
Redes mejoradas | En este tipo de máquina, RDMA sobre Ethernet convergente (RoCE) aumenta el rendimiento de la red combinando tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 con nuestra red de cuatro vías alineada con los raíles de todo el centro de datos. Al aprovechar RDMA sobre Ethernet convergente (RoCE), el tipo de máquina a3-ultragpu-8g consigue un rendimiento mucho mayor entre las instancias de un clúster en comparación con otros tipos de máquinas A3.
|
|
Velocidades de red mejoradas | Ofrece velocidades de red hasta 4 veces superiores en comparación con la serie de máquinas A2 de la generación anterior. Para obtener más información sobre las redes, consulta la sección Ancho de banda de red y GPUs. |
Ofrece velocidades de red hasta 2,5 veces superiores a las de la serie de máquinas A2 de la generación anterior. Para obtener más información sobre las redes, consulta la sección Ancho de banda de red y GPUs. |
Optimizaciones de virtualización | La topología Peripheral Component Interconnect Express (PCIe) de las instancias A3 proporciona información de localidad más precisa que las cargas de trabajo pueden usar para optimizar las transferencias de datos. Las GPUs también exponen el restablecimiento a nivel de función (FLR) para recuperarse correctamente de los fallos y admiten operaciones atómicas para mejorar la simultaneidad en determinados casos. |
|
Compatibilidad con SSD local, Persistent Disk e Hyperdisk |
Las unidades SSD locales se pueden usar como discos de trabajo rápidos o para introducir datos en las GPUs, al tiempo que se evitan los cuellos de botella de E/S. La SSD local se adjunta de la siguiente manera:
También puedes adjuntar hasta 512 TiB de almacenamiento en discos persistentes e Hyperdisk a los tipos de máquinas de estas series para las aplicaciones que requieran un mayor rendimiento de almacenamiento. En algunos tipos de máquinas, también se admiten hasta 257 TiB de discos persistentes. |
|
Compatibilidad con la política de posición compacta | Te ofrece más control sobre la ubicación física de tus instancias en los centros de datos. Esto permite que las instancias que se encuentran en una misma zona de disponibilidad tengan una latencia más baja y un mayor ancho de banda. Para obtener más información, consulta el artículo Acerca de las políticas de colocación compacta. |
Tipo de máquina A3 Ultra
Los tipos de máquinas A3 Ultra tienen GPUs NVIDIA H200 SXM
(nvidia-h200-141gb
) conectadas y ofrecen el mayor rendimiento de red de la serie A3. Los tipos de máquinas A3 Ultra son ideales para entrenar y servir modelos fundacionales.
GPUs NVIDIA H200 conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Número de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM3e) |
a3-ultragpu-8g |
224 | 2952 | 12.000 | 10 | 3600 | 8 | 1128 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A3 Ultra
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para el tipo de máquina A3 Ultra.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A3 Ultra.
- Solo puedes usar un tipo de máquina A3 Ultra en determinadas regiones y zonas.
- No puedes usar Persistent Disk (regional o de zona) en una instancia que use un tipo de máquina A3 Ultra.
- El tipo de máquina A3 Ultra solo está disponible en la plataforma de CPU Emerald Rapids.
- No puedes cambiar el tipo de máquina de una instancia a A3 Ultra. Solo puedes crear instancias A3 Ultra. Después de crear una instancia con un tipo de máquina A3 Ultra, no puedes cambiar el tipo de máquina.
- Los tipos de máquinas A3 Ultra no admiten tenencia exclusiva.
- No puedes ejecutar sistemas operativos Windows en un tipo de máquina A3 Ultra.
Tipo de máquina A3 Mega
Los tipos de máquinas A3 Mega tienen GPUs NVIDIA H100 SXM y son ideales para entrenar modelos grandes y para la inferencia multihost.GPUs NVIDIA H100 conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Número de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM3) |
a3-megagpu-8g |
208 | 1872 | 6000 | 9 | 1800 | 8 | 640 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A3 Mega
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para el tipo de máquina A3 Mega.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible por las instancias que usen un tipo de máquina A3 mega.
- Solo puedes usar un tipo de máquina A3 Mega en determinadas regiones y zonas.
- No puedes usar discos persistentes regionales en una instancia que use un tipo de máquina A3 Mega.
- El tipo de máquina A3 Mega solo está disponible en la plataforma de CPU Sapphire Rapids.
- No puedes cambiar el tipo de máquina de una instancia a A3 mega. Solo puedes crear instancias A3-mega nuevas. Después de crear una instancia con el tipo de máquina A3 Mega, no puedes cambiar el tipo de máquina.
- Los tipos de máquinas A3 Mega no admiten tenancy exclusiva.
- No puedes ejecutar sistemas operativos Windows en un tipo de máquina A3 Mega.
Tipo de máquina A3 High
Los tipos de máquinas A3 High tienen GPUs NVIDIA H100 SXM y son adecuados tanto para la inferencia de modelos grandes como para el ajuste fino de modelos.GPUs NVIDIA H100 conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Número de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM3) |
a3-highgpu-1g |
26 | 234 | 750 | 1 | 25 | 1 | 80 |
a3-highgpu-2g |
52 | 468 | 1500 | 1 | 50 | 2 | 160 |
a3-highgpu-4g |
104 | 936 | 3000 | 1 | 100 | 4 | 320 |
a3-highgpu-8g |
208 | 1872 | 6000 | 5 | 1000 | 8 | 640 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A3 High
- Solo puedes solicitar capacidad con las opciones de consumo admitidas para el tipo de máquina A3 High.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A3 High.
- Solo puedes usar un tipo de máquina A3 High en determinadas regiones y zonas.
- No puedes usar discos persistentes regionales en una instancia que use un tipo de máquina A3 High.
- El tipo de máquina A3 High solo está disponible en la plataforma de CPU Sapphire Rapids.
- No puedes cambiar el tipo de máquina de una instancia por un tipo de máquina A3 High. Solo puedes crear instancias A3 de alto rendimiento. Después de crear una instancia con un tipo de máquina A3 High, no puedes cambiar el tipo de máquina.
- Los tipos de máquinas A3 High no admiten el tenancy exclusivo.
- No puedes ejecutar sistemas operativos Windows en un tipo de máquina A3 High.
- En el caso de los tipos de máquina
a3-highgpu-1g
,a3-highgpu-2g
ya3-highgpu-4g
, debes crear instancias con VMs de acceso puntual o con una función que utilice el programador de cargas de trabajo dinámico (DWS), como las solicitudes de cambio de tamaño en un MIG. Para obtener instrucciones detalladas sobre cualquiera de estas opciones, consulta lo siguiente:- Para crear VMs de Spot, define el modelo de aprovisionamiento como
SPOT
cuando crees una VM optimizada para aceleradores. - Para crear una solicitud de cambio de tamaño en un MIG que use DWS, consulta Crear un MIG con VMs con GPU.
- Para crear VMs de Spot, define el modelo de aprovisionamiento como
- Solo puedes usar una VM confidencial con un tipo de máquina
a3-highgpu-1g
en regiones y zonas limitadas, y se aplican todas las limitaciones de las VMs confidenciales que se ejecutan en el tipo de máquina A3 High.
Tipo de máquina A3 Edge
Los tipos de máquinas A3 Edge tienen GPUs NVIDIA H100 SXM y se han diseñado específicamente para servir. Están disponibles en un conjunto limitado de regiones.GPUs NVIDIA H100 conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Número de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM3) |
a3-edgegpu-8g |
208 | 1872 | 6000 | 5 |
|
8 | 640 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A3 Edge
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para el tipo de máquina A3 Edge.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A3 Edge.
- Solo puedes usar un tipo de máquina A3 Edge en determinadas regiones y zonas.
- No puedes usar discos persistentes regionales en una instancia que use un tipo de máquina A3 Edge.
- El tipo de máquina A3 Edge solo está disponible en la plataforma de CPU Sapphire Rapids.
- No puedes cambiar el tipo de máquina de una instancia a un tipo de máquina A3 Edge. Solo puedes crear instancias A3-edge. Después de crear una instancia con un tipo de máquina A3 Edge, no puedes cambiar el tipo de máquina.
- Los tipos de máquinas A3 Edge no admiten tenancy exclusiva.
- No puedes ejecutar sistemas operativos Windows en un tipo de máquina A3 Edge.
Tipos de discos admitidos en instancias A3
A3 Ultra
Las instancias A3 Ultra pueden usar los siguientes tipos de almacenamiento en bloque:
- Hyperdisk Balanced (
hyperdisk-balanced
): es el único tipo de disco compatible con el disco de arranque. - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk Extreme (
hyperdisk-extreme
) - SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquina A3.
Número máximo de discos por instancia1 | |||||||
---|---|---|---|---|---|---|---|
Tipos de máquina |
Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | Hyperdisk Extreme | Discos SSD locales conectados |
a3-ultragpu-8g |
128 | 128 | 128 | N/A | N/A | 8 | 32 |
1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.
A3 Mega
Las instancias A3 Mega pueden usar los siguientes tipos de almacenamiento en bloque:
- Disco persistente balanceado (
pd-balanced
) - Disco persistente SSD (rendimiento) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extreme (
hyperdisk-extreme
) - Rendimiento de Hyperdisk (
hyperdisk-throughput
) - SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquinas A3
Número máximo de discos por instancia1 | |||||||
---|---|---|---|---|---|---|---|
Tipos de máquina |
Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | Hyperdisk Extreme | Discos SSD locales conectados |
a3-megagpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
1El uso de Hyperdisk y Persistent Disk se cobra por separado de los precios de los tipos de máquinas. Para consultar los precios de los discos, consulta la sección Precios de Persistent Disk e Hyperdisk.
A3 High
Las instancias A3 High pueden usar los siguientes tipos de almacenamiento en bloque:
- Disco persistente balanceado (
pd-balanced
) - Disco persistente SSD (rendimiento) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extreme (
hyperdisk-extreme
) - Rendimiento de Hyperdisk (
hyperdisk-throughput
) - SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquinas A3
Número máximo de discos por instancia1 | |||||||
---|---|---|---|---|---|---|---|
Tipos de máquina |
Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | Hyperdisk Extreme | Discos SSD locales conectados |
a3-highgpu-1g |
128 | 32 | 32 | 64 | 64 | N/A | 2 |
a3-highgpu-2g |
128 | 32 | 32 | 64 | 64 | N/A | 4 |
a3-highgpu-4g |
128 | 32 | 32 | 64 | 64 | 8 | 8 |
a3-highgpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
1El uso de Hyperdisk y Persistent Disk se cobra por separado de los precios de los tipos de máquinas. Para consultar los precios de los discos, consulta la sección Precios de Persistent Disk e Hyperdisk.
A3 Edge
Las instancias A3 Edge pueden usar los siguientes tipos de almacenamiento en bloque:
- Disco persistente balanceado (
pd-balanced
) - Disco persistente SSD (rendimiento) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extreme (
hyperdisk-extreme
) - Rendimiento de Hyperdisk (
hyperdisk-throughput
) - SSD local: se añade automáticamente a las instancias que se crean con cualquiera de los tipos de máquinas A3
Número máximo de discos por instancia1 | |||||||
---|---|---|---|---|---|---|---|
Tipos de máquina | Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | Hyperdisk Extreme | SSD local conectada |
a3-edgegpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
1El uso de Hyperdisk y Persistent Disk se cobra por separado de los precios de los tipos de máquinas. Para consultar los precios de los discos, consulta la sección Precios de Persistent Disk e Hyperdisk.
Límites de disco y capacidad
Si el tipo de máquina lo admite, puedes asociar una combinación de volúmenes de hiperdisco y de disco persistente a una instancia, pero se aplican las siguientes restricciones:
- El número combinado de volúmenes de hiperdisco y de disco persistente no puede superar los 128 por instancia.
La capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar lo siguiente:
En el caso de los tipos de máquina con menos de 32 vCPUs:
- 257 TiB para todos los Hyperdisk o todos los Persistent Disk
- 257 TiB para una combinación de Hyperdisk y Persistent Disk
En los tipos de máquina con 32 vCPUs o más:
- 512 TiB para todos los Hyperdisk
- 512 TiB para una combinación de Hyperdisk y Persistent Disk
- 257 TiB para todos los discos persistentes
Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk y Capacidad máxima de los discos persistentes.
Serie de máquinas A2
La serie de máquinas A2 está disponible en los tipos de máquinas A2 Standard y A2 Ultra. Estos tipos de máquinas tienen entre 12 y 96 vCPUs, y hasta 1360 GB de memoria.
Las instancias de máquina virtual creadas con los tipos de máquinas A2 ofrecen las siguientes funciones:
Aceleración por GPU: cada instancia A2 tiene GPUs NVIDIA A100. Están disponibles en las opciones A100 de 40 GB y A100 de 80 GB.
Escalabilidad de NVLink líder en el sector que proporciona un ancho de banda máximo de NVLink entre GPUs de 600 GBps. Por ejemplo, los sistemas con 16 GPUs tienen un ancho de banda de NVLink agregado de hasta 9,6 TBps. Estas 16 GPUs se pueden usar como un único acelerador de alto rendimiento con un espacio de memoria unificado para ofrecer hasta 10 petaFLOPS de potencia de computación y hasta 20 petaFLOPS de potencia de computación de inferencia que se pueden usar en cargas de trabajo de inteligencia artificial, aprendizaje profundo y aprendizaje automático.
Velocidades de computación mejoradas: las GPUs NVIDIA A100 incluidas ofrecen velocidades de computación hasta 10 veces superiores a las GPUs NVIDIA V100 de la generación anterior.
Con la serie de máquinas A2, puedes obtener hasta 100 Gbps de ancho de banda de red.
Compatibilidad con SSD local, Persistent Disk e Hyperdisk: para usar discos temporales rápidos o para introducir datos en las GPUs y, al mismo tiempo, evitar cuellos de botella de E/S, los tipos de máquina A2 admiten SSD local de la siguiente manera:
- En los tipos de máquinas estándar A2, puedes añadir hasta 3000 GiB de SSD local al crear una instancia.
- En los tipos de máquinas A2 Ultra, el SSD local se conecta automáticamente al crear una instancia.
En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, también puede adjuntar hasta 257 TiB de Persistent Disk y 512 TiB de volúmenes de Hyperdisk a las instancias A2.
Compatibilidad con la política de colocación compacta: te ofrece más control sobre la colocación física de tus instancias en los centros de datos. Esto permite que las instancias que se encuentran en una sola zona de disponibilidad tengan una latencia más baja y un ancho de banda mayor. Para obtener más información, consulta el artículo Reducir la latencia con políticas de emplazamiento compactas.
Los siguientes tipos de máquinas están disponibles para la serie de máquinas A2.
Tipos de máquinas A2 Ultra
Estos tipos de máquinas tienen un número fijo de GPUs A100 de 80 GB. Los SSD locales se adjuntan automáticamente a las instancias creadas con los tipos de máquina A2 Ultra.
GPUs NVIDIA A100 de 80 GB conectadas | ||||||
---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local conectada (GiB) | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM2e) |
a2-ultragpu-1g |
12 | 170 | 375 | 24 | 1 | 80 |
a2-ultragpu-2g |
24 | 340 | 750 | 32 | 2 | 160 |
a2-ultragpu-4g |
48 | 680 | 1500 | 50 | 4 | 320 |
a2-ultragpu-8g |
96 | 1360 | 3000 | 100 | 8 | 640 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A2 Ultra
- Solo puedes solicitar capacidad con las opciones de consumo admitidas para el tipo de máquina A2 Ultra.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina A2 Ultra.
- Solo puedes usar un tipo de máquina A2 Ultra en determinadas regiones y zonas.
- El tipo de máquina A2 Ultra solo está disponible en la plataforma Cascade Lake.
- Si tu instancia usa un tipo de máquina A2 Ultra, no puedes cambiarlo. Si necesitas usar otro tipo de máquina A2 Ultra o cualquier otro tipo de máquina, debes crear una instancia.
- No puedes cambiar ningún otro tipo de máquina a un tipo de máquina A2 Ultra. Si necesitas una instancia que use un tipo de máquina A2 Ultra, debes crear una instancia nueva.
- No puedes hacer un formato rápido de los SSD locales conectados en instancias de Windows que usen tipos de máquinas A2 Ultra. Para formatear estas unidades SSD locales, debes realizar un formateo completo con la utilidad diskpart y especificar
format fs=ntfs label=tmpfs
.
Tipos de máquinas estándar A2
Estos tipos de máquinas tienen un número fijo de GPUs A100 de 40 GB. También puedes añadir discos SSD locales al crear una instancia A2 Standard. Para saber el número de discos que puedes conectar, consulta la sección Tipos de máquinas que requieren que elijas un número de discos SSD locales.
GPUs NVIDIA A100 de 40 GB conectadas | ||||||
---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | SSD local compatible | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB HBM2) |
a2-highgpu-1g |
12 | 85 | Sí | 24 | 1 | 40 |
a2-highgpu-2g |
24 | 170 | Sí | 32 | 2 | 80 |
a2-highgpu-4g |
48 | 340 | Sí | 50 | 4 | 160 |
a2-highgpu-8g |
96 | 680 | Sí | 100 | 8 | 320 |
a2-megagpu-16g |
96 | 1360 | Sí | 100 | 16 | 640 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de A2 Standard
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para el tipo de máquina A2 estándar.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible por las instancias que usen un tipo de máquina A2 estándar.
- Solo puedes usar un tipo de máquina estándar A2 en determinadas regiones y zonas.
- El tipo de máquina estándar A2 solo está disponible en la plataforma Cascade Lake.
- Si tu instancia usa un tipo de máquina A2 estándar, solo puedes cambiar de un tipo de máquina A2 estándar a otro. No puedes cambiar a ningún otro tipo de máquina. Para obtener más información, consulta Modificar instancias optimizadas para aceleradores.
- No puedes usar el sistema operativo Windows con los
a2-megagpu-16g
tipos de máquinas estándar A2. Si usas sistemas operativos Windows, elige otro tipo de máquina A2 Standard. - No puedes hacer un formato rápido de los SSD locales conectados en instancias de Windows que usen tipos de máquinas estándar A2.
Para formatear estas unidades SSD locales, debes realizar un formateo completo con la utilidad diskpart y especificar
format fs=ntfs label=tmpfs
. - Los tipos de máquinas estándar A2 no admiten el alquiler exclusivo.
Tipos de discos admitidos en instancias A2
Las instancias A2 pueden usar los siguientes tipos de almacenamiento en bloque:
- Hyperdisk ML (
hyperdisk-ml
) - Disco persistente balanceado (
pd-balanced
) - Disco persistente SSD (rendimiento) (
pd-ssd
) - Persistent Disk estándar (
pd-standard
) - SSD local: se adjunta automáticamente a las instancias creadas con los tipos de máquinas A2 Ultra.
Si el tipo de máquina lo admite, puedes asociar una combinación de volúmenes de hiperdisco y de disco persistente a una instancia, pero se aplican las siguientes restricciones:
- El número combinado de volúmenes de hiperdisco y de disco persistente no puede superar los 128 por instancia.
La capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar lo siguiente:
En el caso de los tipos de máquina con menos de 32 vCPUs:
- 257 TiB para todos los Hyperdisk o todos los Persistent Disk
- 257 TiB para una combinación de Hyperdisk y Persistent Disk
En los tipos de máquina con 32 vCPUs o más:
- 512 TiB para todos los Hyperdisk
- 512 TiB para una combinación de Hyperdisk y Persistent Disk
- 257 TiB para todos los discos persistentes
Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk y Capacidad máxima de los discos persistentes.
Serie de máquinas G4
La serie de máquinas G4 usa la plataforma de CPU AMD EPYC Turin e incluye GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition. Esta serie de máquinas ofrece mejoras significativas con respecto a la serie de máquinas G2 de la generación anterior, ya que cuenta con mucha más memoria de GPU, un mayor ancho de banda de memoria de GPU y un mayor ancho de banda de red.
Las instancias G4 tienen hasta 384 vCPUs, 1440 GB de memoria y 12 TiB de discos SSD Titanium conectados. Las instancias G4 también proporcionan hasta 400 Gbps de rendimiento de red estándar.
Esta serie de máquinas está diseñada especialmente para cargas de trabajo como las de simulación de NVIDIA Omniverse, las aplicaciones que requieren muchos recursos gráficos, la transcodificación de vídeo y los escritorios virtuales. La serie de máquinas G4 también ofrece una solución de bajo coste para realizar inferencias de un solo host y ajuste de modelos en comparación con los tipos de máquina de la serie A.
Las instancias que usan el tipo de máquina G4 ofrecen las siguientes funciones:
Aceleración por GPU con GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition: las instancias G4 adjuntan automáticamente GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, que ofrecen 96 GB de memoria de GPU por GPU.
Plataforma de CPU AMD EPYC Turin de 5.ª generación: esta plataforma ofrece una frecuencia de aumento máxima sostenida de hasta 4,1 GHz. Para obtener más información sobre este procesador, consulta Plataforma de CPU.
Rendimiento gráfico de nueva generación: las GPUs NVIDIA RTX PRO 6000 ofrecen mejoras significativas en el rendimiento y las funciones en comparación con las GPUs NVIDIA L4 que se incluyen en la serie de máquinas G2. Estas mejoras son las siguientes:
- Núcleos Tensor de 5.ª generación: estos núcleos incorporan compatibilidad con la precisión FP4 y la generación de varios fotogramas de DLSS 4. Al usar estos Tensor Cores de quinta generación, las GPUs NVIDIA RTX PRO 6000 ofrecen un rendimiento mejorado para acelerar tareas como el desarrollo de LLMs locales y la creación de contenido, en comparación con las GPUs NVIDIA L4.
- Núcleos RT de cuarta generación: estos núcleos ofrecen hasta el doble de rendimiento de trazado de rayos que las GPUs NVIDIA L4 de la generación anterior, lo que acelera el renderizado de las cargas de trabajo de diseño y fabricación.
- Número de núcleos: la GPU NVIDIA RTX PRO 6000 incluye 24.064 núcleos CUDA, 752 núcleos Tensor de quinta generación y 188 núcleos RT de cuarta generación. Esta actualización supone un aumento considerable con respecto a generaciones anteriores, como la GPU L4,que tiene 7680 núcleos CUDA y 240 Tensor Cores.
GPU con varias instancias (MIG): esta función permite que una sola GPU se divida en hasta cuatro instancias de GPU totalmente aisladas en una sola instancia de VM. Para obtener más información sobre la tecnología MIG de NVIDIA, consulta el artículo GPU de varias instancias de NVIDIA en la documentación de NVIDIA.
Compatibilidad con Peripheral Component Interconnect Express (PCIe) Gen 5: las instancias G4 admiten PCI Express Gen 5, lo que mejora la velocidad de transferencia de datos de la memoria de la CPU a la GPU en comparación con PCIe Gen 3, que usan las instancias G2.
Compatibilidad con Titanium SSD e Hyperdisk: las instancias G4 admiten la conexión de hasta 12.000 GiB de Titanium SSD. La unidad SSD de titanio proporciona discos de trabajo rápidos o introduce datos en las GPUs, lo que ayuda a evitar los cuellos de botella de E/S.
En el caso de las aplicaciones que requieren un mayor rendimiento de almacenamiento, las instancias G4 también admiten la conexión de hasta 512 TiB de Hyperdisk.
Comunicación peer-to-peer (P2P) entre GPUs: las instancias G4 admiten la comunicación P2P entre GPUs, lo que permite la transferencia directa de datos entre GPUs de la misma instancia. Esto puede mejorar significativamente el rendimiento de las cargas de trabajo de varias GPUs, ya que reduce la latencia de transferencia de datos y libera recursos de la CPU. Para obtener más información, consulta Comunicación peer-to-peer (P2P) de GPU G4.
Tipos de máquinas G4
Los tipos de máquinas G4 optimizadas para aceleradores
usan
GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition (nvidia-rtx-pro-6000
)
y son
adecuados para cargas de trabajo de simulación de NVIDIA Omniverse, aplicaciones con un uso intensivo de gráficos, transcodificación de vídeo y escritorios virtuales. Los tipos de máquinas G4 también ofrecen una solución de bajo coste para realizar inferencias de un solo host y ajustes de modelos en comparación con los tipos de máquinas de la serie A.
GPUs NVIDIA RTX PRO 6000 conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de la instancia (GB) | Máximo de SSD Titanium admitido (GiB)2 | Número de NICs físicas | Ancho de banda de red máximo (Gbps)3 | Número de GPUs | Memoria de la GPU4 (GB GDDR7) |
g4-standard-48 |
48 | 180 | 1500 | 1 | 50 | 1 | 96 |
g4-standard-96 |
96 | 360 | 3000 | 1 | 100 | 2 | 192 |
g4-standard-192 |
192 | 720 | 6000 | 1 | 200 | 4 | 384 |
g4-standard-384 |
384 | 1440 | 12.000 | 2 | 400 | 8 | 17. |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2Puedes añadir discos SSD de Titanium al crear una instancia G4. Para saber el número de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas un número de discos SSD locales.
3El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Consulta Ancho de banda de la red.
La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de G4
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para un tipo de máquina G4.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible por las instancias que usen un tipo de máquina G4.
- Solo puedes usar un tipo de máquina G4 en determinadas regiones y zonas.
- No puedes usar Persistent Disk (regional o zonal) en una instancia que use un tipo de máquina G4.
- El tipo de máquina G4 solo está disponible en la plataforma AMD EPYC Turin de quinta generación.
- Solo puedes crear instancias bajo demanda. No se admiten reservas, inicio flexible ni máquinas virtuales de Spot. Para empezar a usar las instancias G4, ponte en contacto con tu equipo de cuentas de Google.
- Solo puedes crear instancias de G4 en
us-central1-b
. - Solo puedes usar los tipos de disco Hyperdisk Balanced y Hyperdisk Extreme en una instancia que use un tipo de máquina G4.
- No puedes aplicar descuentos por uso confirmado a instancias que usen un tipo de máquina G4.
- No puedes crear instancias de VM confidenciales que usen un tipo de máquina G4.
- No puedes crear instancias G4 en nodos de único cliente.
- No puedes crear instancias G4 que usen la estación de trabajo virtual (vWS) NVIDIA RTX.
Tipos de discos admitidos en instancias G4
Las instancias G4 pueden usar los siguientes tipos de almacenamiento en bloque:
- Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Extreme (
hyperdisk-extreme
) - Titanium SSD: puedes añadir Titanium SSD a las instancias creadas con los tipos de máquina G4.
Número máximo de discos por instancia1 | ||||||
---|---|---|---|---|---|---|
Tipos de máquina | Todos los Hyperdisk | Hyperdisk Balanced | Hyperdisk Extreme | Titanium SSD | ||
g4-standard-48 |
32 | 32 | 0 | 4 | ||
g4-standard-96 |
32 | 32 | 8 | 8 | ||
g4-standard-192 |
64 | 64 | 8 | 12. | ||
g4-standard-384 |
128 | 128 | 8 | 32 |
1El uso de Hyperdisk se cobra por separado de los precios de los tipos de máquinas. Para ver los precios de los discos, consulta la página Precios de Hyperdisk.
Puedes adjuntar una combinación de diferentes tipos de Hyperdisk a una instancia, pero la capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar los 512 TiB en el caso de los Hyperdisks.
Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk.
Comunicación entre iguales (P2P) de G4
Las instancias G4 mejoran el rendimiento de las cargas de trabajo de varias GPUs mediante la comunicación directa entre GPUs (P2P). Esta función permite que las GPUs que se conectan a la misma instancia G4 intercambien datos directamente a través del bus PCIe, sin necesidad de transferir datos a través de la memoria principal de la CPU. Esta ruta directa reduce la latencia, disminuye el uso de la CPU y aumenta el ancho de banda efectivo entre las GPUs. La comunicación P2P acelera significativamente las aplicaciones de varias GPUs, como el entrenamiento de aprendizaje automático y la computación de alto rendimiento.
Por lo general, esta función no requiere que modifiques el código de tu aplicación. Solo tienes que configurar NCCL para usar P2P. Para configurar NCCL, antes de ejecutar tus cargas de trabajo, define la variable de entorno NCCL_P2P_LEVEL
en tu instancia G4 en función del tipo de máquina:
- En las instancias G4 con 2 o 4 GPUs (
g4-standard-96
yg4-standard-192
), definaNCCL_P2P_LEVEL=PHB
- En las instancias G4 con 8 GPUs (
g4-standard-384
), defineNCCL_P2P_LEVEL=SYS
.
Define la variable de entorno con una de las siguientes opciones:
- En la línea de comandos, ejecuta el comando de exportación adecuado (por ejemplo,
export NCCL_P2P_LEVEL=SYS
) en la sesión de shell en la que quieras ejecutar tu aplicación. Para que este ajuste sea permanente, añade este comando a la secuencia de comandos de inicio de tu shell (por ejemplo,~/.bashrc
). - Añade el ajuste adecuado (por ejemplo,
NCCL_P2P_LEVEL=SYS
) al archivo de configuración de NCCL, que se encuentra en/etc/nccl.conf
.
Ventajas y rendimiento principales
- Acelera las cargas de trabajo de varias GPUs en instancias G4 con dos o más GPUs:
proporciona tiempos de ejecución más rápidos para las aplicaciones que se ejecutan en los tipos de máquina
g4-standard-96
,g4-standard-192
yg4-standard-384
. - Proporciona una comunicación de gran ancho de banda: permite alcanzar altas velocidades de transferencia de datos entre GPUs.
Mejora el rendimiento de NCCL: ofrece mejoras significativas en el rendimiento de las aplicaciones que usan la biblioteca de comunicación colectiva de NVIDIA (NCCL) en comparación con la comunicación que no usa P2P. El hipervisor de Google aísla de forma segura esta comunicación P2P en tus instancias.
- En las instancias de cuatro GPUs (
g4-standard-192
), todas las GPUs están en un solo nodo NUMA, lo que permite la comunicación P2P más eficiente. Esto puede suponer una mejora del rendimiento de hasta 2,04 veces en colectivos comoAllgather
,Allreduce
yReduceScatter
. - En las instancias de ocho GPUs (
g4-standard-384
), las GPUs se distribuyen en dos nodos NUMA. La comunicación P2P se acelera para el tráfico tanto dentro como entre estos nodos, con mejoras de rendimiento de hasta 2,19 veces para los mismos colectivos.
- En las instancias de cuatro GPUs (
Serie de máquinas G2
La serie de máquinas G2 está disponible en tipos de máquinas estándar que tienen de 4 a 96 vCPUs y hasta 432 GB de memoria. Esta serie de máquinas está optimizada para cargas de trabajo de inferencia y gráficos. La serie de máquinas G2 está disponible en un solo tipo de máquina estándar con varias configuraciones.
Las instancias creadas con los tipos de máquinas G2 ofrecen las siguientes funciones:
Aceleración por GPU: cada tipo de máquina G2 tiene GPUs NVIDIA L4.
Tasas de inferencia mejoradas: el tipo de máquina G2 admite el tipo de datos FP8 (coma flotante de 8 bits), lo que acelera las tasas de inferencia de aprendizaje automático y reduce los requisitos de memoria.
Rendimiento gráfico de nueva generación: las GPUs NVIDIA L4 ofrecen una mejora de hasta 3 veces en el rendimiento gráfico gracias a los núcleos RT de tercera generación y a la tecnología NVIDIA DLSS 3 (Supermuestreo por aprendizaje profundo).
Ancho de banda de red de alto rendimiento: con los tipos de máquina G2, puedes obtener hasta 100 Gbps de ancho de banda de red.
Compatibilidad con SSD local, Persistent Disk e Hyperdisk: puedes añadir hasta 3000 GiB de SSD local a las instancias G2. Se puede usar para discos de trabajo rápidos o para introducir datos en las GPUs y, al mismo tiempo, evitar cuellos de botella de E/S.
También puedes conectar volúmenes de hiperdisco y de Persistent Disk a instancias G2 para aplicaciones que requieran más almacenamiento persistente. La capacidad de almacenamiento máxima depende del número de vCPUs que tenga la instancia. Para obtener más información, consulta Tipos de discos admitidos.
Compatibilidad con la política de colocación compacta: te ofrece más control sobre la colocación física de tus instancias en los centros de datos. Esto permite que las instancias que se encuentran en una sola zona de disponibilidad tengan una latencia más baja y un ancho de banda mayor. Para obtener más información, consulta el artículo Reducir la latencia con políticas de emplazamiento compactas.
Tipos de máquinas G2
Los tipos de máquinas G2 optimizadas para aceleradores tienen GPUs NVIDIA L4 conectadas y son ideales para cargas de trabajo de inferencia optimizadas para costes, con un uso intensivo de gráficos y de computación de alto rendimiento.
Cada tipo de máquina G2 también tiene una memoria predeterminada y un intervalo de memoria personalizado. El intervalo de memoria personalizado define la cantidad de memoria que puedes asignar a tu instancia para cada tipo de máquina. También puedes añadir discos SSD locales al crear una instancia G2. Para saber el número de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas un número de discos SSD locales.
GPUs NVIDIA L4 conectadas | |||||||
---|---|---|---|---|---|---|---|
Tipo de máquina | Número de vCPUs1 | Memoria de instancia predeterminada (GB) | Intervalo de memoria de instancia personalizada (GB) | SSD local máxima admitida (GiB) | Ancho de banda de red máximo (Gbps)2 | Número de GPUs | Memoria de la GPU3 (GB GDDR6) |
g2-standard-4 |
4 | 16 | De 16 a 32 | 375 | 10 | 1 | 24 |
g2-standard-8 |
8 | 32 | De 32 a 54 | 375 | 16 | 1 | 24 |
g2-standard-12 |
12 | 48 | 48-54 | 375 | 16 | 1 | 24 |
g2-standard-16 |
16 | 64 | De 54 a 64 | 375 | 32 | 1 | 24 |
g2-standard-24 |
24 | 96 | De 96 a 108 | 750 | 32 | 2 | 48 |
g2-standard-32 |
32 | 128 | De 96 a 128 | 375 | 32 | 1 | 24 |
g2-standard-48 |
48 | 192 | De 192 a 216 | 1500 | 50 | 4 | 96 |
g2-standard-96 |
96 | 384 | De 384 a 432 | 3000 | 100 | 8 | 192 |
1 Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para
almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.
Limitaciones de G2
- Solo puedes solicitar capacidad mediante las opciones de consumo admitidas para un tipo de máquina G2.
- No recibirás descuentos por uso continuado ni descuentos por compromiso de uso flexible para las instancias que usen un tipo de máquina G2.
- Solo puedes usar un tipo de máquina G2 en determinadas regiones y zonas.
- El tipo de máquina G2 solo está disponible en la plataforma Cascade Lake.
- Standard Persistent Disk (
pd-standard
) no se admite en instancias que usan el tipo de máquina G2. Para ver los tipos de disco compatibles, consulta Tipos de disco compatibles con G2. - No puedes crear GPUs de varias instancias en una instancia que use un tipo de máquina G2.
- Si necesitas cambiar el tipo de máquina de una instancia G2, consulta Modificar instancias optimizadas para aceleradores.
- No puedes usar imágenes de máquina virtual de aprendizaje profundo como discos de arranque de instancias que usen el tipo de máquina G2.
- El controlador predeterminado actual de Container-Optimized OS no admite GPUs L4 que se ejecuten en tipos de máquinas G2. Además, Container-Optimized OS solo admite un conjunto de controladores.
Si quieres usar Container-Optimized OS en tipos de máquinas G2, consulta las siguientes notas:
- Usa una versión de Container-Optimized OS que admita la versión mínima recomendada del controlador de NVIDIA
525.60.13
o una posterior. Para obtener más información, consulta las notas de la versión de Container-Optimized OS. - Cuando instales el controlador,
especifica la versión más reciente disponible que funcione con las GPUs L4.
Por ejemplo,
sudo cos-extensions install gpu -- -version=525.60.13
.
- Usa una versión de Container-Optimized OS que admita la versión mínima recomendada del controlador de NVIDIA
- Debes usar Google Cloud CLI o REST para crear instancias G2 en los siguientes casos:
- Quiere especificar valores de memoria personalizados.
- Quieres personalizar el número de núcleos de CPU visibles.
Tipos de discos admitidos en instancias G2
Las instancias G2 pueden usar los siguientes tipos de almacenamiento en bloque:
- Disco persistente balanceado (
pd-balanced
) - Disco persistente SSD (rendimiento) (
pd-ssd
) - Hyperdisk ML (
hyperdisk-ml
) - Rendimiento de Hyperdisk (
hyperdisk-throughput
) - SSD local
Si el tipo de máquina lo admite, puedes asociar una combinación de volúmenes de hiperdisco y de disco persistente a una instancia, pero se aplican las siguientes restricciones:
- El número combinado de volúmenes de hiperdisco y de disco persistente no puede superar los 128 por instancia.
La capacidad total máxima de disco (en TiB) de todos los tipos de disco no puede superar lo siguiente:
En el caso de los tipos de máquina con menos de 32 vCPUs:
- 257 TiB para todos los Hyperdisk o todos los Persistent Disk
- 257 TiB para una combinación de Hyperdisk y Persistent Disk
En los tipos de máquina con 32 vCPUs o más:
- 512 TiB para todos los Hyperdisk
- 512 TiB para una combinación de Hyperdisk y Persistent Disk
- 257 TiB para todos los discos persistentes
Para obtener más información sobre los límites de capacidad, consulta Límites de tamaño y de archivos adjuntos de Hyperdisk y Capacidad máxima de los discos persistentes.