Acerca de las GPU


Para acelerar cargas de trabajo específicas en Compute Engine, puedes implementar una VM optimizada para aceleradores que tenga GPU conectadas o adjuntar GPU a una VM N1 de uso general.

En este documento, se describen las características y limitaciones de las GPU que se ejecutan en Compute Engine.

GPU y series de máquinas

Las GPU son compatibles con las series de máquinas de uso general N1 y optimizadas para aceleradores (A3, A2 y G2). Para las VMs que usan tipos de máquina N1, debes conectar la GPU a la VM durante la creación de la VM o después. En las VMs que usan los tipos de máquinas A3, A2 o G2, las GPU se conectan de forma automática cuando creas la VM. Las GPU no se pueden usar con otras series de máquinas.

Series de máquinas optimizadas para aceleradores

Cada tipo de máquina optimizada para acelerador tiene un modelo específico de GPU de NVIDIA conectada.

Para obtener más información, consulta Series de máquinas optimizadas para aceleradores.

Series de máquinas de uso general N1

Para todos los demás tipos de GPU, puedes usar la mayoría de los tipos de máquinas N1, excepto el núcleo compartido N1 (f1-micro y g1-small).

Para esta serie de máquinas, puedes usar tipos de máquinas predefinidos o personalizados.

GPU en VM Spot

Puedes agregar GPU a tus VM Spot a precios puntuales más bajos para las GPU. Las GPU conectadas a las VM Spot funcionan como las GPU normales, pero persisten solo durante la vida útil de la VM. Las VM Spot con GPU siguen el mismo proceso de interrupción que todas las VM Spot.

Considera solicitar una cuota de Preemptible GPU dedicada para usar en GPU en las VM Spot. Si deseas obtener más información, consulta Cuotas para VM Spot.

Durante los eventos de mantenimiento, las VM Spot con GPU se interrumpen de forma predeterminada y no se pueden reiniciar automáticamente. Si deseas volver a crear tus VM después de que hayan sido interrumpidas, usa un grupo de instancias administrado. Los grupos de instancias administrados recrean tus instancias si están disponibles los recursos de CPU virtuales, memoria y GPU.

Si deseas recibir una advertencia antes de que se interrumpan tus VM o si deseas configurarlas para que se reinicien de forma automática después de un evento de mantenimiento, usa una VM estándar con una GPU. Para las VM estándar con GPU, Compute Engine proporciona un aviso con una hora de anticipación antes de la interrupción.

Compute Engine no te cobra por las GPU si tus VM son interrumpibles durante el primer minuto después de que comienzan a ejecutarse.

Para aprender a crear Spot VM con GPU conectadas, consulta Crea una VM con GPU conectadas y Crea Spot VM.

GPUs en VMs con tiempos de ejecución predefinidos

Recursos para VMs que usen la configuración de aprovisionamiento estándar (VMs estándar), por lo general, no cuotas de asignación interrumpibles, que están diseñadas para cargas de trabajo temporales y suelen estar más disponibles. Si tu proyecto no tiene cuota interrumpible y nunca solicitaron una cuota interrumpible, todas las VMs de ese proyecto consumen cuotas de asignación de almacenamiento.

Sin embargo, una vez que solicites la cuota de asignación interrumpible, las VMs estándar que cumplan con los siguientes criterios pueden consumir solo asignaciones interrumpibles de la cuota de transferencia de registros.

Si consumes la cuota de asignación interrumpible para dichas cargas de trabajo, obtendrás beneficios de un tiempo de ejecución ininterrumpido de las VMs estándar y una mejor disponibilidad de la cuota de asignación interrumpible.

Más allá de la cuota usada, las VMs estándar no califican para las VMs Spot precios y no están sujetos a interrupciones.

Para obtener más información, consulta Cuotas interrumpibles.

GPU y Confidential VMs

No puedes adjuntar GPU a instancias de Confidential VM. Para obtener más información acera de Confidential VMs, consulta Descripción general de Confidential VMs.

GPU y almacenamiento en bloque

Cuando creas una VM en una plataforma de GPU, puedes agregar almacenamiento en bloque persistente o temporal a la VM. Para almacenar datos no transitorios, usa el almacenamiento en bloque persistente, como Hyperdisk ML o Persistent Disk, porque los discos son independientes del ciclo de vida de la VM. Los datos del almacenamiento persistente se pueden retener incluso después de borrar la VM.

Para el almacenamiento temporal o en caché, usa el almacenamiento en bloque temporal agregando discos SSD locales cuando crees la VM.

Almacenamiento en bloque persistente con volúmenes de Persistent Disk y Hyperdisk

Puedes conectar volúmenes de Hyperdisk ML y Persistent Disk con VMs habilitadas para GPU.

Para el entrenamiento y la entrega de cargas de trabajo de aprendizaje automático, Google recomienda usar volúmenes de Hyperdisk ML, que ofrecen una alta capacidad de procesamiento y tiempos de carga de datos más cortos. Esto hace que Hyperdisk ML sea una opción más costo-eficiente para las cargas de trabajo de AA, ya que ofrece tiempos de inactividad de la GPU más bajos.

Los volúmenes de Hyperdisk ML proporcionan compatibilidad con varias conexiones de solo lectura, por lo que puedes conectar el mismo disco a varias VMs, lo que les brinda a cada una acceso a los mismos datos.

Para obtener más información sobre los tipos de discos compatibles con las series de máquinas que admiten GPU, consulta las páginas de las series de máquinas N1 y optimizadas para aceleradores.

Discos SSD locales

Los discos SSD locales proporcionan almacenamiento temporal y rápido para el almacenamiento en caché, el procesamiento de datos y otros datos transitorios. Los discos SSD locales son almacenamiento rápido porque están conectados físicamente al servidor que aloja tu VM. Son temporales porque los datos se pierden si se reinicia la VM.

No debes almacenar datos con requisitos de persistencia estrictos en discos SSD locales. Para almacenar datos no transitorios, usa el almacenamiento persistente.

Si detienes manualmente una VM con una GPU, puedes conservar los datos de la SSD local, con ciertas restricciones. Consulta la documentación de SSD local para obtener más detalles.

Para obtener compatibilidad regional con SSD locales con tipos de GPU, consulta Disponibilidad de SSD locales por regiones y zonas de GPU.

GPU y mantenimiento del host

Las VMs con GPUs conectadas siempre se detienen cuando Compute Engine realiza eventos de mantenimiento en ellas. Si la VM tiene discos SSD locales conectados, los datos de SSD locales se pierden después de que se detiene la VM.

Para obtener información sobre cómo controlar los eventos de mantenimiento, consulta Controla eventos de mantenimiento del host de GPU.

Precios de GPU

La mayoría de las VM con una GPU conectada reciben descuentos por uso continuo de manera similar a las CPU virtuales. Cuando seleccionas una GPU para una estación de trabajo virtual, se agrega una licencia de estación de trabajo virtual de NVIDIA RTX a tu VM.

Para conocer los precios por hora y por mes de las GPU, consulta la página de precios de GPU.

Reserva GPU con descuentos por compromiso de uso

Para reservar recursos de GPU en una zona específica, consulta Reservas de recursos zonales de Compute Engine.

A fin de recibir descuentos por compromiso de uso para GPU en una zona específica, debes comprar compromisos basados en recursos para las GPU y también adjuntar reservas que especifiquen las GPU coincidentes a tus compromisos. Para obtener más información, consulta Adjunta reservas a compromisos basados en recursos.

Restricciones y limitaciones de GPU

Para las VMs que tienen GPU conectadas, se aplican las siguientes restricciones y limitaciones:

  • Las GPU solo son compatibles con los tipos de máquinas N1 de uso general o con optimización para aceleradores, A3, A2 y G2.

  • Para proteger los sistemas y usuarios de Compute Engine, los nuevos proyectos tienen una cuota global de GPU que limita la cantidad total de GPU que puedes crear en cualquier zona compatible. Cuando solicitas una cuota de GPU, debes especificar una cuota de los modelos de GPU que quieres crear en cada región, así como indicar la cuota global con la cantidad total de GPU de los tipos de todas las zonas.

  • Las VMs con una o más GPUs tienen una cantidad máxima de CPU virtuales para cada GPU que agregues a la VM. Si deseas ver los rangos de CPU virtuales y memoria disponibles para diferentes configuraciones de GPU, consulta la lista de GPU.

  • Las GPU requieren controladores de dispositivo para funcionar correctamente. Las GPU de NVIDIA que se ejecutan en Compute Engine deben usar una versión de controlador mínima. Para obtener más información sobre las versiones de controlador, consulta Versiones de controladores NVIDIA necesarias.

  • Las VM con un modelo de GPU adjunto específico están cubiertas por el ANS de Compute Engine solo si ese modelo de GPU adjunto está en fase de disponibilidad general y se admite en más de una zona de la misma región. El ANS de Compute Engine no cubre los modelos de GPU en las siguientes zonas:

    • NVIDIA H100 de 80 GB
      • asia-south1-c
      • australia-southeast1-c
      • europe-west2-b
      • europe-west1-b
      • europe-west2-b
      • europe-west3-a
      • europe-west4-b
      • europe-west8-c
      • europe-west9-c
      • europe-west12-b
      • us-east5-a
      • us-west4-a
    • NVIDIA L4:
      • asia-northeast1-b
      • northamerica-northeast2-a
    • NVIDIA A100 80 GB:
      • asia-southeast1-c
      • us-east4-c
      • us-east5-b
    • NVIDIA A100 40 GB:
      • us-east1-b
      • us-west1-b
      • us-west3-b
      • us-west4-b
    • NVIDIA T4:
      • europe-west3-b
      • southamerica-east1-c
      • us-west3-b
    • NVIDIA V100:
      • asia-east1-c
      • us-east1-c
    • NVIDIA P100:
      • australia-southeast1-c
      • europe-west4-a
  • Compute Engine admite la ejecución de un usuario simultáneo por GPU.

Próximos pasos