Plataformas de GPU

Compute Engine proporciona unidades de procesamiento de gráficos (GPU) que puedes agregar a tus instancias de máquina virtual (VM). Puedes usar estas GPU para acelerar cargas de trabajo específicas en las VM, como el aprendizaje automático y el procesamiento de datos.

Compute Engine proporciona GPU de NVIDIA para tus VM en modo de transferencia a fin de que tus VM tengan control directo sobre las GPU y su memoria asociada.

Si tienes cargas de trabajo de contenido gráfico alto, como visualización 3D, renderización 3D o aplicaciones virtuales, puedes usar estaciones de trabajo virtuales de NVIDIA RTX (antes conocidas como NVIDIA GRID).

En este documento, se proporciona una descripción general de los diferentes modelos de GPU que están disponibles en Compute Engine.

Si deseas ver las regiones y zonas disponibles para las GPU en Compute Engine, consulta Regiones de GPU y disponibilidad de zonas.

GPU NVIDIA para cargas de trabajo de procesamiento

Para las cargas de trabajo de procesamiento, los modelos de GPU están disponibles en las siguientes etapas:

  • NVIDIA A100: Disponibilidad general
  • NVIDIA T4: nvidia-tesla-t4: Disponibilidad general
  • NVIDIA V100: nvidia-tesla-v100: Disponibilidad general
  • NVIDIA P100: nvidia-tesla-p100: Disponibilidad general
  • NVIDIA P4: nvidia-tesla-p4: Disponibilidad general
  • NVIDIA K80: nvidia-tesla-k80: Disponibilidad general

GPU NVIDIA A100

Para ejecutar GPU NVIDIA A100, debes usar el tipo de máquina con optimización de acelerador (A2).

Nota: Cada tipo de máquina A2 tiene un recuento fijo de GPU, de CPU virtuales y de tamaño de memoria.

Modelo de GPU Tipo de máquina GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
NVIDIA® A100 a2-highgpu-1g 1 GPU 40 GB HBM2 12 CPU virtuales 85 GB
a2-highgpu-2g 2 GPU 80 GB HBM2 24 CPU virtuales 170 GB
a2-highgpu-4g 4 GPU 160 GB HBM2 48 CPU virtuales 340 GB
a2-highgpu-8g 8 GPU 320 GB HBM2 96 CPU virtuales 680 GB
a2-megagpu-16g 16 GPU 640 GB HBM2 96 CPU virtuales 1,360 GB

GPU NVIDIA T4

Las VM con una cantidad menor de GPU están limitadas a una cantidad máxima de CPU virtuales. En general, una cantidad mayor de GPU te permite crear instancias con mayores cantidades de CPU virtuales y de memoria.

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
NVIDIA® T4: 1 GPU 16 GB GDDR6 De 1 a 48 CPU virtuales De 1 a 312 GB
2 GPU GDDR6 de 32 GB De 1 a 48 CPU virtuales De 1 a 312 GB
4 GPU GDDR6 de 64 GB De 1 a 96 CPU virtuales De 1 a 624 GB

GPU NVIDIA P4

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
NVIDIA P4 1 GPU GDDR5 de 8 GB De 1 a 24 CPU virtuales De 1 a 156 GB
2 GPU GDDR5 de 16 GB De 1 a 48 CPU virtuales De 1 a 312 GB
4 GPU GDDR5 de 32 GB De 1 a 96 CPU virtuales De 1 a 624 GB

GPU NVIDIA V100

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
NVIDIA V100 1 GPU HBM2 de 16 GB De 1 a 12 CPU virtuales De 1 a 78 GB
2 GPU HBM2 de 32 GB De 1 a 24 CPU virtuales De 1 a 156 GB
4 GPU 64 GB HBM2 De 1 a 48 CPU virtuales De 1 a 312 GB
8 GPU 128 GB de HBM2 De 1 a 96 CPU virtuales De 1 a 624 GB

GPU NVIDIA P100

En algunas GPU P100, la CPU y la memoria máximas disponibles para algunas configuraciones dependen de la zona en la que se ejecuta el recurso de GPU.

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
NVIDIA P100 1 GPU HBM2 de 16 GB De 1 a 16 CPU virtuales De 1 a 104 GB
2 GPU HBM2 de 32 GB De 1 a 32 CPU virtuales De 1 a 208 GB
4 GPU 64 GB HBM2

De 1 a 64 CPU virtuales
(us-east1-c, europe-west1-d, europe-west1-b)

De 1 a 96 CPU virtuales
(todas las zonas de P100)

De 1 a 208 GB
(us-east1-c, europe-west1-d, europe-west1-b)

De 1 a 624 GB
(todas las zonas de P100)

GPU NVIDIA K80

Las placas NVIDIA K80 contienen dos GPU cada una. El precio es por cada GPU K80, no por placa.

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
NVIDIA K80 1 GPU GDDR5 de 12 GB De 1 a 8 CPU virtuales De 1 a 52 GB
2 GPU GDDR5 de 24 GB De 1 a 16 CPU virtuales De 1 a 104 GB
4 GPU GDDR5 de 48 GB De 1 a 32 CPU virtuales De 1 a 208 GB
8 GPU GDDR5 de 96 GB De 1 a 64 CPU virtuales

De 1 a 416 GB
(asia-east1-a y us-east1-d)

De 1 a 208 GB
(todas las zonas de K80)

Estaciones de trabajo virtuales de NVIDIA RTX para cargas de trabajo de gráficos

Si tienes cargas de trabajo de contenido gráfico alto, como la visualización 3D, puedes crear estaciones de trabajo virtuales que usen estaciones de trabajo virtuales de NVIDIA RTX (antes conocidas como NVIDIA GRID). Cuando creas una estación de trabajo virtual, se agrega de forma automática una licencia de estación de trabajo virtual NVIDIA RTX a tu VM. Para obtener información sobre los precios de las estaciones de trabajo virtuales, consulta la página de precios de GPU.

Para las cargas de trabajo de gráficos, los modelos de estación de trabajo virtual de NVIDIA RTX están disponibles en las siguientes etapas:

  • Estaciones de trabajo virtuales NVIDIA T4: nvidia-tesla-t4-vws: Disponibilidad general
  • Estaciones de trabajo virtuales NVIDIA P100: nvidia-tesla-p100-vws: Disponibilidad general
  • Estaciones de trabajo virtuales NVIDIA P4: nvidia-tesla-p4-vws: Disponibilidad general

GPU NVIDIA T4 VWS

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
Estación de trabajo virtual NVIDIA T4 1 GPU 16 GB GDDR6 De 1 a 48 CPU virtuales De 1 a 312 GB
2 GPU GDDR6 de 32 GB De 1 a 48 CPU virtuales De 1 a 312 GB
4 GPU GDDR6 de 64 GB De 1 a 96 CPU virtuales De 1 a 624 GB

GPU NVIDIA P4 VWS

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
Estación de trabajo virtual NVIDIA P4 1 GPU GDDR5 de 8 GB De 1 a 16 CPU virtuales De 1 a 156 GB
2 GPU GDDR5 de 16 GB De 1 a 48 CPU virtuales De 1 a 312 GB
4 GPU GDDR5 de 32 GB De 1 a 96 CPU virtuales De 1 a 624 GB

GPU NVIDIA P100 VWS

Modelo de GPU GPU Memoria de GPU CPU virtuales disponibles Memoria disponible
Estación de trabajo virtual NVIDIA P100 1 GPU HBM2 de 16 GB De 1 a 16 CPU virtuales De 1 a 104 GB
2 GPU HBM2 de 32 GB De 1 a 32 CPU virtuales De 1 a 208 GB
4 GPU 64 GB HBM2

De 1 a 64 CPU virtuales
(us-east1-c, europe-west1-d, europe-west1-b)

De 1 a 96 CPU virtuales
(todas las zonas de P100)

De 1 a 208 GB
(us-east1-c, europe-west1-d, europe-west1-b)

De 1 a 624 GB
(todas las zonas de P100)

Gráfico de comparación general

En la siguiente tabla, se describe el tamaño de la memoria de GPU, la disponibilidad de las funciones y los tipos de carga de trabajo ideales de diferentes modelos de GPU que están disponibles en Compute Engine.

Métrica A100 T4 V100 P4 P100 K80
Memoria HBM2 de 40 GB a 1.6 TB/s GDDR6 de 16 GB a 320 GB/s HBM2 de 16 GB a 900 GB/s GDDR5 de 8 GB a 192 GB/s HBM2 de 16 GB a 732 GB/s GDDR5 de 12 GB a 240 GB/s
Interconexión Malla de NVLink completa a 600 GB/s N/A Anillo de NVLink a 300 GB/s N/A N/A N/A
Compatibilidad con la estación de trabajo virtual NVIDIA RTX
Mejor uso para AA, entrenamiento, inferencia, HPC Inferencia de ML, entrenamiento, estaciones de trabajo de visualización remota, transcodificación de video AA, entrenamiento, inferencia, HPC Estaciones de trabajo de visualización remota, inferencia ML y transcodificación de video AA, entrenamiento, inferencia, HPC, estaciones de trabajo de visualización remota AA inferencia, entrenamiento, HPC
Precios Si deseas comparar los precios de GPU para los diferentes modelos y regiones de GPU disponibles en Compute Engine, consulta los precios de GPU.

Gráfico de comparación de rendimiento

En la siguiente tabla, se describen las especificaciones de rendimiento de diferentes modelos de GPU que están disponibles en Compute Engine.

Métrica A100 T4 V100 P4 P100 K80
Rendimiento de procesamiento
FP64 9.7 TFLOPS 0.25 TFLOPS1 7.8 TFLOPS 0.2 TFLOPS 1 4.7 TFLOPS 1.46 TFLOP
FP32 19.5 TFLOPS 8.1 TFLOPS 15.7 TFLOPS 5.5 TFLOPS 9.3 TFLOPS 4.37 TFLOPS
FP16 18.7 TFLOPS
INT8 22 TOPS2
Rendimiento del núcleo de tensor
FP64 19.5 TFLOPS
TF32 156 TFLOPS
FP16/FP32 de precisión mixta 312 TFLOPS3 65 TFLOPS 125 TFLOPS
INT8 624 TOPS2 180 TOPS2
INT4 1,248 TOPS2 260 TOPS2

1Para permitir que el código FP64 funcione correctamente, se incluye una pequeña cantidad de unidades de hardware FP64 en la arquitectura de GPU T4 y P4.

2 Teraoperaciones por segundo.

3 Para el entrenamiento de precisión mixta, NVIDIA A100 también admite el tipo de datos bfloat16.

Próximos pasos