Anda dapat menggunakan GPU di Compute Engine untuk mempercepat workload tertentu di VM Anda seperti machine learning (ML) dan pemrosesan data. Untuk menggunakan GPU, Anda dapat men-deploy VM yang dioptimalkan akselerator yang telah memasang GPU, atau memasang GPU ke VM tujuan umum N1.
Compute Engine menyediakan GPU untuk VM Anda dalam mode passthrough sehingga VM Anda memiliki kontrol langsung atas GPU dan memori terkaitnya.
Untuk mengetahui informasi selengkapnya tentang GPU di Compute Engine, lihat Tentang GPU.
Jika memiliki workload grafis intensif, seperti visualisasi 3D, rendering 3D, atau aplikasi virtual, Anda dapat menggunakan workstation virtual NVIDIA RTX (sebelumnya dikenal sebagai NVIDIA GRID).
Dokumen ini memberikan ringkasan tentang berbagai VM GPU yang tersedia di Compute Engine.
Untuk melihat region dan zona yang tersedia untuk GPU di Compute Engine, lihat Ketersediaan zona dan region GPU.
GPU untuk workload komputasi
Untuk beban kerja komputasi, GPU didukung untuk jenis mesin berikut:
- VM A3: VM ini memiliki GPU NVIDIA H100 80 GB yang otomatis terpasang.
- VM A2: VM ini memiliki GPU NVIDIA A100 80 GB atau NVIDIA A100 40 GB yang otomatis terpasang.
- VM G2: VM ini memiliki GPU NVIDIA L4 yang otomatis terpasang.
- VM N1: untuk VM ini, Anda dapat memasang model GPU berikut: NVIDIA T4, NVIDIA V100, NVIDIA P100, atau NVIDIA P4.
Seri mesin A3
Untuk menggunakan GPU NVIDIA H100 80 GB, Anda harus menggunakan mesin yang dioptimalkan akselerator A3. Setiap jenis mesin A3 memiliki jumlah GPU tetap, jumlah vCPU, dan ukuran memori.
Seri mesin A3 tersedia dalam tiga jenis:
- A3 Mega: jenis mesin ini memiliki GPU H100 80 GB (
nvidia-h100-mega-80gb
) dan memberikan performa jaringan tertinggi. VM ini ideal untuk workload pelatihan yang paling mengharuskan dan berskala besar. - A3 High: jenis mesin ini memiliki GPU H100 80 GB (
nvidia-h100-80gb
) dan sangat cocok untuk tugas pelatihan dan penayangan model AI yang besar. - A3 Edge: jenis mesin ini memiliki GPU H100 80 GB (
nvidia-h100-80gb
), dirancang khusus untuk penayangan, dan tersedia di serangkaian region terbatas.
A3 Mega
Jenis mesin | Jumlah GPU | Memori GPU* (GB HBM3) |
Jumlah vCPU† | Memori VM (GB) | SSD Lokal Terpasang (GiB) | Jumlah NIC fisik | Bandwidth jaringan maksimum (Gbps)‡ |
---|---|---|---|---|---|---|---|
a3-megagpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 9 | 1.800 |
A3 Tinggi
a3-highgpu-1g
, a3-highgpu-2g
, atau a3-highgpu-4g
,
Anda harus menggunakan Spot VM atau fitur yang menggunakan
Dynamic Workload Scheduler (DWS)
seperti permintaan perubahan ukuran di MIG. Untuk petunjuk mendetail tentang salah satu opsi ini, tinjau
hal berikut:
- Untuk membuat Spot VM, lihat
Membuat VM yang dioptimalkan akselerator
dan jangan lupa untuk menetapkan model penyediaan ke
SPOT
- Untuk membuat permintaan pengubahan ukuran di MIG, yang menggunakan Dynamic Workload Scheduler, lihat Membuat MIG dengan VM GPU.
Jenis mesin | Jumlah GPU | Memori GPU* (GB HBM3) |
Jumlah vCPU† | Memori VM (GB) | SSD Lokal Terpasang (GiB) | Jumlah NIC fisik | Bandwidth jaringan maksimum (Gbps)‡ |
---|---|---|---|---|---|---|---|
a3-highgpu-1g |
1 | 80 | 26 | 234 | 750 | 1 | 25 |
a3-highgpu-2g |
2 | 160 | 52 | 468 | 1.500 | 1 | 50 |
a3-highgpu-4g |
4 | 320 | 104 | 936 | 3.000 | 1 | 100 |
a3-highgpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 | 800 |
A3 Edge
Jenis mesin | Jumlah GPU | Memori GPU* (GB HBM3) |
Jumlah vCPU† | Memori VM (GB) | SSD Lokal Terpasang (GiB) | Jumlah NIC fisik | Bandwidth jaringan maksimum (Gbps)‡ |
---|---|---|---|---|---|---|---|
a3-edgegpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 |
|
*Memori GPU adalah memori di perangkat GPU yang dapat digunakan untuk
penyimpanan data sementara. Memori ini terpisah dari memori VM dan
dirancang secara khusus untuk menangani permintaan bandwidth yang lebih tinggi dari
workload yang intensif grafis.
† vCPU diimplementasikan sebagai hyper-thread hardware tunggal di salah satu
platform CPU yang tersedia.
‡Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth
traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya.
Lihat Bandwidth jaringan.
Seri mesin A2
Untuk menggunakan GPU NVIDIA A100 di Google Cloud, Anda harus men-deploy mesin yang dioptimalkan akselerator A2. Setiap jenis mesin A2 memiliki jumlah GPU tetap, jumlah vCPU, dan ukuran memori.
Seri mesin A2 tersedia dalam dua jenis:
- A2 Ultra: jenis mesin ini memiliki GPU A100 80 GB (
nvidia-a100-80gb
) dan SSD Lokal yang terpasang. - A2 Standard: jenis mesin ini memiliki GPU A100 40 GB (
nvidia-tesla-a100
) yang terpasang.
A2 Ultra
Jenis mesin | Jumlah GPU | Memori GPU* (GB HBM2e) | Jumlah vCPU | Memori VM (GB) | SSD Lokal Terpasang (GiB) | Bandwidth jaringan maksimum (Gbps) |
---|---|---|---|---|---|---|
a2-ultragpu-1g |
1 | 80 | 12 | 170 | 375 | 24 |
a2-ultragpu-2g |
2 | 160 | 24 | 340 | 750 | 32 |
a2-ultragpu-4g |
4 | 320 | 48 | 680 | 1.500 | 50 |
a2-ultragpu-8g |
8 | 640 | 96 | 1.360 | 3.000 | 100 |
Standar A2
Jenis mesin | Jumlah GPU | Memori GPU* (GB HBM2) | Jumlah vCPU | Memori VM (GB) | SSD lokal didukung | Bandwidth jaringan maksimum (Gbps) |
---|---|---|---|---|---|---|
a2-highgpu-1g |
1 | 40 | 12 | 85 | Ya | 24 |
a2-highgpu-2g |
2 | 80 | 24 | 170 | Ya | 32 |
a2-highgpu-4g |
4 | 160 | 48 | 340 | Ya | 50 |
a2-highgpu-8g |
8 | 320 | 96 | 680 | Ya | 100 |
a2-megagpu-16g |
16 | 640 | 96 | 1.360 | Ya | 100 |
*Memori GPU adalah memori yang tersedia di perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori VM dan dirancang secara khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload yang intensif grafis.
Seri mesin G2
Untuk menggunakan GPU NVIDIA L4
(nvidia-l4
atau nvidia-l4-vws
), Anda harus men-deploy
mesin yang dioptimalkan akselerator G2.
Setiap jenis mesin G2 memiliki GPU NVIDIA L4 dan vCPU dalam jumlah tetap yang terpasang. Setiap jenis mesin G2 juga memiliki memori default dan rentang memori kustom. Rentang memori kustom menentukan jumlah memori yang dapat Anda alokasikan ke VM untuk setiap jenis mesin. Anda dapat menentukan memori kustom selama pembuatan VM.
Jenis mesin | Jumlah GPU | Memori GPU* (GB GDDR6) | Jumlah vCPU | Memori VM default (GB) | Rentang memori VM kustom (GB) | SSD Lokal maksimum yang didukung (GiB) | Bandwidth jaringan maksimum (Gbps) |
---|---|---|---|---|---|---|---|
g2-standard-4 |
1 | 24 | 4 | 16 | 16 hingga 32 | 375 | 10 |
g2-standard-8 |
1 | 24 | 8 | 32 | 32-54 tahun | 375 | 16 |
g2-standard-12 |
1 | 24 | 12 | 48 | 48-54 tahun | 375 | 16 |
g2-standard-16 |
1 | 24 | 16 | 64 | 54-64 tahun | 375 | 32 |
g2-standard-24 |
2 | 48 | 24 | 96 | 96 hingga 108 | 750 | 32 |
g2-standard-32 |
1 | 24 | 32 | 128 | 96 hingga 128 | 375 | 32 |
g2-standard-48 |
4 | 96 | 48 | 192 | 192 hingga 216 | 1.500 | 50 |
g2-standard-96 |
8 | 192 | 96 | 384 | 384 hingga 432 | 3.000 | 100 |
*Memori GPU adalah memori yang tersedia di perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori VM dan dirancang secara khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload yang intensif grafis.
Seri mesin N1
Anda dapat memasang model GPU berikut ke jenis mesin N1, kecuali jenis mesin dengan inti bersama N1.
VM N1 dengan jumlah GPU lebih rendah dibatasi hingga jumlah maksimum vCPU. Secara umum, dengan jumlah GPU yang lebih tinggi, Anda dapat membuat instance VM dengan jumlah vCPU dan memori yang lebih tinggi.
GPU N1+T4
Anda dapat memasang GPU NVIDIA T4 ke VM tujuan umum N1 dengan konfigurasi VM berikut.
Jenis akselerator | Jumlah GPU | Memori GPU* (GB GDDR6) | Jumlah vCPU | Memori VM (GB) | SSD lokal didukung |
---|---|---|---|---|---|
nvidia-tesla-t4 atau nvidia-tesla-t4-vws
|
1 | 16 | 1 hingga 48 | 1 hingga 312 | Ya |
2 | 32 | 1 hingga 48 | 1 hingga 312 | Ya | |
4 | 64 | 1 hingga 96 | 1 hingga 624 | Ya |
*Memori GPU adalah memori yang tersedia di perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori VM dan dirancang secara khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload yang intensif grafis.
GPU N1+P4
Anda dapat memasang GPU NVIDIA P4 ke VM tujuan umum N1 dengan konfigurasi VM berikut.
Jenis akselerator | Jumlah GPU | Memori GPU* (GB GDDR5) | Jumlah vCPU | Memori VM (GB) | SSD lokal didukung† |
---|---|---|---|---|---|
nvidia-tesla-p4 atau nvidia-tesla-p4-vws
|
1 | 8 | 1 hingga 24 | 1 hingga 156 | Ya |
2 | 16 | 1 hingga 48 | 1 hingga 312 | Ya | |
4 | 32 | 1 hingga 96 | 1 hingga 624 | Ya |
*Memori GPU adalah memori yang tersedia di perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. GPU ini terpisah dari memori VM dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.
†Untuk VM dengan GPU NVIDIA P4 yang terpasang, disk SSD Lokal
hanya didukung di zona us-central1-c
dan
northamerica-northeast1-b
.
GPU N1+V100
Anda dapat memasang GPU NVIDIA V100 ke VM tujuan umum N1 dengan konfigurasi VM berikut.
Jenis akselerator | Jumlah GPU | Memori GPU* (GB HBM2) | Jumlah vCPU | Memori VM (GB) | SSD lokal didukung† |
---|---|---|---|---|---|
nvidia-tesla-v100 |
1 | 16 | 1 hingga 12 | 1 hingga 78 | Ya |
2 | 32 | 1 hingga 24 | 1 hingga 156 | Ya | |
4 | 64 | 1 hingga 48 | 1 hingga 312 | Ya | |
8 | 128 | 1 hingga 96 | 1 hingga 624 | Ya |
*Memori GPU adalah memori yang tersedia di perangkat GPU yang dapat digunakan
untuk penyimpanan data sementara. Memori ini terpisah dari memori VM dan
dirancang secara khusus untuk menangani permintaan bandwidth yang lebih tinggi dari
workload yang intensif grafis.
†Untuk VM dengan GPU NVIDIA V100 terpasang, disk SSD Lokal
tidak didukung di us-east1-c
.
GPU N1+P100
Anda dapat memasang GPU NVIDIA P100 ke VM tujuan umum N1 dengan konfigurasi VM berikut.
Untuk beberapa GPU NVIDIA P100, CPU dan memori maksimum yang tersedia untuk beberapa konfigurasi bergantung pada zona tempat resource GPU berjalan.
Jenis akselerator | Jumlah GPU | Memori GPU* (GB HBM2) | Jumlah vCPU | Memori VM (GB) | SSD lokal didukung |
---|---|---|---|---|---|
nvidia-tesla-p100 atau nvidia-tesla-p100-vws
|
1 | 16 | 1 hingga 16 | 1 hingga 104 | Ya |
2 | 32 | 1 hingga 32 | 1 hingga 208 | Ya | |
4 | 64 | 1 hingga 64 1 hingga 96 |
1 hingga 208 1 hingga 624 |
Ya |
*Memori GPU adalah memori yang tersedia di perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori VM dan dirancang secara khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload yang intensif grafis.
NVIDIA RTX Virtual Workstations (vWS) untuk beban kerja grafis
Jika memiliki workload grafis yang intensif, seperti visualisasi 3D, Anda dapat membuat workstation virtual yang menggunakan NVIDIA RTX Virtual Workstation (vWS) (sebelumnya dikenal sebagai NVIDIA GRID). Saat Anda membuat workstation virtual, lisensi NVIDIA RTX Virtual Workstation (vWS) akan otomatis ditambahkan ke VM Anda.
Untuk mengetahui informasi tentang harga workstation virtual, lihat halaman harga GPU.
Untuk beban kerja grafis, model workstation virtual (vWS) NVIDIA RTX tersedia:
Seri mesin G2: untuk jenis mesin G2, Anda dapat mengaktifkan NVIDIA L4 Virtual Workstations (vWS):
nvidia-l4-vws
Seri mesin N1: untuk jenis mesin N1, Anda dapat mengaktifkan workstation virtual berikut:
- Workstation Virtual NVIDIA T4:
nvidia-tesla-t4-vws
- Workstation Virtual NVIDIA P100:
nvidia-tesla-p100-vws
- Workstation Virtual NVIDIA P4:
nvidia-tesla-p4-vws
- Workstation Virtual NVIDIA T4:
Diagram perbandingan umum
Tabel berikut menjelaskan ukuran memori GPU, ketersediaan fitur, dan jenis beban kerja ideal dari berbagai model GPU yang tersedia di Compute Engine.
Model GPU | Memori GPU | Interkoneksi | Dukungan NVIDIA RTX Virtual Workstation (vWS) | Paling baik digunakan untuk |
---|---|---|---|---|
H100 80GB | HBM3 80 GB @ 3,35 TBps | NVLink Mesh Penuh @ 900 GBps | Model besar dengan tabel data besar untuk Pelatihan ML, Inferensi, HPC, BERT, DLRM | |
A100 80GB | HBM2e 80 GB @ 1,9 TBps | NVLink Mesh Penuh @ 600 GBps | Model besar dengan tabel data besar untuk Pelatihan ML, Inferensi, HPC, BERT, DLRM | |
A100 40GB | HBM2 40 GB @ 1,6 TBps | NVLink Mesh Penuh @ 600 GBps | Pelatihan ML, Inferensi, HPC | |
L4 | 24 GB GDDR6 @ 300 GBps | T/A | Inferensi ML, Pelatihan, Workstation Visualisasi Jarak Jauh, Transcoding Video, HPC | |
T4 | 16 GB GDDR6 @ 320 GBps | T/A | Inferensi ML, Pelatihan, Workstation Visualisasi Jarak Jauh, Transcoding Video | |
V100 | 16 GB HBM2 @ 900 GBps | NVLink Ring @ 300 GBps | Pelatihan ML, Inferensi, HPC | |
P4 | 8 GB GDDR5 @ 192 GBps | T/A | Workstation Visualisasi Jarak Jauh, Inferensi ML, dan Transcoding Video | |
P100 | 16 GB HBM2 @ 732 GBps | T/A | Pelatihan ML, Inferensi, HPC, Workstation Visualisasi Jarak Jauh |
Guna membandingkan harga GPU untuk berbagai model dan region GPU yang tersedia di Compute Engine, lihat harga GPU.
Diagram perbandingan performa
Tabel berikut menjelaskan spesifikasi performa berbagai model GPU yang tersedia di Compute Engine.
Performa compute
Model GPU | FP64 | FP32 | FP16 | INT8 |
---|---|---|---|---|
H100 80GB | 34 TFLOPS | 67 TFLOP | ||
A100 80GB | 9,7 TFLOP | 19,5 TFLOP | ||
A100 40GB | 9,7 TFLOP | 19,5 TFLOP | ||
L4 | 0,5 TFLOP* | 30,3 TFLOP | ||
T4 | 0,25 TFLOP* | 8,1 TFLOP | ||
V100 | 7,8 TFLOP | 15,7 TFLOP | ||
P4 | 0,2 TFLOP* | 5,5 TFLOP | 22 TOPS† | |
P100 | 4,7 TFLOP | 9,3 TFLOP | 18,7 TFLOP |
*Agar kode FP64 dapat berfungsi dengan benar, sejumlah kecil unit hardware FP64 disertakan dalam arsitektur GPU T4, L4, dan P4.
†TeraOperations per Detik.
Performa Tensor core
Model GPU | FP64 | TF32 | FP16/FP32 presisi campuran | INT8 | INT4 | FP8 |
---|---|---|---|---|---|---|
H100 80GB | 67 TFLOP | 989 TFLOPS† | 1.979 TFLOPS*, † | 3.958 TOPS† | 3.958 TFLOPS† | |
A100 80GB | 19,5 TFLOP | 156 TFLOP | 312 TFLOP* | 624 TOPS | 1248 TOPS | |
A100 40GB | 19,5 TFLOP | 156 TFLOP | 312 TFLOP* | 624 TOPS | 1248 TOPS | |
L4 | 120 TFLOP† | 242 TFLOPS*, † | 485 TOPS† | 485 TFLOPS† | ||
T4 | 65 TFLOP | 130 TOPS | 260 TOPS | |||
V100 | 125 TFLOP | |||||
P4 | ||||||
P100 |
*Untuk pelatihan presisi campuran, GPU NVIDIA H100, A100, dan L4
juga mendukung jenis data bfloat16
.
†Untuk GPU H100 dan L4, ketersebaran struktural didukung dan dapat Anda
gunakan untuk menggandakan nilai performa. Nilai yang ditampilkan adalah dengan
kelangkaan. Spesifikasinya setengah lebih rendah tanpa sparsitas.
Apa langkah selanjutnya?
- Untuk mengetahui informasi selengkapnya tentang GPU di Compute Engine, lihat Tentang GPU.
- Tinjau ketersediaan region dan zona GPU.
- Tinjau Bandwidth jaringan dan GPU.
- Pelajari harga GPU.