Google Cloud berfokus pada penyediaan infrastruktur kecerdasan buatan (AI) kelas dunia untuk mendukung workload akselerasi GPU yang paling menuntut di berbagai segmen. Anda dapat menggunakan GPU di Google Cloud untuk menjalankan aplikasi AI, machine learning (ML), ilmiah, analisis, engineering, konsumen, dan perusahaan.
Melalui kemitraan kami dengan NVIDIA, Google Cloud memberikan GPU terbaru sekaligus mengoptimalkan stack software dengan beragam opsi penyimpanan dan jaringan. Untuk mengetahui daftar lengkap GPU yang tersedia, lihat platform GPU.
Bagian berikut menguraikan manfaat GPU di Google Cloud.
VM yang diakselerasi GPU
Di Google Cloud, Anda dapat mengakses dan menyediakan GPU dengan cara yang paling sesuai dengan kebutuhan Anda. Kelompok mesin yang dioptimalkan akselerator khusus tersedia, dengan GPU yang terpasang sebelumnya dan kemampuan jaringan yang ideal untuk memaksimalkan performa. Jenis mesin ini tersedia dalam seri mesin A3, A2, dan G2.
Beberapa opsi penyediaan
Anda dapat menyediakan cluster menggunakan kelompok mesin yang dioptimalkan akselerator dengan salah satu produk open source atau Google Cloud berikut.
Vertex AI
Vertex AI adalah platform machine learning (ML) yang terkelola sepenuhnya yang dapat Anda gunakan untuk melatih dan men-deploy model ML dan aplikasi AI. Di aplikasi Vertex AI, Anda dapat menggunakan VM yang diakselerasi GPU untuk meningkatkan performa dengan cara berikut:
- Gunakan VM berkemampuan GPU dalam kumpulan pekerja GKE pelatihan kustom.
- Gunakan model LLM open source dari Vertex AI Model Garden.
- Mengurangi latensi prediksi.
- Meningkatkan performa kode notebook Vertex AI Workbench.
- Meningkatkan performa runtime Colab Enterprise.
GKE dan Slurm
Platform orkestrasi berskala besar, seperti GKE, ideal untuk menyediakan cluster besar yang dapat digunakan untuk melatih dan meningkatkan kualitas model ML berskala besar. Model ML skala besar adalah model yang menggunakan data dalam jumlah besar.
Platform orkestrasi berikut tersedia di Google Cloud.
Google Kubernetes Engine (GKE): adalah layanan yang dapat Anda gunakan untuk men-deploy dan mengoperasikan aplikasi dalam container dalam skala besar menggunakan infrastruktur Google.
Slurm: adalah alat pengelolaan cluster dan penjadwalan tugas open source. Di Google Cloud, Anda dapat men-deploy cluster Slurm menggunakan Cloud HPC Toolkit.
Jalankan pelatihan dan fine-tuning model berskala besar
Untuk melatih atau meningkatkan kualitas model berskala besar, sebaiknya gunakan cluster mesin a3-megagpu-8g
dan deploy dengan penjadwal seperti GKE atau Slurm.
Opsi deployment |
Panduan deployment |
Slurm |
|
GKE |
Jalankan pelatihan dan fine-tuning model umum
Untuk pelatihan dan penyesuaian model umum, sebaiknya gunakan
a3-highgpu-8g
standar, atau jenis mesin A2 atau G2 dan deploy dengan
penjadwal seperti GKE atau Slurm.
Opsi deployment |
Panduan deployment |
Beban kerja |
GKE |
Inferensi: Menyajikan model di GKE Pelatihan: Melatih model di GKE |
|
Slurm |
Compute Engine
Anda juga dapat membuat dan mengelola satu VM atau cluster VM yang lebih kecil dengan GPU terpasang di Compute Engine. Metode ini cocok untuk menjalankan workload yang membutuhkan grafis intensif.
Opsi deployment |
Panduan deployment |
Membuat grup instance terkelola (MIG) |
|
Membuat VM secara massal |
|
Membuat satu VM |
|
Membuat workstation virtual |