Menjalankan inferensi batch menggunakan GPU pada tugas Cloud Run

Anda dapat menjalankan inferensi batch dengan LLM Llama 3.2-1b Meta dan vLLM pada tugas Cloud Run, lalu menulis hasilnya langsung ke Cloud Storage menggunakan pemasangan volume Cloud Run.

Lihat codelab petunjuk langkah demi langkah di Cara menjalankan inferensi batch pada tugas Cloud Run.