在 Cloud Run 工作中使用 GPU 執行批次推論

您可以在 Cloud Run 工作上,使用 Meta 的 Llama 3.2-1b LLMvLLM 執行批次推論,然後使用 Cloud Run 磁碟區掛接,將結果直接寫入 Cloud Storage。

如需逐步操作說明,請參閱「How to run batch inference on Cloud Run jobs」程式碼研究室。