LLM-Inferenz auf Cloud Run-GPUs mit Hugging Face Transformers.js (Dienste) ausführen

Im folgenden Codelab wird gezeigt, wie Sie einen Backend-Dienst ausführen, in dem das Transformers.js-Paket ausgeführt wird. Das Transformers.js-Paket ist funktional mit der Hugging Face Transformers Python-Bibliothek und dem Gemma 2-Modell von Google identisch.

Das vollständige Codelab finden Sie unter Transformers.js auf Cloud Run-GPUs ausführen.