Exécuter l'inférence LLM sur les GPU Cloud Run avec Hugging Face Transformers.js (services)

L'atelier de programmation suivant montre comment exécuter un service de backend qui exécute le package Transformers.js. Le package Transformers.js est fonctionnellement équivalent à la bibliothèque Python Hugging Face Transformers et au modèle Gemma 2 de Google.

Pour accéder à l'intégralité de l'atelier de programmation, consultez la section Exécuter Transformers.js sur des GPU Cloud Run.