Esegui l'inferenza LLM sulle GPU Cloud Run con vLLM (servizi)
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Il seguente codelab mostra come eseguire un servizio di backend che esegue vLLM,
di inferenza per i sistemi di produzione, insieme a Gemma 2 di Google,
un modello ottimizzato per l'istruzione con 2 miliardi di parametri.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Hard to understand","hardToUnderstand","thumb-down"],["Incorrect information or sample code","incorrectInformationOrSampleCode","thumb-down"],["Missing the information/samples I need","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-09-28 UTC."],[],[]]