Execute a inferência de MDIs em GPUs do Cloud Run com o TGI do Hugging Face

O exemplo seguinte mostra como executar um serviço de back-end que executa o conjunto de ferramentas Hugging Face Text Generation Inference (TGI), que é um conjunto de ferramentas para implementar e publicar modelos de linguagem (conteúdo extenso) (MDIs/CEs), usando o Llama 3.

Veja o exemplo completo em Implemente o Llama 3.1 8B com o DLC do TGI no Cloud Run.