Utilizzare i modelli di generazione del testo di Hugging Face

HuggingFace fornisce modelli preaddestrati, script di ottimizzazione e API di sviluppo che semplificano il processo di creazione e scoperta degli LLM. Model Garden supporta inferenza per l'incorporamento del testo e Normal Pytorch Inference supporta i modelli più diffusi in Huggingface e tutti i modelli supportati da inferenza della generazione di testo in HuggingFace.

Opzioni di relative al deployment

Per eseguire il deployment di un modello Hugging Face supportato, vai a Model Garden e fai clic su Deploy from Hugging Face.

Esegui il deployment in Vertex AI

Vertex AI offre una piattaforma gestita per la creazione e la scalabilità per i progetti di machine learning senza esperienza MLOps interna. Puoi utilizzare la modalità Vertex AI come applicazione downstream che gestisce Modelli di Hugging Face. È consigliabile utilizzare Vertex AI se vuoi funzionalità MLOps end-to-end, ML a valore aggiunto e un'esperienza serverless per uno sviluppo semplificato.

Per iniziare, guarda i seguenti esempi:

Esegui il deployment in GKE

Google Kubernetes Engine (GKE) è la soluzione Google Cloud per Kubernetes gestito che offre scalabilità, sicurezza, resilienza e costi efficace. Ti consigliamo questa opzione se hai degli asset Kubernetes esistenti, investimenti, la tua organizzazione dispone di competenze MLOps interne o se hai bisogno un controllo granulare sui carichi di lavoro di AI/ML complessi con sicurezza, dati pipeline e requisiti di gestione delle risorse.

Per iniziare, guarda i seguenti esempi: