Panoramica dei modelli linguistici

Puoi accedere ai modelli linguistici di IA generativa di Google, ottimizzarli ed eseguirne il deployment utilizzando l'API Vertex AI PaLM e le API Vertex AI Codey. Utilizza i modelli linguistici per eseguire una serie di flussi di lavoro di Vertex AI, ad esempio utilizzare le API per interagire con i modelli ed eseguire il deployment dei modelli su un blocco note Jupyter. Puoi anche personalizzare i modelli linguistici per il tuo caso d'uso specifico eseguendo l'ottimizzazione del modello. Questa pagina fornisce una panoramica dei modelli linguistici disponibili, delle API utilizzate per interagire con i modelli e dei modi per personalizzarne i comportamenti.

Schema di denominazione dei modelli

I nomi dei modelli di base hanno due componenti: caso d'uso e dimensione del modello. La convenzione di denominazione è nel formato <use case>-<model size>. Ad esempio, text-bison rappresenta il modello di testo Bison.

Le dimensioni del modello sono:

  • Unicorn: il modello più grande della famiglia PaLM. I modelli Unicorn sono eccellenti per attività complesse come la programmazione e la catena di pensiero (CoT), grazie alle vaste conoscenze incorporate nel modello e alle sue capacità di ragionamento.
  • Bison: il modello PaLM con il miglior rapporto qualità-prezzo che gestisce un'ampia gamma di attività linguistiche, come la classificazione e il riepilogo. È ottimizzato per accuratezza e latenza a un costo ragionevole. Le interfacce di testo, chat, codice e codechat semplificano il deployment e l'integrazione nell'applicazione.
  • Gecko: il modello più piccolo e più economico per attività semplici.

Puoi utilizzare la versione stabile o l'ultima versione di un modello. Per ulteriori informazioni, consulta Versioni e ciclo di vita dei modelli.

API Vertex AI PaLM

L'API Vertex AI PaLM ti dà accesso alla famiglia di modelli PaLM 2, che supporta la generazione di testo in linguaggio naturale, incorporamenti di testo e codice (per la generazione di codice, consigliamo di utilizzare le API Vertex AI Codey. PaLM 2 è la seconda generazione del Pathways Language Model sviluppato da Google Labs. Utilizzando l'API Vertex AI PaLM, puoi sfruttare gli strumenti MLOps, la sicurezza, la sicurezza, la privacy e la scalabilità di livello aziendale offerti da Vertex AI.

L'API Vertex AI PaLM espone i modelli PaLM 2 utilizzando endpoint del publisher globale univoci per ogni progetto Google Cloud. Di seguito è riportato un esempio di endpoint del modello dell'editore:

https://us-central1-aiplatform.googleapis.com/v1/projects/your_project_id/locations/us-central1/publishers/google/models/text-bison:predict

L'API Vertex AI PaLM dispone di endpoint del publisher per i seguenti modelli PaLM 2:

  • text-bison: ottimizzato per eseguire attività basate sul linguaggio naturale, come classificazione, riepilogo, estrazione, creazione di contenuti e ideazione.
  • chat-bison: ottimizzato per la chat multi-turno, in cui il modello tiene traccia dei messaggi precedenti nella chat e li utilizza come contesto per generare nuove risposte.
  • textembedding-gecko: genera incorporamenti di testo per un determinato testo. Puoi utilizzare gli incorporamenti per attività come la ricerca semantica, i suggerimenti, la classificazione e il rilevamento di outlier.

Per scoprire di più su questi modelli, consulta Modelli disponibili.

API Vertex AI Codey

Le API Vertex AI Codey sono ottimizzate per supportare la generazione di codice, la chat del codice e il completamento del codice per diversi linguaggi di programmazione. Le API Vertex AI Codey si basano sulla famiglia di modelli PaLM 2. Per maggiori informazioni, consulta Panoramica dei modelli di codice.

Progettazione dei prompt

Per interagire con i modelli di base come PaLM 2, invii istruzioni in linguaggio naturale, chiamate anche prompt, che indicano al modello cosa vuoi che generi. Tuttavia, a volte gli LLM possono comportarsi in modi imprevedibili. La progettazione di prompt è un processo iterativo di prove ed errori che richiede tempo ed esercitazione per acquisire competenza. Per informazioni sulle strategie generali di progettazione dei prompt, consulta Introduzione alla progettazione dei prompt. Per indicazioni sulla progettazione di prompt specifici per le attività per il testo, consulta Progettare prompt di testo.

Ottimizzazione del modello

Se hai bisogno di personalizzare i modelli PaLM 2 per un caso d'uso specifico, puoi ottimizzarli utilizzando un set di dati di esempi di input e output. I modelli ottimizzati vengono automaticamente distribuiti su un nuovo endpoint del progetto per gestire le richieste. Per scoprire di più sull'ottimizzazione dei modelli, consulta Ottimizzare i modelli di base.

Passaggi successivi