Creare prompt per Gemini in Vertex AI Studio
Usa Vertex AI Studio per progettare, testare e personalizzare i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google. Puoi visualizzare l'API Gemini in Vertex AI e il codice dell'API Vertex AI utilizzato per generare le risposte.
Da Vertex AI Studio, puoi completare quanto segue:
- Testa i modelli utilizzando gli esempi di prompt forniti
- Progettare e gestire i tuoi prompt
- Confronta l'output del prompt in base al modello
- Valuta i tuoi prompt in base a metriche di qualità selezionate
- Ottimizza i modelli per ottenere risposte personalizzate
- Output del modello di terra in Vertex AI Search o nella Ricerca Google
- Acquisisci il codice dell'API Vertex AI per implementare il tuo lavoro
Per iniziare, crea un account Google Cloud
Per provare questa guida rapida, devi creare un account Google Cloud. Con questo account riceverai 300 $di credito gratuito, oltre all'utilizzo gratuito di oltre 20 prodotti, senza alcun addebito sul tuo credito di 300 $.
Inizia gratuitamentePer maggiori informazioni sulla configurazione su Google Cloud dopo la creazione dell'account, consulta Configurazione su Google Cloud.
Testare un modello linguistico dalla galleria dei prompt
- Vai alla pagina Vertex AI Studio dalla sezione Vertex AI
nella console Google Cloud.
Vertex AI Studio - Fai clic su Apri in corrispondenza dell'opzione Modello linguistico.
- In Language Studio, vai alla sezione Riassunto della Galleria dei prompt e seleziona Apri nell'esempio del prompt
Transcript Summary
. Il prompt, il modello e i parametri vengono precompilati con i valori del prompt di esempio. - Fai clic su Invia per ricevere una risposta dal modello Gemini predefinito. Scorri per vedere tutti i risultati.
- Per visualizzare risultati diversi, modifica il modello nel menu a discesa del modello e regola i parametri.
- Fai clic su Genera codice per visualizzare il codice dell'API Vertex AI necessario per generare un riepilogo della trascrizione.
Progettare e testare il prompt
Puoi creare e testare i tuoi prompt (input) per attività pertinenti al tuo caso d'uso aziendale e generare risposte. Aggiungendo input e output, l'LLM è in grado di apprendere nel contesto dagli esempi di risposte.
Puoi creare un prompt, che fornisce un'istruzione precisa, e chiedere all'LLM di completare una frase per te o di rispondere a domande una tantum.
- Vai alla pagina Vertex AI Studio dalla sezione Vertex AI
nella console Google Cloud.
Vertex AI Studio - Fai clic su Apri in corrispondenza dell'opzione Modello linguistico.
- Fai clic su Prompt di testo nell'opzione
Generate text
. Si apre un prompt senza titolo. - Nella finestra di prompt, aggiungi una descrizione chiara e concisa dell'attività che vuoi che il modello esegua.
- Ad esempio, chiedi al modello Gemini di
Suggest a name for a flower shop that sells bouquets of dried flowers
. - Fai clic su Invia.
- Le risposte vengono visualizzate nella casella delle risposte. Se vuoi visualizzare risultati diversi, modifica il prompt, il modello o i parametri e fai clic su Invia.
- Fai clic su Genera codice per visualizzare il codice dell'API Vertex AI necessario per generare una risposta simile.
Categorie di prompt di Vertex AI Studio
In Vertex AI Studio puoi testare e personalizzare i prompt per diversi modelli di IA generativa.
- Multimodale: testa i prompt multimodali utilizzando modelli multimodali come Gemini 1.5 Pro e Gemini 1.0 Pro Vision. Per saperne di più, consulta Modelli multimodali di Gemini.
- Lingua: prova i prompt linguistici utilizzando una serie di modelli linguistici. Per scoprire di più su questi modelli, consulta Modelli multimodali di Gemini e Panoramica dei modelli linguistici.
- Visione: testa la generazione di modelli di immagine utilizzando Imagen su Vertex AI.
- Voce: consente di effettuare conversioni di sintesi vocale e sintesi vocale. Per farlo, usa il modello Chirp. Per scoprire di più su Chirp, consulta Chirp: Universal Speech Model.
Esplorare i prompt nella galleria dei prompt
Gli esempi di prompt sono disponibili nelle sezioni Multimodale e Lingua di Vertex AI Studio e contengono una varietà di prompt di esempio preconfigurati per dimostrare le funzionalità del modello. I prompt di esempio sono classificati in base al tipo di attività, ad esempio riepilogo, classificazione ed estrazione. Ogni prompt è preconfigurato con valori di modello e parametri specificati, quindi puoi aprire il prompt di esempio e fare clic su Invia per ottenere il modello in modo che generi una risposta.
Progettare e gestire i tuoi prompt
La progettazione dei prompt è il processo di creazione manuale di prompt che generano la risposta prevista da un modello linguistico. Creando con attenzione i prompt, puoi spronare il modello a generare un buon risultato per il tuo caso d'uso. La progettazione dei prompt può essere un modo efficiente per sperimentare l'output del modello.
Vertex AI Studio consente al tuo team di creare, salvare e perfezionare in modo collaborativo i prompt. Quando progetti un nuovo prompt, puoi inserire il testo, scegliere il modello ideale, regolare i parametri e testarlo per ricevere un feedback immediato. Quando un prompt è stato finalizzato, puoi salvarlo all'interno del tuo progetto condiviso in Vertex AI Studio.
Per iniziare a progettare i prompt, consulta Introduzione ai prompt.
Confronta l'output del prompt in base al modello
In Vertex AI Studio, puoi confrontare i risultati dei prompt per vedere quale accoppiamento di modello e impostazioni è più adatto al tuo caso d'uso.
Nella scheda Lingua, visualizza i prompt e seleziona Confronta accanto a quelli che vuoi confrontare. Puoi confrontare fino a tre prompt affiancati.
Gestione del ciclo di vita dei prompt
Se hai molti prompt, devi avere una posizione centralizzata per gestirli. Nelle pagine Multimodale e Lingua, puoi visualizzare tutti i tuoi prompt per tipo nella scheda I miei prompt. Da queste pagine puoi versioni dei prompt, ripristinare le versioni precedenti, eliminare, esportare e gestire la denominazione dei prompt. Puoi anche aggiungere note ai prompt per la conservazione dei dati e per collaborare centralmente con il team dei prompt.
Basato sui prompt di Vertex AI Studio
Nell'AI generativa, il grounding è la capacità di collegare l'output del modello linguistico a fonti di informazioni verificabili. Dalle pagine Multimodale e Lingua di Vertex AI Studio, puoi scegliere di basare l'output del modello su Vertex AI Search o nella Ricerca Google. Per scoprire di più sul grounding, consulta la Panoramica del grounding. Per scoprire di più sull'esecuzione del grounding dell'output del modello nella Ricerca Google, consulta Grounding con la Ricerca Google.
Esplora i modelli di AI generativa in Model Garden
Model Garden è una piattaforma che consente di scoprire, testare, personalizzare ed eseguire il deployment di modelli e asset OSS di proprietà di Google e selezionati. Per esplorare le API e i modelli di IA generativa disponibili su Vertex AI, vai a Model Garden nella console Google Cloud.
Per scoprire di più su Model Garden, inclusi i modelli e le funzionalità disponibili, consulta Esplorazione dei modelli di IA in Model Garden.
Ottimizza un modello di base
Sebbene la progettazione dei prompt sia ottima per una rapida sperimentazione, se sono disponibili dati di addestramento, è possibile ottenere una qualità superiore ottimizzando il modello stesso. L'ottimizzazione di un modello ti consente di personalizzare la risposta in base a esempi dell'attività che vuoi che esegua.
Per scoprire come ottimizzare un modello di base, consulta Ottimizzare i modelli di base.
Usa Vertex AI Studio per progettare, testare e personalizzare i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google. Dopo che un LLM ha elaborato il prompt, ti invia la sua risposta. Per scoprire di più su Vertex AI Studio, consulta Sperimentare i modelli in Vertex AI Studio.
Passaggi successivi
- Scopri di più sulla progettazione dei prompt di testo e sui messaggi per le chat di testo.
- Scopri di più sugli incorporamenti di testo.
- Prova a ottimizzare un modello di base linguistico.
- Scopri le best practice per l'IA responsabile e i filtri di sicurezza di Vertex AI.
- Scopri di più sull'invio di risposte dinamiche da un modello.