A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
La funzionalità Confronta ti consente di vedere in che modo un prompt, un modello o un'impostazione di parametri diversi modificano l'output del modello. Puoi visualizzare ogni prompt e le relative risposte fianco a fianco per confrontarli e analizzarli nei seguenti modi:
Con un nuovo prompt.
Con un altro prompt salvato.
Con un dato di fatto.
Prima di iniziare
Per accedere alla funzionalità Confronta, segui questi passaggi:
Nella console Google Cloud , vai alla pagina Crea prompt.
Seleziona Confronta. Viene visualizzata la pagina Confronta.
Creare un prompt nella funzionalità Confronta
Nella pagina Confronta, puoi creare un prompt prima di selezionarne un altro
per confrontare i risultati.
Per creare un prompt:
Nel campo Nuovo prompt, inserisci il prompt.
Fai clic su Invia prompt. La risposta del modello viene visualizzata sotto il testo del prompt
che hai inserito.
Fai clic su Salva come nuovo. Viene visualizzata una finestra di dialogo Richiesta di salvataggio.
Inserisci il nome del nuovo prompt nel campo Nome prompt.
Seleziona la tua regione nel campo Regione o lascia la regione predefinita.
Se si applica una chiave di crittografia gestita dal cliente (CMEK), procedi nel seguente modo:
Seleziona la casella di controllo Chiave di crittografia gestita dal cliente (CMEK).
Seleziona una chiave dal campo Seleziona una chiave Cloud KMS.
Fai clic su Salva, che salva il prompt nell'elenco dei prompt da utilizzare nella pagina
Confronta il prompt salvato.
Fai clic su Invia prompt per confrontare i prompt e le relative risposte.
Puoi aggiornare i prompt e salvare le versioni aggiornate come nuovi prompt.
Confronta con un nuovo prompt
Per confrontare il prompt salvato con un nuovo prompt:
Fai clic su Confronta il nuovo prompt. Viene visualizzato un riquadro Confronta.
(Facoltativo) Fai clic su Cambia modello per utilizzare un modello diverso da quello predefinito.
(Facoltativo) Espandi Output.
Output:
(Facoltativo) Se vuoi che il modello generi output in un formato specifico, ad esempio JSON, fai clic sul pulsante di attivazione/disattivazione Output strutturato. Dopo aver selezionato
Output strutturato, le opzioni di grounding vengono disattivate perché
il grounding non è supportato con l'output strutturato.
(Facoltativo) Modifica il Budget di pensiero in una delle
seguenti opzioni:
Auto: il modello pensa solo quando è necessario. Il modello
regola la quantità di tempo che dedica a pensare o analizzare una situazione in base a ciò che è
necessario in quel momento.
Manuale: puoi modificare i token del budget di pensiero.
Off: non vengono utilizzati né il pensiero né i budget.
(Facoltativo) Espandi Strumenti.
Strumenti:
Seleziona una delle seguenti opzioni:
Grounding: Google: grounding con la Ricerca Google o Google Maps.
Fondatezza: i tuoi dati: grounding con Vertex AI RAG Engine, Vertex AI Search o Elasticsearch.
Se selezioni Grounding: Your data, seleziona l'origine dati che vuoi utilizzare.
(Facoltativo) Espandi Avanzate:
Avanzato:
Seleziona Regione.
Seleziona Impostazioni del filtro di sicurezza. Viene visualizzata una finestra di dialogo. Mantieni l'impostazione
predefinita Off oppure specifica Blocca
pochi, Blocca alcuni o Blocca la maggior parte per ciascuna delle seguenti opzioni:
Incitamento all'odio: commenti negativi o dannosi rivolti all'identità o agli attributi protetti.
Contenuti pericolosi: promuovono o consentono l'accesso a beni, servizi e attività dannosi.
Contenuti sessualmente espliciti: contiene riferimenti ad atti sessuali o ad altri contenuti osceni.
Contenuti che costituiscono molestie: commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo.
Fai clic su Salva per salvare le impostazioni e chiudere la finestra di dialogo.
Seleziona la temperatura dal campo Temperatura. La
temperatura controlla il grado di casualità nella selezione dei token. Una temperatura
più bassa è ideale quando ci si aspetta una risposta vera o corretta. Una
temperatura più alta può portare a risultati diversificati o imprevisti.
Seleziona il limite di token di output dal campo Limite di token di output. Il limite di token di output determina la quantità massima di output di testo
da un prompt. Un token equivale a circa quattro caratteri.
Seleziona il numero massimo di risposte dal campo Risposte massime.
Se il numero massimo di risposte del modello generate per prompt.
A causa di filtri di sicurezza o di altre norme, le risposte possono essere ancora bloccate.
Seleziona un valore dal campo Top-P. Top-p cambia il modo in cui
il modello seleziona i token per l'output.
Fai clic sul pulsante di attivazione/disattivazione nel campo Risposte dinamiche. Se
selezionata, le risposte vengono stampate man mano che vengono generate.
Inserisci una sequenza di interruzioni nel campo Aggiungi sequenza di interruzioni. Premi
Invio dopo ogni sequenza.
Fai clic su Salva per salvare le modifiche alle impostazioni.
Fai clic su Applica.
Fai clic su Invia prompt per confrontare i prompt e le relative risposte.
Per confrontare il prompt salvato con un altro prompt salvato:
Fai clic su Confronta il prompt salvato. Viene visualizzato il riquadro Prompt esistente.
Scegli fino a due prompt esistenti da confrontare.
Seleziona un nome prompt. Se nell'elenco sono presenti molti prompt, fai clic
nel campo Filtro e seleziona la proprietà in base alla quale
filtrare. Inserisci un valore e premi Invio.
Fai clic su Applica. La pagina Confronta mostra il prompt che hai
selezionato insieme ad altri prompt che hai creato o selezionato per
il confronto.
Fai clic su Invia prompt per confrontare i prompt e le relative risposte.
Confrontare con i dati di riferimento
La risposta basata su dati di fatto è la risposta preferita al prompt. Tutte le altre risposte del modello
vengono valutate rispetto alla risposta basata su dati di fatto.
Per confrontare il prompt salvato con una verità di riferimento:
Fai clic su Verità di riferimento. Viene visualizzato il riquadro Verità di riferimento.
Inserisci i dati di riferimento per generare altre metriche di valutazione.
Fai clic su Salva per salvare la verità di riferimento.
Fai clic su Invia prompt per confrontare i prompt e le relative risposte.
Le metriche di valutazione generate quando confronti un prompt con un
dato di fatto non sono influenzate dalla regione selezionata.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Compare prompts\n\nThe Compare feature lets you see how a different prompt, model, or a parameter\nsetting changes the model's output. You can view each of the prompts and their\nresponses side by side to compare and analyze in the following ways:\n\n- With a new prompt.\n- With another saved prompt.\n- With a ground truth.\n\n| **Note:** The Compare feature doesn't support prompts with media or chat prompts with more than one exchange.\n\nBefore you begin\n----------------\n\nTo access the Compare feature, follow these steps:\n\n1. In the Google Cloud console, go to the **Create prompt** page.\n\n [Go to Create prompt](https://console.cloud.google.com/vertex-ai/studio/multimodal)\n2. Select **Compare** . The **Compare** page appears.\n\nCreate a prompt in the Compare feature\n--------------------------------------\n\nOn the **Compare** page, you can create a prompt before selecting another prompt\nto compare results.\n\nTo create a prompt, follow these steps:\n\n1. In the **New Prompt** field, enter your prompt.\n\n2. Click **Submit prompts**. The model's response appears below the prompt text\n that you entered.\n\n3. Click **Save as new** . A **Save prompt** dialog appears.\n\n4. Enter the name of your new prompt in the **Prompt name** field.\n\n5. Select your region in the **Region** field, or leave it as the default region.\n\n6. If a customer-managed encryption key (CMEK) applies, do the following:\n\n 1. Select the **Customer-managed encryption key (CMEK)** checkbox.\n 2. Select a key from the **Select a Cloud KMS key** field.\n7. Click **Save** , which saves your prompt in the list of prompts to use on\n the **Compare saved prompt** page.\n\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nYou can update your prompts, and save updated versions as new prompts.\n\nCompare with a new prompt\n-------------------------\n\nTo compare your saved prompt with a new prompt, follow these steps:\n\n1. Click **Compare new prompt** . A **Compare** pane appears.\n2. Optional: Click **Switch model** to use a different model from the default model.\n3. Optional: Expand **Outputs**. \n\n##### Outputs:\n\n1. Optional: If you want the model to output in a specific format such as JSON, click the **Structured output** toggle. After you select **Structured output**, the Grounding options are turned off, because grounding isn't supported with structured output.\n2. Optional: Change the **Thinking budget** to one of the following options:\n - **Auto**: The model only thinks when it needs to. The model adjusts how much it thinks or analyzes a situation based on what's needed at the time.\n - **Manual**: You can adjust the thinking budget tokens.\n - **Off**: No thinking or budgets are used.\n\n\u003c!-- --\u003e\n\n4. Optional: Expand **Tools**. \n\n##### Tools:\n\n1. Select one of the following options:\n - **Grounding: Google**: Grounding with Google Search or Google Maps.\n - **Grounding: Your data**: Grounding with Vertex AI RAG Engine, Vertex AI Search or Elasticsearch.\n 1. If you select **Grounding: Your data**, select the data source that you want to use.\n\n\u003c!-- --\u003e\n\n5. Optional: Expand **Advanced**: \n\n##### Advanced:\n\n1. Select **Region**.\n2. Select **Safety Filter Settings** . A dialog appears. Keep the default of **Off** , or you can specify **Block few** , **Block\n some** , or **Block most** for each of the following options:\n - **Hate speech**: Negative or harmful comments targeting identity or protected attributes.\n - **Dangerous content**: Promotes or enables access to harmful goods, services, and activities.\n - **Sexually explicit content**: Contains references to sexual acts or other lewd content.\n - **Harassment content**: Malicious, intimidating, bullying, or abusive comments targeting another individual.\n3. Click **Save** to save the settings and close the dialog.\n4. Select the temperature from the **Temperature** field. The temperature controls the randomness in token selection. A lower temperature is good when you expect a true or correct response. A higher temperature can lead to diverse or unexpected results.\n5. Select the output token limit from the **Output token limit** field. Output token limit determines the maximum amount of text output from one prompt. A token is approximately four characters.\n6. Select the maximum responses from the **Max responses** field. If the maximum number of model responses generated per prompt. Because of safety filters or other policies, responses can still be blocked.\n7. Select a value from the **Top-P** field. The Top-p changes how the model selects tokens for output.\n8. Click toggle on the **Stream model responses** field. If selected, the responses are printed as they're generated.\n9. Enter a stop sequence in the **Add stop sequence** field. Press **Enter** after each sequence.\n\n\u003c!-- --\u003e\n\n6. Click **Save** to save changes to your settings.\n7. Click **Apply**.\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nFor more information on token limits for each model, see [Control the thinking\nbudget](/vertex-ai/generative-ai/docs/thinking#budget).\n\nCompare with another saved prompt\n---------------------------------\n\nTo compare your saved prompt with another saved prompt, follow these steps:\n\n1. Click **Compare saved prompt** . The **Existing Prompt** pane appears.\n2. Choose up to two existing prompts to compare.\n\n 1. Select a **Prompt name** . If you have many prompts in your list, click in the **Filter** field, and select the property that you want to filter by. Enter a value, and press \u003ckbd\u003eEnter\u003c/kbd\u003e.\n 2. Click **Apply** . The **Compare** page displays the prompt that you've selected alongside other prompts that you've created or selected for comparison.\n3. Click **Submit prompts** to compare the prompts and their responses.\n\nCompare with a ground truth\n---------------------------\n\nGround truth is your preferred answer to the prompt. All other model responses\nare evaluated against the ground truth answer.\n\nTo compare your saved prompt with a ground truth, follow these steps:\n\n1. Click **Ground truth** . The **Ground truth** pane appears.\n2. Enter your ground truth to generate additional evaluation metrics.\n3. Click **Save** to save the ground truth.\n4. Click **Submit prompts** to compare the prompts and their responses.\n\nThe evaluation metrics that are generated when you compare a prompt with a\nground truth aren't affected by the region that you select.\n\nWhat's next\n-----------\n\n- Explore more examples of prompts in the [Prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery).\n- For more information about evaluating your models, see [Gen AI evaluation service\n overview](/vertex-ai/generative-ai/docs/models/evaluation-overview)."]]