Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Mit der Funktion „Vergleichen“ können Sie sehen, wie sich ein anderer Prompt, ein anderes Modell oder eine andere Parametereinstellung auf die Ausgabe des Modells auswirkt. Sie können sich die einzelnen Prompts und ihre Antworten nebeneinander ansehen, um sie auf folgende Weise zu vergleichen und zu analysieren:
Mit einem neuen Prompt.
Mit einem anderen gespeicherten Prompt.
Mit einer Ground Truth.
Hinweise
So greifen Sie auf die Funktion „Vergleichen“ zu:
Rufen Sie in der Google Cloud Console die Seite Prompt erstellen auf.
Wählen Sie Vergleichen aus. Die Seite Vergleichen wird angezeigt.
Prompt in der Funktion „Vergleichen“ erstellen
Auf der Seite Vergleichen können Sie einen Prompt erstellen, bevor Sie einen anderen Prompt auswählen, um die Ergebnisse zu vergleichen.
So erstellen Sie einen Prompt:
Geben Sie im Feld Neuer Prompt Ihren Prompt ein.
Klicken Sie auf Prompts senden. Die Antwort des Modells wird unter dem eingegebenen Prompt-Text angezeigt.
Klicken Sie auf Als neu speichern. Das Dialogfeld Speichern wird angezeigt.
Geben Sie den Namen Ihres neuen Prompts in das Feld Promptname ein.
Wählen Sie im Feld Region Ihre Region aus oder behalten Sie die Standardregion bei.
Wenn ein vom Kunden verwalteter Verschlüsselungsschlüssel (CMEK) angewendet wird, gehen Sie so vor:
Klicken Sie das Kästchen Vom Kunden verwalteter Verschlüsselungsschlüssel (CMEK) an.
Wählen Sie im Feld Cloud KMS-Schlüssel auswählen einen Schlüssel aus.
Klicken Sie auf Speichern. Ihr Prompt wird dann in der Liste der Prompts gespeichert, die auf der Seite Gespeicherten Prompt vergleichen verwendet werden können.
Klicken Sie auf Prompts einreichen, um die Prompts und ihre Antworten zu vergleichen.
Sie können Ihre Prompts aktualisieren und die aktualisierten Versionen als neue Prompts speichern.
Mit einem neuen Prompt vergleichen
So vergleichen Sie Ihren gespeicherten Prompt mit einem neuen Prompt:
Klicken Sie auf Neuen Prompt vergleichen. Der Bereich Vergleichen wird angezeigt.
Optional: Klicken Sie auf Modell wechseln, um ein anderes Modell als das Standardmodell zu verwenden.
Optional: Maximieren Sie Ausgaben.
Ausgaben:
Optional: Wenn Sie möchten, dass das Modell die Ausgabe in einem bestimmten Format wie JSON erstellt, klicken Sie auf den Schalter Strukturierte Ausgabe. Nachdem Sie Strukturierte Ausgabe ausgewählt haben, werden die Fundierungsoptionen deaktiviert, da Fundierung bei strukturierter Ausgabe nicht unterstützt wird.
Optional: Ändern Sie das Budget für die Denkphase in eine der folgenden Optionen:
Automatisch: Das Modell denkt nur, wenn es muss. Das Modell passt an, wie viel es denkt oder eine Situation analysiert, je nachdem, was gerade erforderlich ist.
Manuell: Sie können die Tokens für das Budget für Denkprozesse anpassen.
Aus: Es werden keine Denkprozesse oder Budgets verwendet.
Optional: Maximieren Sie Tools.
Tools:
Wählen Sie eine der folgenden Optionen aus:
Fundierung: Google: Fundierung mit der Google Suche oder Google Maps.
Fundierung: Meine Daten: Fundierung mit Vertex AI RAG Engine, Vertex AI Search oder Elasticsearch.
Wenn Sie Fundierung: Ihre Daten auswählen, wählen Sie die Datenquelle aus, die Sie verwenden möchten.
Optional: Maximieren Sie Erweitert:
Erweitert:
Wählen Sie Region aus.
Wählen Sie Einstellungen für Sicherheitsfilter aus. Ein Dialogfeld wird angezeigt. Behalten Sie die Standardeinstellung Aus bei oder geben Sie für jede der folgenden Optionen Wenige blockieren, Einige blockieren oder Meiste blockieren an:
Hassrede: Negative oder schädliche Kommentare, die auf Identität oder geschützte Merkmale ausgerichtet sind.
Gefährliche Inhalte: Inhalte, die schädliche Waren, Dienstleistungen und Aktivitäten fördern oder den Zugriff darauf ermöglichen.
Sexuell explizite Inhalte: Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte.
Belästigende Inhalte: Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind.
Klicken Sie auf Speichern, um die Einstellungen zu speichern und das Dialogfeld zu schließen.
Wählen Sie die Temperatur im Feld Temperatur aus. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Eine niedrigere Temperatur ist geeignet, wenn Sie eine faktisch korrekte Antwort erwarten. Eine höhere Temperatur kann zu unterschiedlichen oder unerwarteten Ergebnissen führen.
Wählen Sie im Feld Tokenausgabelimit das gewünschte Limit aus. Das Tokenausgabelimit legt die maximale Textmenge fest, die für einen Prompt ausgegeben wird. Ein Token besteht aus etwa vier Zeichen.
Wählen Sie im Feld Max. Antworten die maximale Anzahl der Antworten aus.
Die maximale Anzahl von Modellantworten, die pro Prompt generiert werden.
Antworten können aufgrund von Sicherheitsfiltern oder anderen Richtlinien blockiert werden.
Wählen Sie einen Wert aus dem Feld Top-P aus. Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt.
Klicken Sie auf das Ein/Aus-Schaltersymbol im Feld Modellantworten streamen. Wenn diese Option ausgewählt ist, werden die Antworten ausgedruckt, sobald sie generiert werden.
Geben Sie im Feld Stoppsequenz hinzufügen eine Stoppsequenz ein. Drücken Sie nach jeder Sequenz die Eingabetaste.
Klicken Sie auf Speichern, um die Änderungen an Ihren Einstellungen zu speichern.
Klicken Sie auf Übernehmen.
Klicken Sie auf Prompts einreichen, um die Prompts und ihre Antworten zu vergleichen.
Weitere Informationen zu den Tokenlimits für die einzelnen Modelle finden Sie unter Denkbudget steuern.
Mit einem anderen gespeicherten Prompt vergleichen
So vergleichen Sie Ihren gespeicherten Prompt mit einem anderen gespeicherten Prompt:
Klicken Sie auf Gespeicherten Prompt vergleichen. Der Bereich Vorhandener Prompt wird angezeigt.
Wählen Sie bis zu zwei vorhandene Prompts zum Vergleichen aus.
Wählen Sie einen Aufforderungsnamen aus. Wenn Sie viele Prompts in Ihrer Liste haben, klicken Sie in das Feld Filter und wählen Sie die Eigenschaft aus, nach der Sie filtern möchten. Geben Sie einen Wert ein und drücken Sie die Eingabetaste.
Klicken Sie auf Übernehmen. Auf der Seite Vergleichen wird der ausgewählte Prompt zusammen mit anderen Prompts angezeigt, die Sie erstellt oder zum Vergleich ausgewählt haben.
Klicken Sie auf Prompts einreichen, um die Prompts und ihre Antworten zu vergleichen.
Mit einer Ground-Truth-Datei vergleichen
Die Grundwahrheit ist Ihre bevorzugte Antwort auf den Prompt. Alle anderen Modellantworten werden anhand der Grundwahrheit bewertet.
So vergleichen Sie Ihren gespeicherten Prompt mit einer Ground Truth:
Klicken Sie auf Ground Truth. Der Bereich Wahrheit wird angezeigt.
Geben Sie Ihre Grundwahrheit ein, um zusätzliche Bewertungsmesswerte zu generieren.
Klicken Sie auf Speichern, um die Ground Truth zu speichern.
Klicken Sie auf Prompts einreichen, um die Prompts und ihre Antworten zu vergleichen.
Die Bewertungs-Messwerte, die beim Vergleich eines Prompts mit einem Ground Truth generiert werden, sind nicht von der ausgewählten Region betroffen.
Nächste Schritte
Weitere Beispiele für Prompts finden Sie in der Prompt-Galerie.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[],[],null,["# Compare prompts\n\nThe Compare feature lets you see how a different prompt, model, or a parameter\nsetting changes the model's output. You can view each of the prompts and their\nresponses side by side to compare and analyze in the following ways:\n\n- With a new prompt.\n- With another saved prompt.\n- With a ground truth.\n\n| **Note:** The Compare feature doesn't support prompts with media or chat prompts with more than one exchange.\n\nBefore you begin\n----------------\n\nTo access the Compare feature, follow these steps:\n\n1. In the Google Cloud console, go to the **Create prompt** page.\n\n [Go to Create prompt](https://console.cloud.google.com/vertex-ai/studio/multimodal)\n2. Select **Compare** . The **Compare** page appears.\n\nCreate a prompt in the Compare feature\n--------------------------------------\n\nOn the **Compare** page, you can create a prompt before selecting another prompt\nto compare results.\n\nTo create a prompt, follow these steps:\n\n1. In the **New Prompt** field, enter your prompt.\n\n2. Click **Submit prompts**. The model's response appears below the prompt text\n that you entered.\n\n3. Click **Save as new** . A **Save prompt** dialog appears.\n\n4. Enter the name of your new prompt in the **Prompt name** field.\n\n5. Select your region in the **Region** field, or leave it as the default region.\n\n6. If a customer-managed encryption key (CMEK) applies, do the following:\n\n 1. Select the **Customer-managed encryption key (CMEK)** checkbox.\n 2. Select a key from the **Select a Cloud KMS key** field.\n7. Click **Save** , which saves your prompt in the list of prompts to use on\n the **Compare saved prompt** page.\n\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nYou can update your prompts, and save updated versions as new prompts.\n\nCompare with a new prompt\n-------------------------\n\nTo compare your saved prompt with a new prompt, follow these steps:\n\n1. Click **Compare new prompt** . A **Compare** pane appears.\n2. Optional: Click **Switch model** to use a different model from the default model.\n3. Optional: Expand **Outputs**. \n\n##### Outputs:\n\n1. Optional: If you want the model to output in a specific format such as JSON, click the **Structured output** toggle. After you select **Structured output**, the Grounding options are turned off, because grounding isn't supported with structured output.\n2. Optional: Change the **Thinking budget** to one of the following options:\n - **Auto**: The model only thinks when it needs to. The model adjusts how much it thinks or analyzes a situation based on what's needed at the time.\n - **Manual**: You can adjust the thinking budget tokens.\n - **Off**: No thinking or budgets are used.\n\n\u003c!-- --\u003e\n\n4. Optional: Expand **Tools**. \n\n##### Tools:\n\n1. Select one of the following options:\n - **Grounding: Google**: Grounding with Google Search or Google Maps.\n - **Grounding: Your data**: Grounding with Vertex AI RAG Engine, Vertex AI Search or Elasticsearch.\n 1. If you select **Grounding: Your data**, select the data source that you want to use.\n\n\u003c!-- --\u003e\n\n5. Optional: Expand **Advanced**: \n\n##### Advanced:\n\n1. Select **Region**.\n2. Select **Safety Filter Settings** . A dialog appears. Keep the default of **Off** , or you can specify **Block few** , **Block\n some** , or **Block most** for each of the following options:\n - **Hate speech**: Negative or harmful comments targeting identity or protected attributes.\n - **Dangerous content**: Promotes or enables access to harmful goods, services, and activities.\n - **Sexually explicit content**: Contains references to sexual acts or other lewd content.\n - **Harassment content**: Malicious, intimidating, bullying, or abusive comments targeting another individual.\n3. Click **Save** to save the settings and close the dialog.\n4. Select the temperature from the **Temperature** field. The temperature controls the randomness in token selection. A lower temperature is good when you expect a true or correct response. A higher temperature can lead to diverse or unexpected results.\n5. Select the output token limit from the **Output token limit** field. Output token limit determines the maximum amount of text output from one prompt. A token is approximately four characters.\n6. Select the maximum responses from the **Max responses** field. If the maximum number of model responses generated per prompt. Because of safety filters or other policies, responses can still be blocked.\n7. Select a value from the **Top-P** field. The Top-p changes how the model selects tokens for output.\n8. Click toggle on the **Stream model responses** field. If selected, the responses are printed as they're generated.\n9. Enter a stop sequence in the **Add stop sequence** field. Press **Enter** after each sequence.\n\n\u003c!-- --\u003e\n\n6. Click **Save** to save changes to your settings.\n7. Click **Apply**.\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nFor more information on token limits for each model, see [Control the thinking\nbudget](/vertex-ai/generative-ai/docs/thinking#budget).\n\nCompare with another saved prompt\n---------------------------------\n\nTo compare your saved prompt with another saved prompt, follow these steps:\n\n1. Click **Compare saved prompt** . The **Existing Prompt** pane appears.\n2. Choose up to two existing prompts to compare.\n\n 1. Select a **Prompt name** . If you have many prompts in your list, click in the **Filter** field, and select the property that you want to filter by. Enter a value, and press \u003ckbd\u003eEnter\u003c/kbd\u003e.\n 2. Click **Apply** . The **Compare** page displays the prompt that you've selected alongside other prompts that you've created or selected for comparison.\n3. Click **Submit prompts** to compare the prompts and their responses.\n\nCompare with a ground truth\n---------------------------\n\nGround truth is your preferred answer to the prompt. All other model responses\nare evaluated against the ground truth answer.\n\nTo compare your saved prompt with a ground truth, follow these steps:\n\n1. Click **Ground truth** . The **Ground truth** pane appears.\n2. Enter your ground truth to generate additional evaluation metrics.\n3. Click **Save** to save the ground truth.\n4. Click **Submit prompts** to compare the prompts and their responses.\n\nThe evaluation metrics that are generated when you compare a prompt with a\nground truth aren't affected by the region that you select.\n\nWhat's next\n-----------\n\n- Explore more examples of prompts in the [Prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery).\n- For more information about evaluating your models, see [Gen AI evaluation service\n overview](/vertex-ai/generative-ai/docs/models/evaluation-overview)."]]