Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
La función Comparar te permite ver cómo un parámetro de configuración, un modelo o una instrucción diferente cambian el resultado del modelo. Puedes ver cada una de las instrucciones y sus respuestas una al lado de la otra para compararlas y analizarlas de las siguientes maneras:
Con una instrucción nueva
Con otra instrucción guardada
Con una verdad fundamental
Antes de comenzar
Para acceder a la función de comparación, sigue estos pasos:
En la consola de Google Cloud , ve a la página Crear instrucciones.
Seleccione Comparar. Aparecerá la página Comparar.
Cómo crear una instrucción en la función Comparar
En la página Comparar, puedes crear una instrucción antes de seleccionar otra para comparar los resultados.
Para crear una instrucción, sigue estos pasos:
En el campo New Prompt, ingresa tu instrucción.
Haz clic en Enviar instrucciones. La respuesta del modelo aparece debajo del texto de la instrucción que ingresaste.
Haz clic en Guardar como nueva. Aparecerá un cuadro de diálogo de Guardar.
Ingresa el nombre de tu nuevo mensaje en el campo Nombre del mensaje.
Selecciona tu región en el campo Región o déjala como la región predeterminada.
Si se aplica una clave de encriptación administrada por el cliente (CMEK), haz lo siguiente:
Selecciona la casilla de verificación Clave de encriptación administrada por el cliente (CMEK).
Selecciona una clave en el campo Selecciona una clave de Cloud KMS.
Haz clic en Guardar para guardar la instrucción en la lista de instrucciones que se usarán en la página Comparar instrucción guardada.
Haz clic en Enviar instrucciones para comparar las instrucciones y sus respuestas.
Puedes actualizar tus instrucciones y guardar las versiones actualizadas como instrucciones nuevas.
Comparar con una instrucción nueva
Para comparar el mensaje guardado con un mensaje nuevo, sigue estos pasos:
Haz clic en Comparar nueva instrucción. Aparecerá el panel Comparar.
Opcional: Haz clic en Cambiar modelo para usar un modelo diferente del predeterminado.
Opcional: Expande Salidas.
Outputs:
Opcional: Si quieres que el modelo genere la respuesta en un formato específico, como JSON, haz clic en el botón de activación Salida estructurada. Después de seleccionar Salida estructurada, se desactivan las opciones de fundamentación, ya que esta no se admite con la salida estructurada.
Opcional: Cambia el Presupuesto de consideración a una de las siguientes opciones:
Automático: El modelo solo piensa cuando es necesario. El modelo ajusta por cuánto tiempo piensa o analiza una situación en función de lo que se necesite en ese momento.
Manual: Puedes ajustar los tokens del presupuesto de pensamiento.
Desactivado: No se usan presupuestos ni pensamiento.
Expande Herramientas (opcional).
Herramientas:
Selecciona una de las siguientes opciones:
Fundamentación: Google: Fundamentación con la Búsqueda de Google o Google Maps.
Fundamentación: Tus datos: Fundamentación con RAG Engine de Vertex AI, Vertex AI Search o Elasticsearch.
Si seleccionas Fundamentación: Tus datos, elige la fuente de datos que deseas usar.
Opcional: Expande Avanzado:
Avanzado:
Selecciona la Región.
Selecciona Configuración del filtro de seguridad. Aparecerá un cuadro de diálogo. Mantén la opción predeterminada Desactivado o especifica Bloquear pocos, Bloquear algunos o Bloquear la mayoría para cada una de las siguientes opciones:
Incitación al odio o a la violencia: Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos.
Contenido peligroso: Promueve o habilita el acceso a bienes, servicios y actividades perjudiciales.
Contenido sexual explícito: Incluye referencias a actos sexuales o a otro contenido obsceno.
Contenido de hostigamiento: Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona.
Haz clic en Guardar para guardar la configuración y cerrar el diálogo.
Selecciona la temperatura en el campo Temperatura. La temperatura controla la aleatoriedad en la selección de tokens. Una temperatura más baja es buena cuando esperas una respuesta verdadera o correcta. Una temperatura más alta puede generar resultados más diversos o inesperados.
Selecciona el límite de tokens de salida en el campo Límite de tokens de salida. El límite de tokens de salida determina la cantidad máxima de salida de texto a partir de una instrucción. Un token tiene aproximadamente cuatro caracteres.
Selecciona la cantidad máxima de respuestas en el campo Respuestas máx..
Si es la cantidad máxima de respuestas del modelo generadas por instrucción.
Aún se pueden bloquear las respuestas debido a los filtros de seguridad y otras políticas.
Selecciona un valor en el campo Top-P. El parámetro Top-P cambia la manera en la que el modelo selecciona los tokens para el resultado.
Haz clic en el botón de activación del campo Transmitir respuestas del modelo. Si se selecciona, las respuestas se imprimen a medida que se generan.
Ingresa una secuencia de detención en el campo Agregar una secuencia de detención. Presiona Intro después de cada secuencia.
Haz clic en Guardar para guardar los cambios en la configuración.
Haz clic en Aplicar.
Haz clic en Enviar instrucciones para comparar las instrucciones y sus respuestas.
Para comparar tu instrucción guardada con otra instrucción guardada, sigue estos pasos:
Haz clic en Comparar instrucción guardada. Aparecerá el panel Existing Prompt.
Elige hasta dos instrucciones existentes para comparar.
Selecciona un nombre de instrucción. Si tienes muchas instrucciones en tu lista, haz clic en el campo Filtro y selecciona la propiedad por la que deseas filtrar. Ingresa un valor y presiona Intro.
Haz clic en Aplicar. En la página Comparar, se muestra la instrucción que seleccionaste junto con otras instrucciones que creaste o seleccionaste para comparar.
Haz clic en Enviar instrucciones para comparar las instrucciones y sus respuestas.
Comparar con una verdad fundamental
La verdad fundamental es la respuesta preferida para la instrucción. Todas las demás respuestas del modelo se evalúan en función de la respuesta de verdad fundamental.
Para comparar tu instrucción guardada con una verdad fundamental, sigue estos pasos:
Haz clic en Verdad fundamental. Aparecerá el panel Verdad fundamental.
Ingresa tu verdad fundamental para generar métricas de evaluación adicionales.
Haz clic en Guardar para guardar la verdad fundamental.
Haz clic en Enviar instrucciones para comparar las instrucciones y sus respuestas.
Las métricas de evaluación que se generan cuando comparas una instrucción con una verdad fundamental no se ven afectadas por la región que selecciones.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Compare prompts\n\nThe Compare feature lets you see how a different prompt, model, or a parameter\nsetting changes the model's output. You can view each of the prompts and their\nresponses side by side to compare and analyze in the following ways:\n\n- With a new prompt.\n- With another saved prompt.\n- With a ground truth.\n\n| **Note:** The Compare feature doesn't support prompts with media or chat prompts with more than one exchange.\n\nBefore you begin\n----------------\n\nTo access the Compare feature, follow these steps:\n\n1. In the Google Cloud console, go to the **Create prompt** page.\n\n [Go to Create prompt](https://console.cloud.google.com/vertex-ai/studio/multimodal)\n2. Select **Compare** . The **Compare** page appears.\n\nCreate a prompt in the Compare feature\n--------------------------------------\n\nOn the **Compare** page, you can create a prompt before selecting another prompt\nto compare results.\n\nTo create a prompt, follow these steps:\n\n1. In the **New Prompt** field, enter your prompt.\n\n2. Click **Submit prompts**. The model's response appears below the prompt text\n that you entered.\n\n3. Click **Save as new** . A **Save prompt** dialog appears.\n\n4. Enter the name of your new prompt in the **Prompt name** field.\n\n5. Select your region in the **Region** field, or leave it as the default region.\n\n6. If a customer-managed encryption key (CMEK) applies, do the following:\n\n 1. Select the **Customer-managed encryption key (CMEK)** checkbox.\n 2. Select a key from the **Select a Cloud KMS key** field.\n7. Click **Save** , which saves your prompt in the list of prompts to use on\n the **Compare saved prompt** page.\n\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nYou can update your prompts, and save updated versions as new prompts.\n\nCompare with a new prompt\n-------------------------\n\nTo compare your saved prompt with a new prompt, follow these steps:\n\n1. Click **Compare new prompt** . A **Compare** pane appears.\n2. Optional: Click **Switch model** to use a different model from the default model.\n3. Optional: Expand **Outputs**. \n\n##### Outputs:\n\n1. Optional: If you want the model to output in a specific format such as JSON, click the **Structured output** toggle. After you select **Structured output**, the Grounding options are turned off, because grounding isn't supported with structured output.\n2. Optional: Change the **Thinking budget** to one of the following options:\n - **Auto**: The model only thinks when it needs to. The model adjusts how much it thinks or analyzes a situation based on what's needed at the time.\n - **Manual**: You can adjust the thinking budget tokens.\n - **Off**: No thinking or budgets are used.\n\n\u003c!-- --\u003e\n\n4. Optional: Expand **Tools**. \n\n##### Tools:\n\n1. Select one of the following options:\n - **Grounding: Google**: Grounding with Google Search or Google Maps.\n - **Grounding: Your data**: Grounding with Vertex AI RAG Engine, Vertex AI Search or Elasticsearch.\n 1. If you select **Grounding: Your data**, select the data source that you want to use.\n\n\u003c!-- --\u003e\n\n5. Optional: Expand **Advanced**: \n\n##### Advanced:\n\n1. Select **Region**.\n2. Select **Safety Filter Settings** . A dialog appears. Keep the default of **Off** , or you can specify **Block few** , **Block\n some** , or **Block most** for each of the following options:\n - **Hate speech**: Negative or harmful comments targeting identity or protected attributes.\n - **Dangerous content**: Promotes or enables access to harmful goods, services, and activities.\n - **Sexually explicit content**: Contains references to sexual acts or other lewd content.\n - **Harassment content**: Malicious, intimidating, bullying, or abusive comments targeting another individual.\n3. Click **Save** to save the settings and close the dialog.\n4. Select the temperature from the **Temperature** field. The temperature controls the randomness in token selection. A lower temperature is good when you expect a true or correct response. A higher temperature can lead to diverse or unexpected results.\n5. Select the output token limit from the **Output token limit** field. Output token limit determines the maximum amount of text output from one prompt. A token is approximately four characters.\n6. Select the maximum responses from the **Max responses** field. If the maximum number of model responses generated per prompt. Because of safety filters or other policies, responses can still be blocked.\n7. Select a value from the **Top-P** field. The Top-p changes how the model selects tokens for output.\n8. Click toggle on the **Stream model responses** field. If selected, the responses are printed as they're generated.\n9. Enter a stop sequence in the **Add stop sequence** field. Press **Enter** after each sequence.\n\n\u003c!-- --\u003e\n\n6. Click **Save** to save changes to your settings.\n7. Click **Apply**.\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nFor more information on token limits for each model, see [Control the thinking\nbudget](/vertex-ai/generative-ai/docs/thinking#budget).\n\nCompare with another saved prompt\n---------------------------------\n\nTo compare your saved prompt with another saved prompt, follow these steps:\n\n1. Click **Compare saved prompt** . The **Existing Prompt** pane appears.\n2. Choose up to two existing prompts to compare.\n\n 1. Select a **Prompt name** . If you have many prompts in your list, click in the **Filter** field, and select the property that you want to filter by. Enter a value, and press \u003ckbd\u003eEnter\u003c/kbd\u003e.\n 2. Click **Apply** . The **Compare** page displays the prompt that you've selected alongside other prompts that you've created or selected for comparison.\n3. Click **Submit prompts** to compare the prompts and their responses.\n\nCompare with a ground truth\n---------------------------\n\nGround truth is your preferred answer to the prompt. All other model responses\nare evaluated against the ground truth answer.\n\nTo compare your saved prompt with a ground truth, follow these steps:\n\n1. Click **Ground truth** . The **Ground truth** pane appears.\n2. Enter your ground truth to generate additional evaluation metrics.\n3. Click **Save** to save the ground truth.\n4. Click **Submit prompts** to compare the prompts and their responses.\n\nThe evaluation metrics that are generated when you compare a prompt with a\nground truth aren't affected by the region that you select.\n\nWhat's next\n-----------\n\n- Explore more examples of prompts in the [Prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery).\n- For more information about evaluating your models, see [Gen AI evaluation service\n overview](/vertex-ai/generative-ai/docs/models/evaluation-overview)."]]