A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Com o recurso "Comparar", você pode conferir como um comando, modelo ou configuração de parâmetro diferente muda a saída do modelo. Você pode ver cada um dos comandos e as respostas lado a lado para comparar e analisar das seguintes maneiras:
Com um novo comando.
Com outro comando salvo.
Com informações empíricas.
Antes de começar
Para acessar o recurso de comparação, siga estas etapas:
No console Google Cloud , acesse a página Criar solicitação.
Na página Comparar, você pode criar um comando antes de selecionar outro para comparar os resultados.
Para criar um comando, siga estas etapas:
No campo Novo comando, digite seu comando.
Clique em Enviar comandos. A resposta do modelo aparece abaixo do texto do comando
que você inseriu.
Clique em Salvar como novo. Uma caixa de diálogo Salvar solicitação aparece.
Digite o nome do novo comando no campo Nome do comando.
Selecione sua região no campo Região ou deixe como a região padrão.
Se uma chave de criptografia gerenciada pelo cliente (CMEK) for aplicável, faça o seguinte:
Marque a caixa de seleção Chave de criptografia gerenciada pelo cliente (CMEK).
Selecione uma chave no campo Selecionar uma chave do Cloud KMS.
Clique em Salvar para salvar o comando na lista de comandos a serem usados na página Comparar comando salvo.
Clique em Enviar comandos para comparar os comandos e as respostas.
Você pode atualizar seus comandos e salvar as versões atualizadas como novos comandos.
Comparar com um novo comando
Para comparar seu comando salvo com um novo, siga estas etapas:
Clique em Comparar novo comando. Um painel Comparar vai aparecer.
Opcional: clique em Trocar modelo para usar um modelo diferente do padrão.
Opcional: expanda Saídas.
Outputs:
Opcional: se você quiser que o modelo gere uma saída em um formato específico, como
JSON, clique na chave Saída estruturada. Depois de selecionar Saída estruturada, as opções de embasamento são desativadas porque não são compatíveis com a saída estruturada.
Opcional: mude o Orçamento de pensamento para uma das
seguintes opções:
Automático: o modelo só pensa quando precisa. O modelo ajusta o quanto ele pensa ou analisa uma situação com base no que é necessário no momento.
Manual: você pode ajustar os tokens do orçamento de pensamento.
Desativado: nenhum pensamento ou orçamento é usado.
Opcional: expanda Ferramentas.
Ferramentas:
Selecione uma das seguintes opções:
Embasamento: Google: embasamento com a Pesquisa Google ou o Google Maps.
Embasamento: seus dados: embasamento com o mecanismo RAG da Vertex AI, a Vertex AI para Pesquisa ou o Elasticsearch.
Se você selecionar Fundamentação: seus dados, escolha a fonte de dados que quer usar.
Opcional: expanda Avançado:
Avançado:
Selecione Região.
Selecione Configurações do filtro de segurança. Uma caixa de diálogo será exibida. Mantenha a opção padrão Desativado ou especifique Bloquear poucos, Bloquear alguns ou Bloquear a maioria para cada uma das seguintes opções:
Discurso de ódio: comentários negativos ou nocivos direcionados à identidade ou a atributos protegidos.
Conteúdo perigoso: promove ou permite o acesso a produtos, serviços e atividades prejudiciais.
Conteúdo sexualmente explícito: contém referências a atos sexuais ou outro conteúdo obsceno.
Conteúdo de assédio: comentários maliciosos, intimidadores, abusivos ou de bullying direcionados a outra pessoa.
Clique em Salvar para salvar as configurações e fechar a caixa de diálogo.
Selecione a temperatura no campo Temperatura. A temperatura controla a aleatoriedade na seleção do token. Uma temperatura mais baixa é boa quando você espera uma resposta verdadeira ou correta. Uma temperatura mais alta pode gerar resultados diversos ou inesperados.
Selecione o limite de token de saída no campo Limite de token de saída. O limite de tokens de saída determina a quantidade máxima de texto gerado
por um comando. Um token tem cerca de quatro caracteres.
Selecione o número máximo de respostas no campo Máximo de respostas.
Se o número máximo de respostas do modelo geradas por comando.
As respostas ainda podem ser bloqueadas devido a filtros de segurança ou outras políticas.
Selecione um valor no campo Top-P. O Top-p muda a forma como
o modelo seleciona tokens para saída.
Clique no botão de alternância no campo Streaming de respostas do modelo. Se
selecionada, as respostas serão impressas à medida que forem geradas.
Insira uma sequência de paradas no campo Adicionar sequência de paradas. Pressione Enter depois de cada sequência.
Clique em Salvar para salvar as mudanças nas suas configurações.
Clique em Aplicar.
Clique em Enviar comandos para comparar os comandos e as respostas.
Para comparar seu comando salvo com outro, siga estas etapas:
Clique em Comparar comando salvo. O painel Comando atual aparece.
Escolha até dois comandos atuais para comparar.
Selecione um Nome do comando. Se você tiver muitos comandos na lista, clique no campo Filtro e selecione a propriedade que você quer usar para filtrar. Digite um valor e pressione Enter.
Clique em Aplicar. A página Comparar mostra o comando que você
selecionou ao lado de outros que você criou ou selecionou para
comparação.
Clique em Enviar comandos para comparar os comandos e as respostas.
Comparar com informações empíricas
As informações empíricas são sua resposta preferencial ao comando. Todas as outras respostas do modelo
são avaliadas com base na resposta de informações empíricas.
Para comparar seu comando salvo com uma verdade fundamental, siga estas etapas:
Clique em Informações empíricas. O painel Informações empíricas aparece.
Insira as informações empíricas para gerar outras métricas de avaliação.
Clique em Salvar para salvar a verdade fundamental.
Clique em Enviar comandos para comparar os comandos e as respostas.
As métricas de avaliação geradas quando você compara um comando com uma
informação empírica não são afetadas pela região selecionada.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["# Compare prompts\n\nThe Compare feature lets you see how a different prompt, model, or a parameter\nsetting changes the model's output. You can view each of the prompts and their\nresponses side by side to compare and analyze in the following ways:\n\n- With a new prompt.\n- With another saved prompt.\n- With a ground truth.\n\n| **Note:** The Compare feature doesn't support prompts with media or chat prompts with more than one exchange.\n\nBefore you begin\n----------------\n\nTo access the Compare feature, follow these steps:\n\n1. In the Google Cloud console, go to the **Create prompt** page.\n\n [Go to Create prompt](https://console.cloud.google.com/vertex-ai/studio/multimodal)\n2. Select **Compare** . The **Compare** page appears.\n\nCreate a prompt in the Compare feature\n--------------------------------------\n\nOn the **Compare** page, you can create a prompt before selecting another prompt\nto compare results.\n\nTo create a prompt, follow these steps:\n\n1. In the **New Prompt** field, enter your prompt.\n\n2. Click **Submit prompts**. The model's response appears below the prompt text\n that you entered.\n\n3. Click **Save as new** . A **Save prompt** dialog appears.\n\n4. Enter the name of your new prompt in the **Prompt name** field.\n\n5. Select your region in the **Region** field, or leave it as the default region.\n\n6. If a customer-managed encryption key (CMEK) applies, do the following:\n\n 1. Select the **Customer-managed encryption key (CMEK)** checkbox.\n 2. Select a key from the **Select a Cloud KMS key** field.\n7. Click **Save** , which saves your prompt in the list of prompts to use on\n the **Compare saved prompt** page.\n\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nYou can update your prompts, and save updated versions as new prompts.\n\nCompare with a new prompt\n-------------------------\n\nTo compare your saved prompt with a new prompt, follow these steps:\n\n1. Click **Compare new prompt** . A **Compare** pane appears.\n2. Optional: Click **Switch model** to use a different model from the default model.\n3. Optional: Expand **Outputs**. \n\n##### Outputs:\n\n1. Optional: If you want the model to output in a specific format such as JSON, click the **Structured output** toggle. After you select **Structured output**, the Grounding options are turned off, because grounding isn't supported with structured output.\n2. Optional: Change the **Thinking budget** to one of the following options:\n - **Auto**: The model only thinks when it needs to. The model adjusts how much it thinks or analyzes a situation based on what's needed at the time.\n - **Manual**: You can adjust the thinking budget tokens.\n - **Off**: No thinking or budgets are used.\n\n\u003c!-- --\u003e\n\n4. Optional: Expand **Tools**. \n\n##### Tools:\n\n1. Select one of the following options:\n - **Grounding: Google**: Grounding with Google Search or Google Maps.\n - **Grounding: Your data**: Grounding with Vertex AI RAG Engine, Vertex AI Search or Elasticsearch.\n 1. If you select **Grounding: Your data**, select the data source that you want to use.\n\n\u003c!-- --\u003e\n\n5. Optional: Expand **Advanced**: \n\n##### Advanced:\n\n1. Select **Region**.\n2. Select **Safety Filter Settings** . A dialog appears. Keep the default of **Off** , or you can specify **Block few** , **Block\n some** , or **Block most** for each of the following options:\n - **Hate speech**: Negative or harmful comments targeting identity or protected attributes.\n - **Dangerous content**: Promotes or enables access to harmful goods, services, and activities.\n - **Sexually explicit content**: Contains references to sexual acts or other lewd content.\n - **Harassment content**: Malicious, intimidating, bullying, or abusive comments targeting another individual.\n3. Click **Save** to save the settings and close the dialog.\n4. Select the temperature from the **Temperature** field. The temperature controls the randomness in token selection. A lower temperature is good when you expect a true or correct response. A higher temperature can lead to diverse or unexpected results.\n5. Select the output token limit from the **Output token limit** field. Output token limit determines the maximum amount of text output from one prompt. A token is approximately four characters.\n6. Select the maximum responses from the **Max responses** field. If the maximum number of model responses generated per prompt. Because of safety filters or other policies, responses can still be blocked.\n7. Select a value from the **Top-P** field. The Top-p changes how the model selects tokens for output.\n8. Click toggle on the **Stream model responses** field. If selected, the responses are printed as they're generated.\n9. Enter a stop sequence in the **Add stop sequence** field. Press **Enter** after each sequence.\n\n\u003c!-- --\u003e\n\n6. Click **Save** to save changes to your settings.\n7. Click **Apply**.\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nFor more information on token limits for each model, see [Control the thinking\nbudget](/vertex-ai/generative-ai/docs/thinking#budget).\n\nCompare with another saved prompt\n---------------------------------\n\nTo compare your saved prompt with another saved prompt, follow these steps:\n\n1. Click **Compare saved prompt** . The **Existing Prompt** pane appears.\n2. Choose up to two existing prompts to compare.\n\n 1. Select a **Prompt name** . If you have many prompts in your list, click in the **Filter** field, and select the property that you want to filter by. Enter a value, and press \u003ckbd\u003eEnter\u003c/kbd\u003e.\n 2. Click **Apply** . The **Compare** page displays the prompt that you've selected alongside other prompts that you've created or selected for comparison.\n3. Click **Submit prompts** to compare the prompts and their responses.\n\nCompare with a ground truth\n---------------------------\n\nGround truth is your preferred answer to the prompt. All other model responses\nare evaluated against the ground truth answer.\n\nTo compare your saved prompt with a ground truth, follow these steps:\n\n1. Click **Ground truth** . The **Ground truth** pane appears.\n2. Enter your ground truth to generate additional evaluation metrics.\n3. Click **Save** to save the ground truth.\n4. Click **Submit prompts** to compare the prompts and their responses.\n\nThe evaluation metrics that are generated when you compare a prompt with a\nground truth aren't affected by the region that you select.\n\nWhat's next\n-----------\n\n- Explore more examples of prompts in the [Prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery).\n- For more information about evaluating your models, see [Gen AI evaluation service\n overview](/vertex-ai/generative-ai/docs/models/evaluation-overview)."]]