Respostas básicas para modelos do Gemini

Embasamento com a Pesquisa Google

Use o Embasamento com a Pesquisa Google se quiser conectar o modelo ao conhecimento mundial, a uma ampla variedade de tópicos possíveis ou a informações atualizadas na Internet.

Você precisa exibir um ponto de entrada da Pesquisa Google ao usar esse recurso. Para saber mais sobre os requisitos, consulte o ponto de entrada da Pesquisa Google.

Para saber mais sobre o embasamento de modelo na Vertex AI, consulte a Visão geral de embasamento.

Modelos compatíveis

Os seguintes modelos dão suporte ao embasamento:

  • Gemini 1.0 Pro

Se você estiver usando o Embasamento com a Pesquisa Google, sugerimos que use uma temperatura de 0.0. Para saber mais sobre como definir essa configuração, consulte o corpo da solicitação da API Gemini na referência do modelo.

REST

Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:

  • LOCATION: a região para processar a solicitação.
  • PROJECT_ID: o ID do projeto.
  • MODEL_ID: o ID do modelo multimodal.
  • MODEL: projects/acme/locations/us-central1/publishers/google/models/gemini-pro
  • ROLE: o papel em uma conversa associada ao conteúdo. É necessário especificar um papel mesmo em casos de uso de interação única. Os valores aceitáveis incluem: USER: especifica o conteúdo que você enviou.
  • TOOLS: o recurso que você está usando para embasamento. Use o googleSearchRetrieval para embasamento com a Pesquisa Google.
  • TEXT: as instruções de texto a serem incluídas no comando.

Método HTTP e URL:

POST https://LOCATION-prediction-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON da solicitação:

{
"contents": [{
  "role": "user",
  "parts": [{
    "text": TEXT
  }]
}],
"tools": [{
  "googleSearchRetrieval": {}
}],
"model": MODEL
}'

Para enviar a solicitação, expanda uma destas opções:

Você receberá uma resposta JSON semelhante a esta:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Console

Para usar o Embasamento com a Pesquisa Google no Vertex AI Studio, siga estas etapas:

  1. No console do Google Cloud, acesse a página Vertex AI Studio.

    Acessar o Vertex AI Studio

  2. Clique na guia Multimodal.
  3. Clique em Abrir para abrir a página de criação de comando único.
  4. No painel lateral, clique em Avançado para acessar as configurações avançadas.
  5. Clique na opção Ativar embasamento.
  6. Clique em Personalizar e defina a Pesquisa Google como a origem.
  7. Insira o comando na caixa de texto e clique em Enviar.

Agora, suas respostas aos comandos serão embasadas com a Pesquisa Google.

Python

Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.

import vertexai
from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# Initialize Vertex AI
vertexai.init(project=project_id, location=location)

# Load the model
model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Entender a resposta

Se o comando do modelo embasar corretamente com a Pesquisa Google pelo Vertex AI Studio ou pela API, as respostas incluirão metadados com links de origem (URLs da Web). No entanto, há vários motivos para esses metadados não serem fornecidos e a resposta ao comando não ser embasada. Esses motivos incluem baixa relevância de fonte ou informações incompletas na resposta do modelo.

Citações

É altamente recomendável exibir citações. Elas ajudam os usuários a validarem as respostas dos próprios editores e oferecem caminhos para mais aprendizado.

As citações das respostas nas fontes da Pesquisa Google precisam ser exibidas inline e de forma agregada. Confira a imagem abaixo como uma sugestão de como fazer isso.

Exemplos de citação

Uso de opções alternativas de mecanismo de pesquisa

O uso do Embasamento com a Pesquisa Google pelo Cliente não impede que ele ofereça opções alternativas de mecanismo de pesquisa, torne essas alternativas de pesquisa as opções padrão para os Aplicativos do Cliente ou mostre sugestões ou resultados de pesquisa próprios ou de terceiros nos Aplicativos do Cliente, desde que esses serviços de pesquisa ou resultados associados sem relação com o Google sejam exibidos separadamente dos Resultados embasados e dos Pontos de entrada da Pesquisa e não possam ser devidamente atribuídos ao, ou confundidos com os resultados fornecidos pelo, Google.

Embasar o Gemini com seus dados

Nesta seção, mostramos como embasar respostas de texto do Gemini 1.0 Pro com um repositório de dados da Vertex AI para Pesquisa usando a API Vertex AI.

Os seguintes modelos dão suporte ao embasamento:

  • Gemini 1.0 Pro

Há pré-requisitos para você poder testar o Gemini 1.0 Pro.

  1. Ativar a Vertex AI para Pesquisa e a API.
  2. Criar uma origem de dados e um app da Vertex AI para Pesquisa.
  3. Vincule seu repositório de dados ao seu aplicativo na Vertex AI para Pesquisa. A fonte de dados serve como a base para embasar o Gemini 1.0 Pro na Vertex AI.
  4. Ative a edição Enterprise para seu repositório de dados.

Consulte a Introdução à Vertex AI para Pesquisa para mais informações.

Ativar a Vertex AI para Pesquisa

  1. No console do Google Cloud, acesse a página Pesquisa e conversa.

    Pesquisa e conversa

  2. Leia e aceite os Termos de Serviço e clique em Continuar e ativar a API.

A Vertex AI para Pesquisa está disponível no local global ou na multirregião eu e us. Para saber mais, consulte Locais da Vertex AI para Pesquisa.

Criar um repositório de dados na Vertex AI para Pesquisa

Para fundamentar seus modelos nos dados de origem, você precisa preparar e salvar os dados na Vertex AI para Pesquisa. Para isso, crie um armazenamento de dados na Vertex AI para Pesquisa.

Se você estiver começando do zero, vai precisar preparar seus dados para ingestão na Vertex AI para Pesquisa. Consulte Preparar dados para ingestão para começar. Dependendo do tamanho dos dados, a ingestão pode levar de vários minutos a várias horas. Só há suporte para armazenamentos de dados não estruturados.

Depois de preparar os dados para ingestão, crie um repositório de dados de pesquisa. Depois de criar um repositório de dados, crie um aplicativo de pesquisa para vinculá-lo e ative a edição Enterprise.

Colocar o modelo Gemini 1.0 Pro em solo

Se você não souber o ID do repositório de dados, siga estas etapas:

  1. No console do Google Cloud, acesse a página Vertex AI para Pesquisa e, no menu de navegação, clique em Repositórios de dados. <a{: class="button button-primary" l10n-attrs-original-order="href,target,class,track-name,track-type" l10n-encrypted-href="BU2UnTd/bvXw0I31NoHStFtigmNHgUGOXn/QVSGplOhB4J1rwNxdLslXsSNCBkPOFvWIDj0tv6yobddHSWXSow==" target="console" track-name="consoleLink" track-type="tasks" }="">Ir para a página "Repositórios de dados"</a{:>
  2. Clique no nome do seu repositório de dados.
  3. Na página Dados do seu repositório de dados, encontre o ID do repositório.

REST

Para testar um prompt de texto usando a API Vertex AI, envie uma solicitação POST para o endpoint do modelo do editor.

PROJECT_ID=PROJECT_ID
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json"  https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro:generateContent -d '{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": TEXT
    }]
  }],
  "model": "projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro",
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }]
}

Python

Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# Initialize Vertex AI
vertexai.init(project=project_id, location=location)

# Load the model
model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Vertex AI Search data store
# Format: projects/{project_id}/locations/{location}/collections/default_collection/dataStores/{data_store_id}
tool = Tool.from_retrieval(
    grounding.Retrieval(grounding.VertexAISearch(datastore=data_store_path))
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Console

Para embasar a saída do modelo com a Vertex AI para Pesquisa usando o Vertex AI Studio no console do Google Cloud, siga estas etapas:

  1. No console do Google Cloud, acesse a página Vertex AI Studio.

    Acessar o Vertex AI Studio

  2. Clique na guia Idioma.
  3. Clique em Comando de texto para ver a página de criação de comando único.
  4. No painel lateral, clique em Avançado para acessar as configurações avançadas.
  5. Clique no botão Ativar embasamento para ativar esse recurso.
  6. Clique em Personalizar e defina a Vertex AI para Pesquisa como a origem. O caminho precisa seguir este formato: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
  7. Insira o comando na caixa de texto e clique em Enviar.

Agora, suas respostas aos comandos serão embasadas com a Vertex AI para Pesquisa.

A seguir