Configuración del agente de almacén de datos

Lo siguiente configuración del agente están disponibles.

Fundamentos

Para cada respuesta generada a partir del contenido de tus almacenes de datos conectados, se calcula un nivel de confianza, que mide la confianza en que toda la información de la respuesta está respaldada por la información de los almacenes de datos. Puedes seleccionar el nivel de confianza más bajo permitido, y el agente no devolverá respuestas más bajas que ese nivel.

Hay 5 niveles de confianza para elegir: muy bajo, bajo, medio, alto y muy altos.

También puedes aplicar un filtro de heurística de fundamentos. Si está habilitada, se suprimen las respuestas que contienen contenido que probablemente sea inexacto en función de alucinaciones comunes.

Mensaje de almacén de datos

Tienes la opción de agregar información adicional sobre el agente que puede mejorar la calidad de las respuestas generadas a partir del contenido del almacén de datos y hacer que se sientan más como tu marca:

  • Nombre del agente: cómo debe llamarse el agente. Si no lo estableces, se usará el valor predeterminado AI Assistant.
  • Identidad del agente: Indica cuál será el arquetipo del agente. Si no la estableces, se usará el valor predeterminado AI Assistant.
  • Nombre de la empresa Establece el nombre de tu empresa. Esto ya debería haberse configurado como parte del flujo de creación de agentes, pero se puede ajustar según sea necesario. Se recomienda configurar este campo correctamente (y, en especial, no dejarlo vacío) para que no se vea afectada la calidad de las respuestas generadas.
  • Descripción de la empresa Una descripción breve de lo que hace la empresa o para todas las plataformas de Google.
  • Alcance del agente: Donde se diseñó el agente para usarlo. Si no lo estableces, se usará el valor predeterminado en el sitio web de la empresa.

Una vez que hayas completado esta sección de forma parcial o total, podrás revisar la lado derecho, en Tu instrucción, el párrafo breve que se derivó de estas opciones de configuración. Se usa como parte de la generación de respuestas.

Instrucción de selección y resumen del modelo de almacén de datos

Cuando se procesa una consulta de usuario, el agente realiza una búsqueda de los almacenes de datos para encontrar buenas fuentes. Luego, el agente envía la consulta del usuario y las fuentes encontradas a el LLM, que realiza un resumen.

Puedes seleccionar qué modelo usar para el resumen y, de forma opcional, proporcionar tu tu propia instrucción.

Seleccionar modelo generativo

Puedes seleccionar el modelo generativo que usa el agente del almacén de datos para la solicitud generativa de resumen. En la siguiente tabla, se incluyen las opciones disponibles:

Identificador de modelo Idiomas compatibles
Predeterminado Esta es la configuración recomendada actualmente y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que observes cambios en el comportamiento de los agentes (probablemente mejoras). Si deseas más coherencia en el comportamiento del agente, selecciona un modelo específico.
text-bison@002 Disponible en todos los idiomas compatibles.
gemini-1.0-pro-001 Disponible en todos los idiomas compatibles.
gemini-1.5-flash-001 Disponible en todos los idiomas compatibles.
gemini-1.5-flash-002 Disponible en todos los idiomas compatibles.

Cómo personalizar la instrucción de resumen

Puedes proporcionar tu propia instrucción para la llamada de LLM de resumen. El mensaje es un plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición se reemplazarán por los valores adecuados durante el tiempo de ejecución, y el texto final se enviará al LLM.

Los marcadores de posición son los siguientes:

  • $original-query: Es el texto de la consulta del usuario.
  • $rewritten-query: Dialogflow usa un módulo de reescritura para reescribir la consulta original del usuario en un formato más preciso.
  • $sources: Dialogflow usa la Búsqueda empresarial para buscar fuentes según la consulta del usuario. Las fuentes encontradas se renderizan en formato:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: La información sobre el usuario que envía la consulta se renderiza en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: El historial de conversaciones se renderiza en lo siguiente: formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: Es una versión parametrizada del marcador de posición $conversation. Tú puedes personalizar el prefijo del usuario final (USER), el prefijo del agente (AI) y cantidad de turnos anteriores que se deben incluir (TURNS). Todos los parámetros de marcador de posición se deben especificar los valores predeterminados.

    Por ejemplo, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. El historial de conversaciones se renderiza de la siguiente manera:

    Human says: user's first query
    Agent says: answer to user's first query
    

Una instrucción personalizada debe indicarle al LLM que devuelva "NOT_ENOUGH_INFORMATION" cuando no pueda proporcionar una respuesta. En este caso, el agente invocará un mensaje sin coincidencias un evento.

Por ejemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Conmutación por error del almacén de datos

Esta sección tiene los siguientes parámetros de configuración:

  • Vínculo de resguardo: Muestra el vínculo más adecuado si el agente no puede brindar una respuesta.
  • Habilitar IA generativa: Permite que el almacén de datos use IA generativa cuando genere resultados.