Configuración del agente de almacén de datos

Están disponibles los siguientes parámetros de configuración del agente.

Fundamentos

Para cada respuesta generada a partir del contenido de tus almacenes de datos conectados, se calcula un nivel de confianza, que mide la confianza en que toda la información de la respuesta está respaldada por la información de los almacenes de datos. Puedes seleccionar el nivel de confianza más bajo permitido, y el agente no mostrará respuestas inferiores a ese nivel.

Hay 5 niveles de confianza para elegir: muy bajo, bajo, medio, alto y muy alto.

También puedes aplicar un filtro de heurística de conexión a tierra. Si está habilitada, se suprimen las respuestas que contienen contenido que probablemente sea inexacto en función de alucinaciones comunes.

Mensaje del almacén de datos

Tienes la opción de agregar información adicional sobre el agente que puede mejorar la calidad de las respuestas generadas a partir del contenido del almacén de datos y hacer que se sientan más como tu marca:

  • Nombre del agente: Es el nombre que se debe asignar al agente. Si no lo estableces, se usará el valor predeterminado AI Assistant.
  • Identidad del agente: Indica cuál será el arquetipo del agente. Si no lo estableces, se usará el valor predeterminado AI Assistant.
  • Nombre de la empresa Establece el nombre de tu empresa. Esto ya debería haberse configurado como parte del flujo de creación de agentes, pero se puede ajustar según sea necesario. Se recomienda configurar este campo correctamente (y, en especial, no dejarlo vacío) para que no se vea afectada la calidad de las respuestas generadas.
  • Descripción de la empresa: Es una descripción breve de lo que hace o ofrece la empresa.
  • Alcance del agente: Indica dónde se debe usar el agente. Si no lo estableces, se usará el valor predeterminado en el sitio web de la empresa.

Una vez que hayas completado esta sección de forma parcial o total, puedes inspeccionar en el lado derecho, en Tu instrucción, el breve párrafo que se derivó de esta configuración. Se usa como parte de la generación de respuestas.

Instrucción de selección y resumen del modelo de almacén de datos

Cuando se procesa una consulta del usuario, el agente realiza una búsqueda en los almacenes de datos para encontrar fuentes buenas. Luego, el agente envía la consulta del usuario y las fuentes encontradas al LLM, que realiza un resumen.

Puedes seleccionar qué modelo usar para el resumen y, de manera opcional, proporcionar tu propio mensaje.

Selecciona el modelo generativo

Puedes seleccionar el modelo generativo que usa un agente de almacén de datos para la solicitud generativa de resumen. En la siguiente tabla, se incluyen las opciones disponibles:

Identificador de modelo Idiomas compatibles
Predeterminado Esta es la configuración recomendada actualmente y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que observes cambios en el comportamiento de los agentes (probablemente mejoras). Si deseas que el comportamiento del agente sea más coherente, selecciona un modelo específico.
gemini-1.0-pro-001 Disponible en todos los idiomas compatibles.
gemini-1.5-flash-001 Disponible en todos los idiomas compatibles.
gemini-1.5-flash-002 Disponible en todos los idiomas compatibles.

Cómo personalizar la instrucción de resumen

Puedes proporcionar tu propia instrucción para la llamada de LLM de resumen. La instrucción es una plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición se reemplazarán por los valores adecuados durante el tiempo de ejecución, y el texto final se enviará al LLM.

Los marcadores de posición son los siguientes:

  • $original-query: Es el texto de la consulta del usuario.
  • $rewritten-query: Dialogflow usa un módulo de reescritura para reescribir la consulta original del usuario en un formato más preciso.
  • $sources: Dialogflow usa la Búsqueda empresarial para buscar fuentes según la consulta del usuario. Las fuentes encontradas se renderizan en un formato específico:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: La información sobre el usuario que envía la consulta se renderiza en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: El historial de conversaciones se renderiza en el siguiente formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: Es una versión parametrizada del marcador de posición $conversation. Puedes personalizar el prefijo del usuario final (USER), el prefijo del agente (AI) y la cantidad de giros anteriores que se incluirán (TURNS). Se deben especificar todos los valores de los parámetros de marcador de posición.

    Por ejemplo, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. El historial de conversaciones se renderiza de la siguiente manera:

    Human says: user's first query
    Agent says: answer to user's first query
    

Una instrucción personalizada debe indicarle al LLM que devuelva "NOT_ENOUGH_INFORMATION" cuando no pueda proporcionar una respuesta. En este caso, el agente invocará un evento de no coincidencia.

Por ejemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Conmutación por error del almacén de datos

Esta sección tiene los siguientes parámetros de configuración:

  • Vínculo de resguardo: Muestra el vínculo más adecuado si el agente no puede brindar una respuesta.
  • Habilitar IA generativa: Permite que el almacén de datos use IA generativa cuando genere resultados.