Configuración del agente del almacén de datos

El siguiente agente de almacén de datos de Terraform disponibles.

Fundamentos

Por cada respuesta generada a partir del contenido de tus almacenes de datos conectados, se se calcula el nivel de confianza, lo que mide la confianza de que toda la información en la respuesta es respaldada por la información de los almacenes de datos. Puedes seleccionar el nivel de confianza más bajo permitido, y el agente no devolverá respuestas más bajas que ese nivel.

Hay 5 niveles de confianza para elegir: muy bajo, bajo, medio, alto y muy altos.

También puedes aplicar un filtro de heurística de fundamentos. Si se habilitan, las respuestas contenido que probablemente sea impreciso debido a alucinaciones comunes se suprimió.

Mensaje de almacén de datos

Tienes la opción de agregar información adicional sobre el agente que pueda mejorar la calidad de las respuestas generadas a partir del contenido del almacén de datos y lograr que sean que se parezcan más a tu marca:

  • Nombre del agente: cómo debe llamarse el agente. Si no la estableces, se usará el valor predeterminado AI Assistant.
  • Identidad del agente: cuál será el arquetipo del agente. Si no la estableces, se usará el valor predeterminado AI Assistant.
  • Nombre de la empresa: Ingresa el nombre de tu empresa. Esto ya debería haber se configuró como parte del flujo de creación del agente, pero se puede ajustar según sea necesario. Integra se recomienda configurar este campo correctamente (y, sobre todo, no dejarlo) vacía), para que no se vea afectada la calidad de las respuestas generadas.
  • Descripción de la empresa Una descripción breve de lo que hace la empresa o para todas las plataformas de Google.
  • Alcance del agente: Donde se diseñó el agente para usarlo. Si lo dejas Si no la estableces, se usará el valor predeterminado en el sitio web de la empresa.

Una vez que hayas completado esta sección de forma parcial o total, podrás revisar la lado derecho, en Tu instrucción, el párrafo breve que se derivó de estas opciones de configuración. Se usa como parte de la generación de respuestas.

Instrucción de selección y resumen del modelo de almacén de datos

Cuando se procesa una consulta de usuario, el agente realiza una búsqueda de los almacenes de datos para encontrar buenas fuentes. Luego, el agente envía la consulta del usuario y las fuentes encontradas a el LLM, que realiza un resumen.

Puedes seleccionar qué modelo usar para el resumen y, de forma opcional, proporcionar tu tu propia instrucción.

Seleccionar modelo generativo

Puedes seleccionar el modelo generativo que usa el agente del almacén de datos para la solicitud generativa de resumen. La siguiente tabla contiene los registros Opciones:

Identificador de modelo Idiomas compatibles
Predeterminado Esta es la configuración recomendada actualmente y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que experimentes cambios en el comportamiento del agente (posibles mejoras). Si deseas más coherencia en el comportamiento del agente, selecciona un modelo específico.
text-bison@002 Disponible en todos los idiomas compatibles.
gemini-1.0-pro-001 Disponible en todos los idiomas compatibles.
gemini-1.5-flash-001 (vista previa) Disponible en todos los idiomas compatibles. Nota: Esta configuración aún no es estable y puede cambiar con el tiempo.

Personaliza la instrucción de resumen

Puedes proporcionar tu propia instrucción para la llamada de LLM de resumen. El mensaje es un plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición serán se reemplazará por los valores adecuados en el tiempo de ejecución y se enviará el texto final al LLM.

Los marcadores de posición son los siguientes:

  • $original-query: Es el texto de la consulta del usuario.
  • $rewritten-query: Dialogflow usa un módulo de reescritura para. la consulta original del usuario a un formato más preciso.
  • $sources: Dialogflow usa Enterprise Search para buscar fuentes. en función de la consulta del usuario. Las fuentes encontradas se renderizan en formato:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: La información sobre el usuario que envía la consulta es se renderiza en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: El historial de conversaciones se renderiza en lo siguiente: formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: Es una versión parametrizada del marcador de posición $conversation. Tú puedes personalizar el prefijo del usuario final (USER), el prefijo del agente (AI) y el número de giros anteriores que se deben incluir (TURNS). Todos los parámetros de marcador de posición se deben especificar los valores predeterminados.

    Por ejemplo, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. El historial de la conversación se procesa de la siguiente manera:

    Human says: user's first query
    Agent says: answer to user's first query
    

Una instrucción personalizada debe indicar al LLM que devuelva "NOT_ENOUGH_INFORMATION". cuándo no puede proporcionar una respuesta. En este caso, el agente invocará un mensaje sin coincidencias un evento.

Por ejemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Resguardo del almacén de datos

Esta sección tiene la siguiente configuración:

  • Vínculo de resguardo: Muestra el vínculo más adecuado si el agente no logra producir una respuesta.
  • Habilitar la IA generativa: Permite que el almacén de datos use la IA generativa cuando generar resultados.