Las apps de agente proporcionan una nueva forma de crear agentes virtuales con modelos de lenguaje extensos (LLM). En lugar de definir flujos, páginas, intents y transiciones de agentes conversacionales (Dialogflow CX), proporcionas instrucciones en lenguaje natural y datos estructurados. Esto puede reducir significativamente la agente virtual el tiempo de creación y mantenimiento, y habilitar nuevos tipos de experiencias de conversación para tu empresa.
Si aún necesitas el control explícito que proporcionan los flujos de agentes de conversación (Dialogflow CX) en ciertos escenarios conversacionales, puedes combinar la potencia de Vertex AI y flujos en un único agente virtual híbrido.
Limitaciones
Se aplica la siguiente limitación:
- Los agentes no admiten el envío de un SMS de compañero de llamada desde la ruta del intent de bienvenida predeterminado en el flujo de inicio predeterminado, pero puedes habilitar la opción de SMS de compañero de llamada en los flujos estándar.
- La consola de Agent Builder no es compatible Flujos de agentes conversacionales (Dialogflow CX).
- Agentes creados de la consola de Vertex AI no se abran en la consola de Conversational Agents (Dialogflow CX), a menos al proyecto se le otorga acceso a la función de acceso restringido en la Consola de agentes de conversación (Dialogflow CX). Para solicitar acceso, comunícate con el equipo de Cuentas de Google.
Idiomas admitidos
Las apps de agentes admiten los mismos idiomas que los modelos de Gemini.
Compatibilidad con regiones
Se admiten las siguientes regiones:
global
eu
(multirregión)europe-west1
europe-west2
europe-west3
northamerica-northeast1
us
(multirregión)us-central1
us-west1
Configuración
En esta sección, se describe la configuración disponible para las apps de agentes.
General
Las siguientes opciones de configuración general están disponibles para las apps de agentes:
-
Es un nombre legible para la app de tu agente.
-
La región de la app del agente.
-
Si está habilitada, no se permiten cambios en la app del agente.
Logging
La siguiente configuración de registro está disponible para las apps de agente:
-
Si se habilita, se enviarán a Cloud Logging.
Habilita el historial de conversaciones
Si está habilitado, estará disponible el historial de conversaciones. Indica si quieres que Google recopile y almacene consultas ocultas de los usuarios finales. para mejorar la calidad. Este parámetro de configuración no afecta el uso del historial de conversaciones para generar respuestas del agente.
-
Si está habilitado, el historial de conversaciones se exporta a BigQuery. También debe estar habilitado el parámetro de configuración Habilitar el historial de conversaciones.
IA generativa
La siguiente configuración de IA generativa está disponible para las apps de agente:
Selección de modelos generativos
Selecciona el modelo generativo que los agentes deben usar de forma predeterminada.
-
Selecciona el límite de tokens de entrada para el modelo generativo. Este es el tamaño máximo de token para la entrada enviada al modelo. Según el modelo, un token puede estar entre un carácter y una palabra. Los límites de tokens más pequeños generan una latencia más baja pero el tamaño de entrada del modelo es limitado. Los límites de tokens más altos generan una latencia más alta pero el tamaño de entrada del modelo puede ser mayor.
-
Selecciona el límite de tokens de salida para el modelo generativo. Este es el tamaño máximo del token para el resultado que se recibe del modelo. Según el modelo, un token puede estar entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia más alta, pero el tamaño de salida del modelo puede ser mayor.
-
La temperatura de un LLM te permite controlar el nivel las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.
-
Es la lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta que se generó el agente mostrará una respuesta de resguardo.
-
Configura los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable (RAI). El contenido se evaluará en función de las siguientes cuatro categorías:
Categoría Descripción Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos. Contenido peligroso Promueve o habilita el acceso a bienes, servicios y actividades perjudiciales. Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno. Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona. El contenido se bloquea en función de la probabilidad de que sea dañino. Para personalizar el nivel de sensibilidad, elige una de las siguientes opciones: Bloquear pocos (bloquear solo las instancias de alta probabilidad de contenido dañino), Bloquear algunos (instancias de probabilidad media y alta) y Bloquear la mayoría (probabilidad baja, media y alta) para cada categoría. También puedes obtener acceso a la opción restringida No bloquear ninguna, que inhabilita las verificaciones de RAI para la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.
Para obtener más información, consulta Cómo configurar los atributos de seguridad.
-
Puedes verificar el parámetro de configuración Habilitar verificación de seguridad inmediata para habilitar las verificaciones de seguridad inmediatas. Cuando se habilita, el agente intentará evitar los ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería proporcionar. Para ello, se envía un mensaje LLM adicional que comprueba si la consulta del usuario es posiblemente maliciosa.
Este parámetro de configuración está habilitado de forma predeterminada para los agentes nuevos. Si el agente se creó antes del lanzamiento de este parámetro de configuración, el parámetro de configuración no está habilitado.
Git
Esta configuración proporciona una integración con Git. Sigue las instrucciones para configurar la integración.
Versiones y entornos
Puedes crear varias versiones de tus agentes (conocidas como libros de jugadas en Dialogflow CX) y, luego, implementarlas en entornos. Consulta la documentación sobre versiones y entornos para conocer las prácticas recomendadas cuando crees versiones y entornos.
Apps de agentes frente a agentes de Dialogflow
En los próximos meses, las funciones generativas de los agentes conversacionales (Dialogflow CX) migrarán a Vertex AI. Una vez finalizada la migración, ambas consolas tendrán paridad de funciones. En esta documentación, se enfocan las funciones de Vertex AI, pero los conceptos son los mismos.
Las funciones de agente tienen acceso restringido desde la consola de Conversational Agents (Dialogflow CX). En la siguiente tabla, se describen las funciones generativas de agentes compatibles actualmente para cada uno de los siguientes tipos de agentes:
Capacidad | Agentes de conversación (Dialogflow CX) | Vertex AI |
---|---|---|
Etapa de actualización | GA privada | Versión preliminar pública |
Flows | ✅ | |
Parámetros de entrada y salida para agentes | ✅ | |
Herramientas de funciones | ✅ (no compatible con el simulador) | ✅ |
Cómo guardar el simulador y el historial de conversaciones como ejemplo | ✅ | |
Instrucciones personalizadas para la reescritura y el resumen de consultas del almacén de datos | ✅ | |
Casos de prueba | ✅ | |
Importación y exportación | ✅ | |
VPC SC | Webhooks ✅ | Herramientas de API abiertas ✅ |
Seguridad y cumplimiento | CMEK, AxT y DRZ | CMEK, AxT, DRZ |