IA responsable

Vertex AI Agent Builder permite que los desarrolladores aprovechen el poder de los modelos de base, la experiencia de búsqueda y las tecnologías de IA conversacional de Google para crear aplicaciones de IA generativa de nivel empresarial a través de Vertex AI Agents y Vertex AI Search. Como tecnología en etapa inicial, las capacidades y los usos que están en evolución podrían generar aplicaciones inadecuadas, usos inadecuados y consecuencias no deseadas o imprevistas. Por ejemplo, Vertex AI Agent Builder puede generar resultados que no esperas, incluido un texto que sea ofensivo, insensible o factible.

Debido a estos riesgos y complejidades, Vertex AI Agent Builder se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los desarrolladores comprendan y prueben sus modelos para implementarlos de manera segura y responsable. Para ayudar a los desarrolladores, Vertex AI Agent Builder tiene filtros de seguridad integrados que ayudan a los clientes a bloquear los resultados potencialmente dañinos dentro de su caso de uso. Para obtener más información, consulta Configuración de seguridad para Vertex AI Search.

Cuando Vertex AI Agent Builder se integra en el contexto y el caso de uso único de un cliente, es posible que se deban tener en cuenta consideraciones adicionales de IA responsable y limitaciones de modelos. Recomendamos a los clientes que aprovechen las prácticas recomendadas de equidad, interpretabilidad, privacidad y seguridad.

Vertex AI Search ofrece filtros de SafeSearch para filtrar los resultados de la búsqueda de sitios web explícitos. Los resultados con contenido explícito pueden incluir contenido como pornografía, violencia y escenas sangrientas. El filtro SafeSearch no está disponible para el contenido privado.

El resumen (tanto para la búsqueda de sitios web como para el contenido privado) filtra respuestas como información peyorativa, sexual explícita, tóxica o violenta. Además, la respuesta de resumen contiene atributos de seguridad, que incluyen “categorías perjudiciales” y temas que podrían considerarse sensibles.

Búsqueda en sitio web

SafeSearch se puede aplicar al contenido público indexado por Vertex AI Search, como los sitios web. Cuando SafeSearch está activada, Vertex AI Search ayuda a filtrar el contenido explícito de los resultados de Vertex AI Search de un cliente para todas las búsquedas en imágenes, videos y sitios web. Si bien esos filtros no son 100% precisos, evaluamos y actualizamos las capacidades de filtrado de forma continua.

En ciertos contextos y casos de uso, es posible que los clientes requieran acceso a una amplia variedad de información, incluso si incluye contenido explícito, para recopilar estadísticas y resultados integrales de Vertex AI Search. Los clientes pueden habilitar y disabilitar los filtros de seguridad con la API. Para ello, deben establecer safe_search en “verdadero” o “falso”.

Para habilitar SafeSearch para Vertex AI Search, usa la siguiente llamada a la API:

curl -X POST\
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
 -H "Content-Type: application/json"\
"https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/servingConfigs/default_config:search"
     -d '{
      "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Para habilitar SafeSearch para la Búsqueda con seguimientos en Vertex AI Search, usa la siguiente llamada a la API:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
"https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/conversations/CONVERSATION_ID:converse" \
-d '{
  "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

La configuración de safe_search se aplica a los resultados de la búsqueda y también a los resultados de Vertex AI Search, como el resumen (que se basa en los resultados de la búsqueda).

Los resultados de la Búsqueda de Vertex AI, como el resumen, se evalúan en función de una lista de atributos de seguridad que filtran el contenido potencialmente dañino, incluso cuando safe_search está desactivada.

Resumen para el contenido privado y la búsqueda de sitios web

Los resultados de Vertex AI Search, como el resumen, se evalúan en función de una lista de atributos de seguridad, que filtra el contenido potencialmente dañino, como información peyorativa, sexualmente explícita, tóxica o violenta, incluso cuando safe_search para la búsqueda de sitios web está desactivada. Además, puedes filtrar las respuestas que incluyen “categorías perjudiciales” y temas que podrían considerarse sensibles usando safetyAttributes en la respuesta de la API de Vertex AI Search.

Respuestas de resguardo

Si el modelo de resumen responde a una solicitud con una cadena vacía o una respuesta genérica, significa que la entrada o la salida activan un filtro de seguridad. En la respuesta de la API de Vertex AI Search, SummarySkippedReason se establece en BLOCKED_DUE_TO_POTENTIAL_POLICY_VIOLATION si se detecta un posible incumplimiento de política.

Si crees que un filtro de seguridad se está activando de forma inadecuada, informa este problema a través de la consola de Google Cloud.

Configuración de seguridad para los agentes de Vertex AI

Chat usa varios mecanismos de filtrado de seguridad en las consultas de los usuarios y las respuestas de los agentes. El filtrado incluye categorías como información peyorativa, sexual explícita, tóxica o violenta. Esto garantiza que el chat responda de manera adecuada a las consultas no seguras y que las respuestas sean seguras en general. También puedes especificar filtros adicionales para el contenido que consideres no deseado y definir respuestas de resguardo cuando se aplique ese filtrado en la consola de Dialogflow. Si crees que el filtrado de seguridad se activa de forma inadecuada, informa este problema a través de la consola de Google Cloud.

Prácticas recomendadas de IA responsable

Cuando aprovechas los agentes de Vertex AI, te recomendamos que sigas las siguientes prácticas recomendadas de IA responsable:

  • Asegúrate de que los usuarios finales sepan que están interactuando con un bot

  • Si corresponde, indícales a los usuarios si se están grabando sus respuestas y cuándo

  • Proporcionar a los usuarios una forma de marcar respuestas dañinas

Limitaciones

Agentes de Vertex AI incorpora la responsabilidad de varias maneras, incluidos los filtros de seguridad para categorías como información peyorativa, sexual explícita, tóxica o violenta. Sin embargo, como se describió anteriormente, estos filtros de seguridad no son del 100% precisos. A medida que seguimos evaluando y actualizando nuestras capacidades de filtrado, recomendamos a los clientes que proporcionen comentarios sobre los modelos, exploren casos de uso que generarán beneficios sociales y eviten usar agentes de Vertex AI en contextos de seguridad fundamental.

Vertex AI Agents es una de varias herramientas que pueden informar a los expertos en el tema y no está diseñada para usarse en contextos de toma de decisiones sin supervisión humana. Cuando se incorporan datos privados no estructurados en los que no están habilitados los filtros de seguridad, recomendamos que se le asigne un rol más importante a la evaluación de modelos y a la validación humana antes de su uso.

Recursos adicionales