Veo en Vertex AI se ha diseñado teniendo en cuenta los principios de IA de Google. Sin embargo, es importante que los desarrolladores sepan cómo probar e implementar los modelos de Google de forma segura y responsable. Para ayudar a los desarrolladores, Veo en Vertex AI tiene funciones de seguridad integradas que ayudan a los clientes a bloquear resultados potencialmente dañinos en sus casos prácticos. Para obtener más información, consulta filtros de seguridad.
Animamos a los clientes a que usen las prácticas recomendadas de imparcialidad, interpretabilidad, privacidad y seguridad al desarrollar aplicaciones de IA. Para obtener más información, consulta la guía Personas e IA.
Filtros de seguridad
Veo en Vertex AI ofrece varias formas de introducir peticiones para generar vídeos, como texto, vídeos e imágenes. Las peticiones que se envían a Veo se evalúan en función de una lista de filtros de seguridad, que incluye categorías dañinas (por ejemplo, violence
, sexual
, derogatory
y toxic
). Estos filtros de seguridad tienen como objetivo excluir las imágenes y los vídeos de entrada que infrinjan la Google Cloudpolítica de uso aceptable de la plataforma, la política de usos prohibidos de la IA generativa o nuestros principios de la IA.
Si el modelo responde a una solicitud con un mensaje de error, como The
prompt couldn't be submitted
o it might violate our
policies
, significa que la entrada está activando un filtro de seguridad. Si se devuelven menos vídeos de los solicitados, significa que se está bloqueando parte del contenido generado porque no cumple los requisitos de seguridad.
Categorías de códigos de filtros de seguridad
En función de los filtros de seguridad que configure, la salida puede contener un código de seguridad similar al siguiente: "Veo no ha podido generar vídeos porque la imagen de entrada infringe las directrices de uso de Vertex AI. Si crees que se trata de un error, envía tus comentarios. Códigos de asistencia: 15236754"
El código que aparece en el resultado corresponde a una categoría dañina específica.
En la siguiente tabla se muestran las asignaciones de códigos de asistencia a categorías de seguridad:
Código de asistencia | Categoría de seguridad | Descripción |
---|---|---|
58061214 17301594
|
Hijo/a |
Rechaza las solicitudes para generar contenido que muestre a niños si
personGeneration no está configurado como "allow_all"
o si el proyecto no está en la lista de permitidos para esta función.
|
29310472 15236754
|
Celebrity | Rechaza las solicitudes para generar una representación fotorrealista de una persona destacada o si el proyecto no está en la lista de permitidos de esta función. |
64151117 42237218
|
Infracción de seguridad de vídeo | Detecta contenido que infringe las normas de seguridad. |
62263041 |
Contenido peligroso | Detecta contenido que puede ser peligroso. |
57734940 22137204
|
Odio | Detecta temas o contenido relacionados con el odio. |
74803281 29578790 42876398
|
Otro | Detecta otros problemas de seguridad varios en la solicitud. |
92201652 |
Información personal | Detecta información personal identificable (IPI) en el texto, como números de tarjetas de crédito, direcciones de casa u otra información similar. |
89371032 49114662 72817394
|
Contenido prohibido | Detecta la solicitud de contenido prohibido en la solicitud. |
90789179 63429089 43188360
|
Sexual | Detecta contenido de carácter sexual. |
78610348 |
Tóxico | Detecta temas o contenido tóxicos en el texto. |
61493863 56562880
|
Violencia | Detecta contenido relacionado con la violencia en el vídeo o el texto. |
32635315 |
Vulgar | Detecta temas o contenido vulgares en el texto. |
Siguientes pasos
Consulta información sobre la IA responsable para modelos de lenguaje extensos (LLMs).
Consulta más información sobre las recomendaciones de Google para las prácticas de IA responsable.
Lee nuestra entrada de blog Una agenda compartida para el progreso de la IA responsable.