IA responsable para la generación de vídeos con Veo en Vertex AI

Veo en Vertex AI se ha diseñado teniendo en cuenta los principios de IA de Google. Sin embargo, es importante que los desarrolladores sepan cómo probar e implementar los modelos de Google de forma segura y responsable. Para ayudar a los desarrolladores, Veo en Vertex AI tiene funciones de seguridad integradas que ayudan a los clientes a bloquear resultados potencialmente dañinos en sus casos prácticos. Para obtener más información, consulta filtros de seguridad.

Animamos a los clientes a que usen las prácticas recomendadas de imparcialidad, interpretabilidad, privacidad y seguridad al desarrollar aplicaciones de IA. Para obtener más información, consulta la guía Personas e IA.

Filtros de seguridad

Veo en Vertex AI ofrece varias formas de introducir peticiones para generar vídeos, como texto, vídeos e imágenes. Las peticiones que se envían a Veo se evalúan en función de una lista de filtros de seguridad, que incluye categorías dañinas (por ejemplo, violence, sexual, derogatory y toxic). Estos filtros de seguridad tienen como objetivo excluir las imágenes y los vídeos de entrada que infrinjan la Google Cloudpolítica de uso aceptable de la plataforma, la política de usos prohibidos de la IA generativa o nuestros principios de la IA.

Si el modelo responde a una solicitud con un mensaje de error, como The prompt couldn't be submitted o it might violate our policies, significa que la entrada está activando un filtro de seguridad. Si se devuelven menos vídeos de los solicitados, significa que se está bloqueando parte del contenido generado porque no cumple los requisitos de seguridad.

Categorías de códigos de filtros de seguridad

En función de los filtros de seguridad que configure, la salida puede contener un código de seguridad similar al siguiente: "Veo no ha podido generar vídeos porque la imagen de entrada infringe las directrices de uso de Vertex AI. Si crees que se trata de un error, envía tus comentarios. Códigos de asistencia: 15236754"

El código que aparece en el resultado corresponde a una categoría dañina específica.

En la siguiente tabla se muestran las asignaciones de códigos de asistencia a categorías de seguridad:

Código de asistencia Categoría de seguridad Descripción
58061214
17301594
Hijo/a Rechaza las solicitudes para generar contenido que muestre a niños si personGeneration no está configurado como "allow_all" o si el proyecto no está en la lista de permitidos para esta función.
29310472
15236754
Celebrity Rechaza las solicitudes para generar una representación fotorrealista de una persona destacada o si el proyecto no está en la lista de permitidos de esta función.
64151117
42237218
Infracción de seguridad de vídeo Detecta contenido que infringe las normas de seguridad.
62263041 Contenido peligroso Detecta contenido que puede ser peligroso.
57734940
22137204
Odio Detecta temas o contenido relacionados con el odio.
74803281
29578790
42876398
Otro Detecta otros problemas de seguridad varios en la solicitud.
92201652 Información personal Detecta información personal identificable (IPI) en el texto, como números de tarjetas de crédito, direcciones de casa u otra información similar.
89371032
49114662
72817394
Contenido prohibido Detecta la solicitud de contenido prohibido en la solicitud.
90789179
63429089
43188360
Sexual Detecta contenido de carácter sexual.
78610348 Tóxico Detecta temas o contenido tóxicos en el texto.
61493863
56562880
Violencia Detecta contenido relacionado con la violencia en el vídeo o el texto.
32635315 Vulgar Detecta temas o contenido vulgares en el texto.

Siguientes pasos