O Veo na Vertex AI foi projetado com base nos princípios de IA do Google. No entanto, é importante que os desenvolvedores entendam como testar e implantar os modelos do Google com segurança e responsabilidade. Para ajudar os desenvolvedores, o Veo na Vertex AI tem recursos de segurança integrados para ajudar os clientes a bloquear resultados potencialmente prejudiciais nos casos de uso. Para mais informações, consulte filtros de segurança.
Incentivamos os clientes a usar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança ao desenvolver aplicativos de IA. Para mais informações, consulte O Guia de pessoas e IA.
Filtros de segurança
O Veo na Vertex AI oferece várias maneiras de inserir comandos para gerar vídeos, incluindo texto, vídeo e imagens. Os comandos enviados ao Veo são avaliados com base em uma lista de filtros de segurança, que incluem categorias prejudiciais (por exemplo, violence, sexual, derogatory e toxic). Esses filtros de segurança têm como objetivo remover imagens e vídeos de entrada que violam a Política de uso aceitável da plataforma, a Política de uso proibido da IA generativa ou os Princípios de IA.Google Cloud
Se o modelo responder a uma solicitação com uma mensagem de erro, como The
prompt couldn't be submitted ou it might violate our
policies, a entrada vai acionar um filtro de segurança. Se menos vídeos
do que o solicitado forem retornados, algumas saídas geradas serão bloqueadas por não
atender aos requisitos de segurança.
Categorias de código de filtro de segurança
Dependendo dos filtros de segurança configurados, a saída pode conter um código de segurança semelhante a: "O Veo não pôde gerar vídeos porque a imagem de entrada viola as diretrizes de uso da Vertex AI. Se você acha que isso é um erro, envie feedback. Códigos de suporte: 15236754"
O código listado na saída corresponde a uma categoria nociva específica.
A tabela a seguir mostra os mapeamentos de código de suporte para categoria de segurança:
| Código de suporte | Categoria de segurança | Descrição |
|---|---|---|
5806121417301594
|
Filho |
Rejeita solicitações para gerar conteúdo com crianças se
personGeneration não estiver definido como "allow_all"
ou se o projeto não estiver na lista de permissões para esse recurso.
|
2931047215236754
|
Celebridade | Rejeita solicitações para gerar uma representação fotorrealista de uma pessoa famosa ou se o projeto não estiver na lista de permissões desse recurso. |
6415111742237218
|
Violação de segurança de vídeo | Detecta conteúdo que é uma violação de segurança. |
62263041 |
Conteúdo perigoso | Detecta conteúdo que é potencialmente perigoso por natureza. |
5773494022137204
|
Incita o ódio | Detecta conteúdo ou tópicos relacionados a incitação ao ódio. |
748032812957879042876398
|
Outro | Detecta outros problemas de segurança diversos com a solicitação |
92201652 |
Informações pessoais | Detecta informações de identificação pessoal (PII) no texto, como a menção de um número de cartão de crédito, endereços residenciais ou outras informações. |
893710324911466272817394
|
Conteúdo proibido | Detecta a solicitação de conteúdo proibido. |
907891796342908943188360
|
Conteúdo sexual | Detecta conteúdo de natureza sexual. |
78610348 |
Tóxico | Detecta temas ou conteúdo tóxico no texto. |
6149386356562880
|
Violência | Detecta conteúdo relacionado à violência no vídeo ou no texto. |
32635315 |
Vulgar | Detecta temas ou conteúdo vulgar no texto. |
A seguir
Saiba mais sobre a IA responsável por modelos de linguagem grande (LLMs)
Saiba mais sobre as recomendações do Google para práticas de IA responsável.
Leia nosso blog Uma programação compartilhada para o IA responsável IA