IA responsável

O Vertex AI Agent Builder permite que os desenvolvedores aproveitem o poder dos modelos de fundação, da experiência em pesquisa e das tecnologias de IA de conversação do Google para criar aplicativos de IA generativa de nível empresarial com o Vertex AI Agents e a Vertex AI Search. Por ser uma tecnologia em estágio inicial, os recursos e usos em evolução dela criam potencial para uso indevido e consequências não intencionais ou imprevistas. Por exemplo, a Vertex AI Agent Builder pode gerar resultados inesperados, incluindo texto ofensivo, insensíveis ou factualmente incorretos.

Considerando esses riscos e complexidades, o Vertex AI Agent Builder foi projetado com base nos Princípios de IA do Google. No entanto, é importante que os desenvolvedores entendam e testem os modelos para implantá-los com segurança e responsável. Para ajudar os desenvolvedores, o Vertex AI Agent Builder tem filtros de segurança integrados para ajudar os clientes a bloquear resultados potencialmente prejudiciais no caso de uso. Para mais informações, consulte Configurações de segurança da Pesquisa da Vertex AI.

Quando o Vertex AI Agent Builder é integrado ao caso de uso e ao contexto exclusivo de um cliente, é possível que outras considerações de IA responsável e limitações de modelo precisem ser consideradas. Incentivamos os clientes a aproveitar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança.

A Vertex AI Search oferece filtros do SafeSearch para filtrar resultados de pesquisa de sites explícitos. Os resultados explícitos podem incluir conteúdo como pornografia, violência e imagens sangrentas. A filtragem do SafeSearch não está disponível para conteúdo privado.

A síntese (para pesquisa de sites e conteúdo particular) filtra respostas como informações depreciativas, sexualmente explícitas, tóxicas ou violentas. Além disso, a resposta de resumo contém atributos de segurança, que incluem "categorias prejudiciais" e tópicos que podem ser considerados sensíveis.

Pesquisa de sites

O SafeSearch pode ser aplicado a conteúdo público indexado por Vertex AI para Pesquisa, como sites da Web. Quando o SafeSearch está ativado, A Vertex AI para Pesquisa ajuda a filtrar conteúdo explícito na Resultados da Vertex AI para Pesquisa para todas as consultas de imagens, vídeos e e sites. Embora esses filtros não sejam 100% precisos, avaliamos e atualizamos constantemente os recursos de filtragem.

Em determinados contextos e casos de uso, os clientes podem precisar de acesso a uma ampla gama de informações, mesmo que incluam conteúdo explícito, para coletar insights e resultados abrangentes da Vertex AI para Pesquisa. Os clientes podem ativar desativar filtros de segurança usando a API definindo safe_search como "true" ou "false".

Para ativar o SafeSearch na Vertex AI para Pesquisa, use a API a seguir ligue para:

curl -X POST\
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
 -H "Content-Type: application/json"\
"https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/servingConfigs/default_config:search"
     -d '{
      "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Para ativar o SafeSearch para pesquisa com acompanhamentos na Vertex AI para Pesquisa, faça o seguinte: use a seguinte chamada de API:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
"https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/conversations/CONVERSATION_ID:converse" \
-d '{
  "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

A configuração safe_search se aplica aos resultados da pesquisa e também às saídas da Vertex AI para Pesquisa, como a síntese, que é baseada nos resultados da pesquisa.

Os resultados da pesquisa da Vertex AI, como resumo, são avaliados em relação a uma lista de atributos de segurança que filtram conteúdo potencialmente nocivo, mesmo em O recurso safe_search está desativado.

Resumo para conteúdo privado e pesquisa em sites

Os resultados da pesquisa da Vertex AI, como resumo, são avaliados em relação a uma lista de atributos de segurança, que filtra conteúdo potencialmente nocivo, como conteúdo depreciativo, informações sexualmente explícitas, tóxicas ou violentas, mesmo quando safe_search por a pesquisa em sites está desativada. Além disso, é possível filtrar as respostas que incluem "categorias prejudiciais" e tópicos que podem ser considerados sensíveis usando safetyAttributes na resposta da API Vertex AI para Pesquisa.

Respostas substitutas

Se o modelo de resumo responder a uma solicitação com uma string vazia ou um genérica, isso significa que a entrada ou a saída estão acionando filtro de segurança. Na resposta da API Vertex AI para Pesquisa, SummarySkippedReason é definido como BLOCKED_DUE_TO_POTENTIAL_POLICY_VIOLATION se uma possível violação da política for detectada.

Se você achar que um filtro de segurança está sendo acionado de maneira inadequada, informe o problema pelo console do Google Cloud.

Configurações de segurança para agentes da Vertex AI

O Chat usa vários mecanismos de filtragem de segurança nas consultas do usuário e no agente respostas A filtragem inclui categorias como informações depreciativas, sexualmente explícitas, tóxicas ou violentas. Isso garante que o chat responda corretamente a consultas não seguras e que as respostas sejam seguras em geral. Você pode também especificar filtros adicionais para o conteúdo que você considera indesejável e definir respostas substitutas quando essa filtragem for aplicada na Dialogflow no console do Google Cloud. Se você acha que a filtragem de segurança está sendo acionada de forma inadequada, informe esse problema pelo console do Google Cloud.

Práticas recomendadas de IA responsável

Ao usar os Agentes da Vertex AI, recomendamos as seguintes soluções de IA responsável práticas recomendadas:

  • Garantir que os usuários finais sejam informados de que estão interagindo com um bot

  • Se aplicável, informe aos usuários se e quando as respostas deles estão sendo gravadas

  • Ofereça aos usuários uma maneira de sinalizar respostas nocivas

Limitações

Os Agentes da Vertex AI incorporam a responsabilidade de várias maneiras, incluindo segurança filtros de categorias como depreciativo, sexualmente explícito, tóxico ou informações violentas. No entanto, conforme descrito acima, esses filtros de segurança não são 100% precisos. À medida que avaliamos e atualizamos nossos recursos de filtragem, incentivamos os clientes a dar feedback sobre o modelo e explorar casos de uso gerar benefícios para a sociedade e evitar o uso de agentes da Vertex AI em contextos de negócios diferentes.

Agentes da Vertex AI é uma das várias ferramentas que podem informar um objeto em questão especialistas e não deve ser usada em contextos de tomada de decisão sem supervisão humana. Ao incorporar dados privados não estruturados em que os filtros de segurança não estão ativados, recomendamos um papel maior de avaliação de modelo e validação humana antes do uso.

Outros recursos