Práticas recomendadas de segurança

Os modelos de linguagem grandes (LLMs, na sigla em inglês) podem traduzir idiomas, resumir textos, gerar textos criativos, gerar códigos, executar bots de bate-papo e assistentes virtuais e complementar mecanismos de pesquisa e sistemas de recomendação. Ao mesmo tempo, como uma tecnologia em estágio inicial, os recursos e os usos evolutivos dela criam potencial para uso indevido e consequências imprevistas ou imprevistas. Modelos de linguagem grandes podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou incorreto.

Além disso, a incrível versatilidade dos LLMs também é o que dificulta a previsão exata dos tipos de saídas não intencionais ou imprevistas que podem produzir. Considerando esses riscos e complexidades, as APIs de IA generativa da Vertex AI são projetadas com base nos princípios de IA do Google. No entanto, é importante que os desenvolvedores entendam e testem os modelos para implantá-los com segurança e responsabilidade. Para ajudar os desenvolvedores, o Vertex AI Studio tem filtragem de conteúdo integrada, e nossas APIs de IA generativa têm pontuação de atributos de segurança a fim de ajudar os clientes a testar os filtros de segurança do Google e definir limites de confiança adequados para seus casos de uso e seus negócios. Consulte a seção Filtros e atributos de segurança para saber mais.

Quando nossas APIs generativas são integradas ao seu caso de uso e ao seu contexto exclusivos, pode ser necessário levar em conta outras considerações e limitações de IA responsável. Incentivamos os clientes a promover as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança.

Filtros e atributos de segurança

Para saber como usar filtros e atributos de segurança em uma API, consulte as seguintes páginas:

Limitações do modelo

As limitações que você pode encontrar ao usar modelos de IA generativa incluem, entre outras:

  • Casos extremos: casos extremos, raros ou excepcionais que não estão bem representados nos dados de treinamento. Esses casos podem levar a limitações no desempenho do modelo, como excesso de confiança, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações, embasamento e veracidade do modelo: os modelos de IA generativa podem não ter embasamento nem se basear em fatos reais, conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode levar a alucinações de modelos, que se referem a instâncias em que podem gerar saídas que soam plausíveis, mas fatualmente incorretas, irrelevantes, inadequadas ou sem sentido. Para reduzir essa chance, é possível fundamentar os modelos de acordo com seus dados específicos. Para saber mais sobre fundamentação na Vertex AI, consulte as Informações gerais de fundamentação.

  • Qualidade e ajuste de dados: a qualidade, a acurácia e o viés da entrada de dados e do comando em um modelo podem ter um impacto significativo no desempenho dele. Se os usuários inserirem dados ou comandos incorretos, o modelo poderá ter um desempenho abaixo do ideal ou fornecer saídas de modelo falsas.

  • Amplificação de vieses: os modelos de IA generativa podem amplificar inadvertidamente os vieses atuais nos dados de treinamento, levando a saídas que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.

  • Qualidade de idioma: embora os modelos produzam recursos multilíngues impressionantes nos comparativos de mercado que avaliamos, a maioria dos nossos comparativos (incluindo todas as avaliações de imparcialidade) está em inglês. Para ver mais informações, consulte o blog do Google Research.

    • Os modelos de IA generativa podem fornecer qualidade inconsistente de serviço para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades de idiomas devido à sub-representação nos dados de treinamento. O desempenho pode ser pior para idiomas diferentes do inglês ou variedades de língua inglesa com menos representação.
  • Comparativos de mercado e subgrupos de imparcialidade: as análises de imparcialidade do Google Research com relação aos nossos modelos de IA generativa não fornecem uma listagem completa dos vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês e nos resultados do modelo. Para ver mais informações, consulte o blog do Google Research.

  • Conhecimento de domínio limitado: os modelos de IA generativa podem não ter a profundidade de conhecimento necessário para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, o que resulta em informações superficiais ou incorretas. Para casos de uso especializados e complexos, os modelos precisam ser ajustados com dados específicos do domínio. Além disso, é necessário haver uma supervisão humana significativa em contextos em que há o potencial de afetar materialmente direitos individuais.

  • Comprimento e estrutura de entradas e saídas: os modelos de IA generativa têm um limite máximo de tokens de entrada e saída. Se a entrada ou a saída excederem esse limite, nossos classificadores de segurança não serão aplicados, o que poderá levar a um desempenho insatisfatório do modelo. Embora nossos modelos sejam projetados para processar uma ampla variedade de formatos de texto, o desempenho deles poderá ser afetado se os dados de entrada tiverem uma estrutura incomum ou complexa.

Para utilizar essa tecnologia com segurança e responsabilidade, também é importante considerar outros riscos específicos para o caso de uso, usuários e contexto empresarial, além das salvaguardas técnicas integradas.

Recomendamos seguir estas etapas:

  1. Analise os riscos de segurança do aplicativo.
  2. Faça ajustes para evitar riscos de segurança.
  3. Realize testes de segurança de acordo com seu caso de uso.
  4. Peça o feedback do usuário e monitore os conteúdos.

Denunciar abuso

Denuncie suspeitas de abuso do serviço ou de qualquer saída gerada que contenha material inapropriado ou informações imprecisas usando o seguinte formulário: Denunciar uma suspeita de abuso no Google Cloud.

Outros recursos