Gemini para o Google Cloud e IA responsável

Este documento descreve como o Gemini para Google Cloud foi projetado considerando os recursos, as limitações e os riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como as seguintes:

  • Traduzir idioma.
  • Resumir o texto.
  • Gerar código e escrever criativamente.
  • Chats avançados e assistentes virtuais
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, a evolução das capacidades técnicas dos LLMs cria a potencial para aplicação incorreta, uso indevido e consequências não intencionais ou imprevistas.

Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou incorreto. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente quais tipos de saídas não intencionais ou imprevistas eles podem produzir.

Considerando esses riscos e complexidades, o Gemini para o Google Cloud foi projetado com base nos princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações o Gemini no Google Cloud para trabalhar com segurança e responsabilidade.

Limitações do Gemini para Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para o Google Cloud incluem, sem limitação:

  • Casos extremos. Os casos extremos se referem a situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída dos modelos Gemini, como excesso de confiança, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações, embasamento e veracidade do modelo. Os modelos da Gemini podem não ter base em fatos reais, conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode fazer com que o modelo alucinações artificiais, como o Gemini para Google Cloud, gerar saídas que soem plausíveis, mas factualmente incorretas, irrelevantes, inadequadas ou absurdas. As alucinações também podem incluir a criação de links para páginas da Web que não existem e nunca existiram. Para mais informações, consulte Escrever comandos melhores para o Gemini para o Google Cloud.

  • Qualidade e ajuste de dados. A qualidade, a precisão e o viés dos dados de comando inseridos no Gemini para produtos do Google Cloud podem ter um impacto significativo no desempenho. Se os usuários inserirem comandos imprecisos ou incorretos, Gemini para Google Cloud podem retornar respostas incorretas ou falsas.

  • Ampliação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses nos dados de treinamento, levando a saídas que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.

  • Qualidade da linguagem. Enquanto o Gemini para Google Cloud produz recursos multilíngues impressionantes nos comparativos de mercado que avaliado, a maioria de nossos comparativos de mercado (incluindo todos os avaliações de imparcialidade) estão em inglês americano.

    Os modelos de linguagem podem oferecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou de variações linguísticas porque elas são sub-representadas nos dados de treinamento. O desempenho pode ser pior para idiomas diferentes do inglês ou variedades de língua inglesa com menos representação.

  • Benchmarks e subgrupos de imparcialidade. As análises de imparcialidade do Google Research dos modelos Gemini não fornecem uma visão completa dos vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês americano e nos resultados do modelo.

  • Conhecimento limitado do domínio. Os modelos do Gemini foram treinados na tecnologia do Google Cloud, mas talvez não tenha conhecimento profundo necessário para fornecer respostas precisas e detalhadas em assuntos técnicos ou especializados, levando a questões superficiais ou incorretas informações imprecisas ou inadequadas.

    Quando você usa o painel Gemini no console do Google Cloud, ele não tem conhecimento do contexto do seu ambiente específico. Portanto, não é possível responder a perguntas como "Quando foi a última vez que criei uma VM?".

    Em alguns casos, o Gemini para Google Cloud envia uma mensagem segmento do seu contexto para que o modelo receba uma resposta resposta, por exemplo, quando você clica em Sugestões de solução de problemas na página do serviço do Error Reporting.

Filtragem de segurança e toxicidade do Gemini

As solicitações e respostas do Gemini para o Google Cloud são verificadas em uma lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. O objetivo desses atributos de segurança é filtrar conteúdo que viola nossa Política de uso aceitável. Se uma saída for considerada prejudicial, a resposta será bloqueada.

A seguir