Gemini para o Google Cloud e IA responsável

Este documento descreve como o Gemini para Google Cloud foi projetado considerando os recursos, limitações e riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como estas:

  • Traduzir idioma.
  • Resumir texto.
  • Gerar código e escrever criativamente.
  • Alimentar chatbots e assistentes virtuais.
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, os recursos técnicos em evolução dos LLMs criam o potencial para uso indevido e consequências imprevistas ou indesejadas.

Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou incorreto. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente quais tipos de saídas não intencionais ou imprevistas eles podem produzir.

Considerando esses riscos e complexidades, o Gemini para o Google Cloud foi projetado com base nos princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações do Gemini para Google Cloud para trabalhar com segurança e responsabilidade.

Limitações do Gemini para Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para o Google Cloud incluem (mas não se limitam a) as seguintes:

  • Casos extremos. Casos extremos se referem a situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída dos modelos Gemini, como excesso de confiança, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações, embasamento e veracidade do modelo. Os modelos da Gemini podem não ter base em fatos reais, conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode levar a alucinações de modelos, em que o Gemini para Google Cloud pode gerar saídas que soam plausíveis, mas são factualmente incorretas, irrelevantes, inadequadas ou sem sentido. As alucinações também podem incluir a criação de links para páginas da Web que não existem e nunca existiram. Para mais informações, consulte Escrever comandos melhores no Gemini para Google Cloud.

  • Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados de comando inseridos no Gemini para produtos do Google Cloud podem ter um impacto significativo no desempenho. Se os usuários inserirem comandos incorretos ou imprecisos, o Gemini para Google Cloud poderá retornar respostas inadequadas ou falsas.

  • Ampliação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses nos dados de treinamento, levando a saídas que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.

  • Qualidade do idioma. Embora o Gemini para Google Cloud produza recursos multilíngues impressionantes nos comparativos de mercado que avaliamos, a maioria dos nossos comparativos (incluindo todas as avaliações de imparcialidade) está em inglês americano.

    Os modelos de linguagem podem oferecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades de idiomas porque eles estão sub-representados nos dados de treinamento. O desempenho pode ser pior para idiomas diferentes do inglês ou variedades de língua inglesa com menos representação.

  • Benchmarks e subgrupos de imparcialidade. As análises de imparcialidade do Google Research dos modelos Gemini não fornecem uma visão completa dos vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês americano e nos resultados do modelo.

  • Especialização limitada no domínio. Os modelos do Gemini foram treinados na tecnologia do Google Cloud, mas podem não ter a profundidade de conhecimento necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, o que resulta em informações superficiais ou incorretas.

    Quando você usa o painel Gemini no console do Google Cloud, ele não tem conhecimento do contexto do seu ambiente específico. Portanto, não é possível responder a perguntas como "Quando foi a última vez que criei uma VM?".

    Em alguns casos, o Gemini para Google Cloud envia um segmento específico do seu contexto para o modelo para receber uma resposta específica do contexto. Por exemplo, quando você clica no botão Sugestões de solução de problemas na página do serviço Error Reporting.

Filtragem de segurança e toxicidade do Gemini

As solicitações e respostas do Gemini para o Google Cloud são verificadas em uma lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. O objetivo desses atributos de segurança é filtrar conteúdo que viola nossa Política de uso aceitável. Se uma saída for considerada prejudicial, a resposta será bloqueada.

A seguir