Gemini para o Google Cloud e IA responsável

Neste documento, descrevemos como o Gemini para Google Cloud foi projetado considerando os recursos, as limitações e os riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como as seguintes:

  • Traduzir idioma.
  • Resumir o texto.
  • Gerar códigos e escrita criativa.
  • Tecnologias de chatbots e assistentes virtuais.
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, a evolução das capacidades técnicas dos LLMs cria o potencial para aplicação incorreta, uso indevido e consequências não intencionais ou imprevistas.

Os LLMs podem gerar uma saída inesperada, incluindo texto ofensivo, insensível ou factualmente incorreto. Como os LLMs são incrivelmente versáteis, é difícil prever exatamente quais tipos de saídas não intencionais ou imprevistos eles podem produzir.

Dados esses riscos e complexidades, o Gemini para Google Cloud foi projetado tendo em mente os princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações do Gemini para Google Cloud para trabalhar com segurança e responsabilidade.

Limitações do Gemini para Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para Google Cloud incluem, entre outras:

  • Casos extremos. Os casos extremos se referem a situações incomuns, raras ou excepcionais que não são bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída dos modelos do Gemini, como excesso de confiança do modelo, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações de modelos, embasamento e factualidade. Os modelos do Gemini podem não ter embasamento e factualidade em conhecimento do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode levar a alucinações de modelos, em que o Gemini para Google Cloud pode gerar saídas que parecem plausíveis, mas são factualmente incorretas, irrelevantes, inadequadas ou sem sentido. Elas também podem incluir a fabricação de links para páginas da Web que não existem e nunca existiram. Para mais informações, consulte Escrever comandos melhores para o Gemini para Google Cloud.

  • Qualidade e ajuste de dados. A qualidade, a acurácia e o viés dos dados de comandos inseridos no Gemini para produtos do Google Cloud podem ter um impacto significativo no desempenho. Se os usuários inserirem comandos imprecisas ou incorretos, o Gemini para Google Cloud poderá retornar respostas abaixo do ideal ou falsas.

  • Amplificação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses existentes nos dados de treinamento, levando a resultados que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.

  • Qualidade da linguagem. Embora o Gemini para Google Cloud produza impressionantes recursos multilíngues nos comparativos de mercado que avaliamos, a maioria dos nossos comparativos de mercado (incluindo todas as avaliações de imparcialidade) são em inglês americano.

    Os modelos de linguagem podem fornecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades de linguagem porque eles estão sub-representados nos dados de treinamento. O desempenho pode ser pior para idiomas diferentes do inglês ou para variedades de língua inglesa com menos representação.

  • Comparativos de mercado e subgrupos de imparcialidade. As análises de imparcialidade do Google Research dos modelos Gemini não fornecem uma explicação completa dos vários riscos potenciais. Por exemplo, focamos em vieses relacionados a gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados do idioma inglês americano e nos resultados do modelo.

  • Conhecimento limitado do domínio. Os modelos do Gemini foram treinados com a tecnologia do Google Cloud, mas podem não ter o conhecimento aprofundado necessário para fornecer respostas precisas e detalhadas sobre tópicos técnicos ou especializados, levando a informações superficiais ou incorretas.

    Quando você usa o painel Gemini no console do Google Cloud, o Gemini não reconhece o contexto do seu ambiente específico, por isso não pode responder a perguntas como "Quando foi a última vez que criei uma VM?"

    Em alguns casos, o Gemini para Google Cloud envia um segmento específico do seu contexto ao modelo para receber uma resposta específica. Por exemplo, quando você clica no botão Sugestões para solução de problemas na página do serviço do Error Reporting.

Filtragem de segurança e toxicidade do Gemini

Os comandos e respostas do Gemini para Google Cloud são comparados a uma lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. O objetivo desses atributos de segurança é filtrar conteúdo que viola nossa Política de Uso aceitável. Se uma saída for considerada prejudicial, a resposta será bloqueada.

A seguir