Gemini para o Google Cloud e IA responsável

Este documento descreve como o Gemini foi projetado tendo em vista as capacidades, limitações e riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem executar muitas tarefas úteis, como estas:

  • Traduzir idioma.
  • Resumir.
  • Gerar códigos e textos criativos.
  • Capacite chatbots e assistentes virtuais.
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, a evolução dos recursos técnicos dos LLMs cria o potencial de uso indevido, uso indevido e consequências não intencionais ou imprevistas.

Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou factualmente incorreto. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente que tipos de saídas não intencionais ou imprevistas eles podem produzir.

Devido aos riscos e complexidades, o Gemini para o Google Cloud foi desenvolvido com os princípios de IA do Google em mente. No entanto, é importante que os usuários entendam algumas das limitações do Gemini para que o Google Cloud trabalhe com segurança e responsabilidade.

Limitações do Gemini para o Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para Google Cloud incluem, entre outras:

  • Casos extremos. Casos extremos referem-se a situações incomuns, raras ou excepcionais que não são bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída do Gemini, como excesso de confiança do modelo, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações artificiais, embasamentos e fatos. Gemini para o Google Cloud pode não ter fundamento e factualidade no conhecimento do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode levar a alucinações de modelos, em que o Gemini pode gerar saídas que parecem plausíveis, mas factualmente incorretas, irrelevantes, inadequadas ou sem sentido. Alucinações também podem incluir a fabricação de links para páginas da Web que não existem ou nunca existiram. Para mais informações, consulte Escrever comandos melhores para o Gemini para o Google Cloud.

  • Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados de comandos inseridos no Gemini podem ter um impacto significativo no desempenho. Se os usuários inserirem solicitações imprecisas ou incorretas, o Genmini pode retornar respostas abaixo do ideal ou falsas.

  • Amplificação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses existentes nos dados de treinamento, levando a resultados que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.

  • Qualidade do idioma: Embora o Gemini produza capacidades multilíngues impressionantes nas comparações que avaliamos, a maioria das nossas comparações (incluindo todas as avaliações de imparcialidade) está em inglês americano.

    Os modelos de linguagem podem fornecer uma qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades de idiomas porque eles são sub-representados nos dados de treinamento. A performance pode ser pior para idiomas diferentes do inglês ou variedades em inglês com menos representação.

  • Comparativos de mercado e subgrupos de imparcialidade. As análises de imparcialidade do Google Research do Gemini não fornecem uma conta exaustiva dos vários riscos potenciais. Por exemplo, nos concentramos nos vieses relacionados a gênero, raça, etnia e religião, mas realizamos a análise apenas dos dados do inglês americano e dos resultados do modelo.

  • Conhecimento do domínio limitado. O Gemini foi treinado na tecnologia do Google Cloud, mas pode não ter a profundidade de conhecimento necessário para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, levando a informações superficiais ou incorretas.

    Ao usar o painel Gemini no console do Google Cloud, o Gêmini não está ciente do contexto do seu ambiente específico. Portanto, ele não pode responder a perguntas como "Quando foi a última vez que criei uma VM?"

    Em alguns casos, o Gemini envia um segmento específico do contexto ao modelo para receber uma resposta específica do contexto. Por exemplo, quando você clica no botão Sugestões para solução de problemas na página de serviço do Error Reporting.

Filtragem de segurança e toxicidade do Gemini

Gemini para solicitações e respostas do Google Cloud são verificados em uma lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. Esses atributos de segurança têm como objetivo filtrar o conteúdo que viola nossa Política de Uso aceitável. Se uma saída for considerada prejudicial, a resposta será bloqueada.

A seguir