Gemini para o Google Cloud e IA responsável

Neste documento, descrevemos como o Gemini para Google Cloud para Google Cloud foi projetado pensando nos recursos, limitações e riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem executar muitas tarefas úteis, como estas:

  • Traduzir idioma.
  • Resumir.
  • Gerar códigos e textos criativos.
  • Capacite chatbots e assistentes virtuais.
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, a evolução dos recursos técnicos dos LLMs cria o potencial de uso indevido, uso indevido e consequências não intencionais ou imprevistas.

Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou factualmente incorreto. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente que tipos de saídas não intencionais ou imprevistas eles podem produzir.

Considerando esses riscos e complexidades, o Gemini para o Google Cloud para o Google Cloud foi desenvolvido com os princípios de IA do Google em mente. No entanto, é importante que os usuários entendam algumas das limitações do Gemini para que o Google Cloud trabalhe com segurança e responsabilidade.

Limitações do Gemini para o Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para o Google Cloud incluem, entre outras:

  • Casos extremos. Casos extremos referem-se a situações incomuns, raras ou excepcionais que não são bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída dos modelos do Gemini, como excesso de confiança do modelo, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações artificiais, embasamentos e fatos. Gemini podem não ter fundamento e factualidade no conhecimento do mundo real, nas propriedades físicas ou na compreensão precisa. Essa limitação pode levar a alucinações de modelos, em que o Gemini para o Google Cloud pode gerar saídas que parecem plausíveis, mas que na verdade estão incorretas, irrelevantes, inadequadas ou sem sentido. Alucinações também podem incluir fabricar links para páginas da Web que não existem ou que nunca existiram. Para mais informações, consulte Escrever comandos melhores para o Gemini para o Google Cloud.

  • Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados de comandos inseridos no Gemini para produtos do Google Cloud podem ter um impacto significativo no desempenho. Se os usuários inserirem solicitações imprecisas ou incorretas, o Gemini para o Google Cloud poderá retornar respostas abaixo do ideal ou falsas.

  • Amplificação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses existentes nos dados de treinamento, levando a resultados que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.

  • Qualidade do idioma: O Gemini para Google Cloud oferece recursos multilíngues impressionantes nos comparativos de mercado que avaliamos, mas a maioria das nossas comparações (incluindo todas as avaliações de imparcialidade) está em inglês americano.

    Os modelos de linguagem podem fornecer uma qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades de idiomas porque eles são sub-representados nos dados de treinamento. A performance pode ser pior para idiomas diferentes do inglês ou variedades em inglês com menos representação.

  • Comparativos de mercado e subgrupos de imparcialidade. As análises de imparcialidade do Google Research dos modelos Genmini não fornecem uma conta exaustiva dos vários riscos potenciais. Por exemplo, nos concentramos nos vieses relacionados a gênero, raça, etnia e religião, mas realizamos a análise apenas dos dados do inglês americano e dos resultados do modelo.

  • Conhecimento do domínio limitado. Gemini foram treinados na tecnologia do Google Cloud, mas talvez não tenham o profundo conhecimento necessário para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, o que leva a informações superficiais ou incorretas.

    Ao usar o painel Gemini no console do Google Cloud, o Gêmini não está ciente do contexto do seu ambiente específico. Portanto, ele não pode responder a perguntas como "Quando foi a última vez que criei uma VM?"

    Em alguns casos, o Gemini para Google Cloud envia um segmento específico do contexto ao modelo para receber uma resposta específica do contexto. Por exemplo, quando você clica no botão Sugestões para solução de problemas na página do serviço do Error Reporting.

Filtragem de segurança e toxicidade do Gemini

Gemini para solicitações e respostas do Google Cloud são verificados em uma lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. Esses atributos de segurança têm como objetivo filtrar o conteúdo que viola nossa Política de Uso aceitável. Se uma saída for considerada prejudicial, a resposta será bloqueada.

A seguir