Gemini para o Google Cloud e IA responsável

Este documento descreve como o Gemini para Google Cloud foi projetado tendo em mente as recursos, limitações e riscos associados à IA generativa.

Recursos e riscos dos modelos de linguagem grandes

Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como seguintes:

  • Traduzir idioma.
  • Resumir o texto.
  • Gerar códigos e escrita criativa.
  • Tecnologias de chatbots e assistentes virtuais.
  • Complemente mecanismos de pesquisa e sistemas de recomendação.

Ao mesmo tempo, a evolução das capacidades técnicas dos LLMs cria a potencial para aplicação incorreta, uso indevido e consequências não intencionais ou imprevistas.

LLMs podem gerar saídas inesperadas, incluindo texto ofensivo, insensíveis ou factualmente incorretos. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente que tipos de eventos que eles podem produzir.

Dados esses riscos e complexidades, o Gemini para Google Cloud foi projetado com Princípios de IA do Google em em mente. No entanto, é importante que os usuários entendam algumas das limitações Gemini para Google Cloud para trabalhar com segurança e responsabilidade.

Limitações do Gemini para Google Cloud

Algumas das limitações que você pode encontrar ao usar o Gemini para o Google Cloud incluem, sem limitação:

  • Casos extremos. Os casos extremos se referem a situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações nos resultados dos modelos do Gemini, como excesso de confiança, interpretação incorreta do contexto ou saídas inadequadas.

  • Alucinações de modelos, embasamento e factualidade. de Gêmeos podem não ter embasamento e factualidade no conhecimento do mundo real, propriedades ou compreensão precisa. Essa limitação pode fazer com que o modelo alucinações artificiais, como o Gemini para Google Cloud, gerar saídas que soem plausíveis, mas factualmente incorretas, irrelevantes, inadequadas ou absurdas. As alucinações também podem incluir criação de links para páginas da Web que não existem e nunca existiram. Para mais informações, consulte Escreva comandos melhores para o Gemini para Google Cloud.

  • Qualidade e ajuste de dados. A qualidade, a acurácia e o viés do comando dados inseridos no Gemini para o Google Cloud produtos podem ter um impacto significativo no desempenho deles. Se os usuários inserirem comandos imprecisos ou incorretos, Gemini para Google Cloud podem retornar respostas incorretas ou falsas.

  • Amplificação de viés. Os modelos de linguagem podem amplificar inadvertidamente vieses nos dados de treinamento, levando a resultados que podem reforçar ainda mais preconceitos sociais e tratamento desigual de determinados grupos.

  • Qualidade da linguagem. Enquanto o Gemini para Google Cloud produz recursos multilíngues impressionantes nos comparativos de mercado que avaliado, a maioria de nossos comparativos de mercado (incluindo todos os avaliações de imparcialidade) estão em inglês americano.

    Os modelos de linguagem podem fornecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou de variações linguísticas porque elas são sub-representadas nos dados de treinamento. O desempenho pode ser pior em idiomas diferentes do inglês ou inglês variedades com menos representação.

  • Comparativos de mercado e subgrupos de imparcialidade. as análises de imparcialidade do Google Research Os modelos do Gemini não fornecem uma explicação completa das várias riscos potenciais. Por exemplo, focamos em vieses de gênero, raça, etnias e religião, mas fazer a análise apenas Dados em inglês e saídas de modelo.

  • Conhecimento limitado do domínio. Os modelos do Gemini foram treinados na tecnologia do Google Cloud, mas talvez não tenha conhecimento profundo necessário para fornecer respostas precisas e detalhadas em tópicos especializados ou técnicos, levando a questões superficiais ou incorretas informações imprecisas ou inadequadas.

    Ao usar o painel do Gemini no console do Google Cloud, O Gemini não entende o contexto do seu ambiente. Por isso, ele não responde a perguntas como "Quando foi a última vez que criei uma VM?"

    Em alguns casos, o Gemini para Google Cloud envia uma mensagem segmento do seu contexto para que o modelo receba uma resposta resposta. Por exemplo, quando você clica em Sugestões de solução de problemas na página do serviço do Error Reporting.

Filtragem de segurança e toxicidade do Gemini

Os comandos e respostas do Gemini para Google Cloud estão marcados com uma lista abrangente de atributos de segurança, conforme aplicável para cada uso caso. O objetivo desses atributos de segurança é filtrar conteúdo que viola nossas Política de Uso Aceitável. Se uma saída for é considerado nocivo, a resposta será bloqueada.

A seguir