Este documento descreve como o Gemini para Google Cloud é concebido tendo em conta as capacidades, as limitações e os riscos associados à IA generativa.
Capacidades e riscos dos grandes modelos de linguagem
Os modelos de linguagem (conteúdo extenso) (MDIs/CEs) podem realizar muitas tarefas úteis, como as seguintes:
- Idioma de tradução.
- Resumir texto.
- Gerar código e escrita criativa.
- Potenciar os chatbots e os assistentes virtuais.
- Complementar os motores de pesquisa e os sistemas de recomendações.
Ao mesmo tempo, as capacidades técnicas em evolução dos GMLs criam o potencial de aplicação incorreta, utilização indevida e consequências não intencionais ou imprevistas.
Os MDIs/CEs podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou factualmente incorreto. Como os GMLs são incrivelmente versáteis, pode ser difícil prever exatamente que tipos de resultados não intencionais ou imprevistos podem produzir.
Tendo em conta estes riscos e complexidades, o Gemini foi concebido com os princípios da IA da Google em mente. Google Cloud No entanto, é importante que os utilizadores compreendam algumas das limitações do Gemini para que funcione de forma segura e responsável. Google Cloud
Limitações do Gemini para Google Cloud
Algumas das limitações que pode encontrar ao usar o Gemini para Google Cloud incluem (mas não se limitam ao) seguinte:
Casos extremos. Os casos extremos referem-se a situações invulgares, raras ou excecionais que não estão bem representadas nos dados de preparação. Estes casos podem levar a limitações no resultado dos modelos Gemini, como confiança excessiva do modelo, interpretação incorreta do contexto ou resultados impróprios.
Alucinações do modelo, fundamentação e factualidade. Os modelos do Gemini podem não ter base e factualidade em conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Esta limitação pode levar a alucinações do modelo, em que o Gemini para Google Cloud pode gerar resultados que parecem plausíveis, mas que são factualmente incorretos, irrelevantes, impróprios ou sem sentido. As alucinações também podem incluir a criação de links para páginas Web que não existem e nunca existiram. Para mais informações, consulte o artigo Escreva comandos melhores para o Gemini para Google Cloud.
Qualidade de dados e otimização. A qualidade, a precisão e o preconceito dos dados de comandos introduzidos nos produtos Google Clouddo Gemini podem ter um impacto significativo no respetivo desempenho. Se os utilizadores introduzirem comandos imprecisos ou incorretos, o Gemini para o Google Cloud pode devolver respostas subótimas ou falsas.
Amplificação de parcialidade. Os modelos de linguagem podem amplificar inadvertidamente os preconceitos existentes nos respetivos dados de treino, o que leva a resultados que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.
Qualidade do idioma. Embora o Gemini para produza capacidades multilingues impressionantes nas referências com que o avaliámos, a maioria das nossas referências (incluindo todas as avaliações de imparcialidade) estão em inglês americano. Google Cloud
Os modelos de linguagem podem oferecer uma qualidade de serviço inconsistente a diferentes utilizadores. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variedades linguísticas porque estão sub-representados nos dados de preparação. O desempenho pode ser pior para idiomas que não sejam o inglês ou variedades do idioma inglês com menos representação.
Referências de equidade e subgrupos. As análises de equidade da Google Research dos modelos Gemini não fornecem uma explicação exaustiva dos vários riscos potenciais. Por exemplo, focamo-nos em preconceitos ao longo dos eixos de género, raça, etnia e religião, mas realizamos a análise apenas nos dados e resultados do modelo em inglês americano.
Conhecimentos limitados do domínio. Os modelos do Gemini foram preparados em Google Cloud tecnologia, mas podem não ter a profundidade de conhecimentos necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, o que leva a informações superficiais ou incorretas.
Quando usa o painel Gemini na Google Cloud consola, o Gemini não tem consciência do contexto do seu ambiente específico e, por isso, não pode responder a perguntas como "Quando foi a última vez que criei uma VM?"
Em alguns casos, o Gemini para Google Cloud envia um segmento específico do seu contexto para o modelo para receber uma resposta específica do contexto, por exemplo, quando clica no botão Sugestões de resolução de problemas na página do serviço de relatórios de erros.
Segurança e filtragem de toxicidade do Gemini
Os comandos e as respostas do Gemini são verificados em função de uma lista abrangente de atributos de segurança, conforme aplicável a cada exemplo de utilização. Google Cloud Estes atributos de segurança destinam-se a filtrar conteúdo que viole a nossa Política de Utilização Aceitável. Se uma saída for considerada prejudicial, a resposta é bloqueada.
O que se segue?
- Saiba mais sobre como o Gemini cita fontes quando ajuda a gerar código.