Neste documento, descrevemos o desenvolvimento do Gemini para Google Cloud considerando os recursos, limitações e riscos associados à IA generativa.
Capabilities e riscos dos modelos de linguagem grande
Os modelos de linguagem grande (LLMs) podem realizar muitas tarefas úteis, como as estas a seguir:
- Traduzir
- Resumir o
- Gerar o código e a escrita criativa
- Potencializar chatbots e assistentes virtuais
- Complementar mecanismos de pesquisa e sistemas de recomendação
Ao mesmo tempo, os recursos técnicos em evolução dos LLMs criam o potencial para aplicação incorreta, uso indevido e consequências não intencionais ou imprevistas.
Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo, insensível ou incorreto. Como os LLMs são incrivelmente versáteis, é difícil prever exatamente quais tipos de saídas não intencionais ou imprevistas eles podem produzir.
Considerando esses riscos e complexidades, o Gemini para Google Cloud foi projetado com base nos princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações do Gemini para Google Cloud de maneira que funcione com segurança e responsabilidade.
Limitações do Gemini para Google Cloud
Algumas das limitações que você pode encontrar ao usar o Gemini para Google Cloud incluem, entre outras:
Casos extremos. Casos extremos são situações incomuns, raras ou excepcionais que não estão bem representadas nos dados de treinamento. Esses casos podem levar a limitações na saída dos modelos do Gemini, como excesso de confiança, interpretação incorreta do contexto ou saídas inadequadas.
Alucinações, embasamento e veracidade do modelo. Os modelos do Gemini podem não ter embasamento nem se basear em fatos reais, conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Essa limitação pode levar a alucinações de modelos, em que o Gemini para Google Cloud pode gerar saídas que parecem plausíveis, mas incorretas, irrelevantes, inadequadas ou sem sentido. As alucinações também podem incluir a fabricação de links para páginas da Web que não existem e nunca existiram. Para mais informações, consulte Escrever comandos melhores do Gemini para Google Cloud.
Qualidade e ajuste dos dados. A qualidade, a acurácia e o viés dos dados de comando inseridos no Gemini para Google Cloudpodem ter um impacto significativo no desempenho dele. Se os usuários inserirem comandos imprecisos ou incorretos, o Gemini para Google Cloudpoderá retornar respostas abaixo do ideal ou falsas.
Amplificação de vieses: os modelos de linguagem podem amplificar inadvertidamente os vieses nos dados de treinamento, levando a saídas que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.
Qualidade do idioma. Embora o Gemini para Google Cloudproduza recursos multilíngues impressionantes nos comparativos de mercado que avaliamos, a maioria dos nossos comparativos (incluindo todas as avaliações de imparcialidade) está em inglês americano.
Modelos de linguagem podem oferecer qualidade de serviço inconsistente para diferentes usuários. Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou variações de idiomas porque eles são sub-representados nos dados de treinamento. O desempenho pode ser pior para idiomas diferentes do inglês ou variações da língua inglesa com menos representação.
Comparativos de mercado e subgrupos de imparcialidade. As análises de imparcialidade do Google Research sobre os modelos do Gemini não fornecem uma lista completa dos vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês americano e nas respostas do modelo.
Conhecimento limitado do domínio. Os modelos do Gemini foram treinados com tecnologia do Google Cloud , mas podem não ter a profundidade de conhecimento necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou técnicos, o que resulta em informações superficiais ou incorretas.
Ao usar o painel Gemini no console do Google Cloud , o Gemini não tem contexto sobre seu ambiente específico. Portanto, ele não pode responder a perguntas como "Quando foi a última vez que criei uma VM?".
Em alguns casos, o Gemini para Google Cloud envia um segmento específico do seu contexto ao modelo para receber uma resposta específica do contexto. Por exemplo, quando você clica no botão Sugestões de solução de problemas na página do serviço Error Reporting.
Filtragem de toxicidade e segurança do Gemini
Os comandos e respostas do Gemini para Google Cloud são verificados em uma lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. Esses atributos de segurança têm como objetivo filtrar conteúdo que viola nossa Política de Uso Aceitável. Se uma saída for considerada nociva, a resposta será bloqueada.