O que são alucinações de IA?

As alucinações de IA são resultados incorretos ou enganosos gerados pelos modelos de IA. Esses erros podem ser causados por diversos fatores, incluindo dados de treinamento insuficientes, suposições incorretas feitas pelo modelo ou vieses nos dados usados para treinar o modelo. As alucinações de IA podem ser um problema para sistemas de IA usados na tomada de decisões importantes, como diagnósticos médicos ou negociação financeira.

Clientes novos ganham até US$ 300 em créditos para testar a Vertex AI e outros produtos do Google Cloud.

Como ocorrem as alucinações de IA?

Os modelos de IA são treinados em dados e aprendem a fazer previsões encontrando padrões nos dados. No entanto, a precisão dessas previsões geralmente depende da qualidade e integridade dos dados de treinamento. Se os dados de treinamento estiverem incompletos, enviesados ou falhos, o modelo de IA poderá aprender padrões incorretos, levando a previsões imprecisas ou alucinações.

Por exemplo, um modelo de IA treinado com um conjunto de dados de imagens médicas pode aprender a identificar células cancerígenas. No entanto, se o conjunto de dados não inclui imagens de tecido saudável, o modelo de IA pode prever incorretamente que o tecido saudável é cancerígeno. 

Dados de treinamento falhos são apenas uma das razões pelas quais as alucinações de IA podem ocorrer. Outro fator que pode contribuir é a falta de um embasamento adequado. Os modelos de IA podem ter dificuldades para entender com precisão o conhecimento do mundo real, as propriedades físicas ou as informações factuais. Essa falta de embasamento pode fazer com que o modelo gere saídas que, embora aparentemente plausíveis, são realmente incorretas, irrelevantes ou sem sentido. Isso pode até mesmo se estender à fabricação de links para páginas da Web que nunca existiram.

Um exemplo disso seria um modelo de IA projetado para gerar resumos de artigos de notícias que pode produzir um resumo com detalhes que não estão presentes no artigo original ou até mesmo fabricar informações totalmente. 

Entender essas possíveis causas das alucinações de IA é importante para desenvolvedores que trabalham com modelos de IA. Ao considerar cuidadosamente a qualidade e integridade dos dados de treinamento, além de garantir o embasamento adequado, os desenvolvedores podem minimizar o risco de alucinações de IA e garantir a precisão e a confiabilidade dos modelos.

Exemplos de alucinações de IA

As alucinações de IA podem assumir várias formas diferentes. Alguns exemplos comuns incluem:

  • Previsões incorretas: um modelo de IA pode prever que um evento ocorrerá quando for improvável. Por exemplo, um modelo de IA usado para prever o clima pode prever que vai chover amanhã, quando não há previsão de chuva.
  • Falsos positivos: ao trabalhar com um modelo de IA, ele pode identificar algo como uma ameaça, quando não é. Por exemplo, um modelo de IA usado para detectar fraudes pode sinalizar uma transação como fraudulenta.
  • Falsos negativos: um modelo de IA pode não conseguir identificar algo como sendo uma ameaça no momento. Por exemplo, um modelo de IA usado para detectar o câncer pode não conseguir identificar um tumor cancerígeno.

Como evitar alucinações de IA

Há várias formas de evitar alucinações de IA, como:

Limite os possíveis resultados

Ao treinar um modelo de IA, é importante limitar o número de resultados possíveis que o modelo pode prever. Isso pode ser feito com uma técnica chamada "regularização". A regularização penaliza o modelo por fazer previsões muito extremas. Isso ajuda a evitar que o modelo sobreajuste os dados de treinamento e faça previsões incorretas.

Treine sua IA apenas com fontes relevantes e específicas

Ao treinar um modelo de IA, é importante usar dados relevantes para a tarefa que o modelo vai realizar. Por exemplo, se você estiver treinando um modelo de IA para identificar câncer, use um conjunto de dados de imagens médicas. Usar dados que não são relevantes para a tarefa pode levar o modelo de IA a fazer previsões incorretas.

Crie um modelo para sua IA seguir

Ao treinar um modelo de IA, é útil criar um padrão para o modelo seguir. Esse padrão pode ajudar a orientar o modelo na hora de fazer previsões. Por exemplo, se você estiver treinando um modelo de IA para escrever texto, poderá criar um padrão que inclua os seguintes elementos:

  • Um título
  • Uma introdução
  • Um corpo
  • Uma conclusão

Diga à IA o que você quer e não quer

Ao usar um modelo de IA, é importante informar ao modelo o que você quer ou não. Para isso, dê um feedback ao modelo. Por exemplo, se você estiver usando um modelo de IA para gerar texto, é possível fornecer feedback ao modelo, dizendo de qual texto você gosta ou não. Isso ajuda o modelo a aprender o que você está procurando.

Resolva seus desafios comerciais com o Google Cloud

Clientes novos recebem US$ 300 em créditos para usar no Google Cloud.
Fale com um especialista em vendas do Google Cloud para discutir seu desafio exclusivo em mais detalhes.

Como o Google Cloud pode ajudar a prevenir alucinações de IA

Aprenda a usar o Google Cloud para evitar alucinações de IA: 

Vá além

Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud