As alucinações de IA são resultados incorretos ou enganosos gerados pelos modelos de IA. Esses erros podem ser causados por diversos fatores, incluindo dados de treinamento insuficientes, suposições incorretas feitas pelo modelo ou vieses nos dados usados para treinar o modelo. As alucinações de IA podem ser um problema para sistemas de IA usados na tomada de decisões importantes, como diagnósticos médicos ou negociação financeira.
Clientes novos ganham até US$ 300 em créditos para testar a Vertex AI e outros produtos do Google Cloud.
Os modelos de IA são treinados em dados e aprendem a fazer previsões encontrando padrões nos dados. No entanto, a precisão dessas previsões geralmente depende da qualidade e integridade dos dados de treinamento. Se os dados de treinamento estiverem incompletos, enviesados ou falhos, o modelo de IA poderá aprender padrões incorretos, levando a previsões imprecisas ou alucinações.
Por exemplo, um modelo de IA treinado com um conjunto de dados de imagens médicas pode aprender a identificar células cancerígenas. No entanto, se o conjunto de dados não inclui imagens de tecido saudável, o modelo de IA pode prever incorretamente que o tecido saudável é cancerígeno.
Dados de treinamento falhos são apenas uma das razões pelas quais as alucinações de IA podem ocorrer. Outro fator que pode contribuir é a falta de um embasamento adequado. Os modelos de IA podem ter dificuldades para entender com precisão o conhecimento do mundo real, as propriedades físicas ou as informações factuais. Essa falta de embasamento pode fazer com que o modelo gere saídas que, embora aparentemente plausíveis, são realmente incorretas, irrelevantes ou sem sentido. Isso pode até mesmo se estender à fabricação de links para páginas da Web que nunca existiram.
Um exemplo disso seria um modelo de IA projetado para gerar resumos de artigos de notícias que pode produzir um resumo com detalhes que não estão presentes no artigo original ou até mesmo fabricar informações totalmente.
Entender essas possíveis causas das alucinações de IA é importante para desenvolvedores que trabalham com modelos de IA. Ao considerar cuidadosamente a qualidade e integridade dos dados de treinamento, além de garantir o embasamento adequado, os desenvolvedores podem minimizar o risco de alucinações de IA e garantir a precisão e a confiabilidade dos modelos.
As alucinações de IA podem assumir várias formas diferentes. Alguns exemplos comuns incluem:
Ao treinar um modelo de IA, é importante limitar o número de resultados possíveis que o modelo pode prever. Isso pode ser feito com uma técnica chamada "regularização". A regularização penaliza o modelo por fazer previsões muito extremas. Isso ajuda a evitar que o modelo sobreajuste os dados de treinamento e faça previsões incorretas.
Ao treinar um modelo de IA, é importante usar dados relevantes para a tarefa que o modelo vai realizar. Por exemplo, se você estiver treinando um modelo de IA para identificar câncer, use um conjunto de dados de imagens médicas. Usar dados que não são relevantes para a tarefa pode levar o modelo de IA a fazer previsões incorretas.
Ao treinar um modelo de IA, é útil criar um padrão para o modelo seguir. Esse padrão pode ajudar a orientar o modelo na hora de fazer previsões. Por exemplo, se você estiver treinando um modelo de IA para escrever texto, poderá criar um padrão que inclua os seguintes elementos:
Ao usar um modelo de IA, é importante informar ao modelo o que você quer ou não. Para isso, dê um feedback ao modelo. Por exemplo, se você estiver usando um modelo de IA para gerar texto, é possível fornecer feedback ao modelo, dizendo de qual texto você gosta ou não. Isso ajuda o modelo a aprender o que você está procurando.
Aprenda a usar o Google Cloud para evitar alucinações de IA:
Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.