O que é a geração aumentada de recuperação (RAG)?

A Geração Aumentada de Recuperação (RAG) é um framework de IA que combina os pontos fortes dos sistemas tradicionais de recuperação de informações (como bancos de dados) com os recursos dos modelos generativos de linguagem grande (LLMs).Ao combinar esse conhecimento extra com as próprias habilidades linguísticas, a IA consegue escrever textos mais precisos, atualizados e relevantes para suas necessidades específicas.

Base para o Gemini com Vertex AI para Pesquisa e RAG do tipo "aprenda a fazer"

Como funciona a Geração Aumentada de Recuperação?

As RAGs operam com algumas etapas principais para ajudar a melhorar as saídas da IA generativa: 

  • Recuperação e pré-processamento: as RAGs usam algoritmos de pesquisa avançados para consultar dados externos, como páginas da Web, bases de conhecimento e bancos de dados. Depois de recuperadas, as informações relevantes passam por um pré-processamento, incluindo tokenização, derivação e remoção de palavras de parada.
  • Geração: as informações pré-processadas são incorporadas ao LLM pré-treinado. Essa integração melhora o contexto do LLM, oferecendo uma compreensão mais abrangente do assunto. Esse contexto aumentado permite que o LLM gere respostas mais precisas, informativas e interessantes. 

Para operar, a RAG primeiro recupera informações relevantes de um banco de dados usando uma consulta gerada pelo LLM. As informações recuperadas são integradas à entrada de consulta do LLM, permitindo a geração de textos mais precisos e contextualmente relevantes. A RAG utiliza bancos de dados de vetores, que armazenam dados de forma a facilitar a pesquisa e a recuperação eficientes.

Por que usar a RAG?

O RAG oferece várias vantagens em relação aos métodos tradicionais de geração de texto, especialmente ao lidar com informações factuais ou respostas baseadas em dados. Aqui estão alguns dos principais motivos pelos quais o uso da RAG pode ser benéfico:

Acesso a informações atualizadas

Os LLMs tradicionais muitas vezes são limitados ao conhecimento e dados pré-treinados. Isso pode gerar respostas possivelmente desatualizadas ou imprecisas. A RAG supera isso ao conceder aos LLMs acesso a fontes de informações externas, garantindo respostas precisas e atualizadas.

Embasamento factual

LLMs são ferramentas poderosas para gerar textos criativos e envolventes, mas às vezes eles podem ter dificuldades com a precisão dos fatos. Isso ocorre porque os LLMs são treinados com quantidades enormes de dados de texto, que podem conter imprecisões ou vieses.

A RAG ajuda a resolver esse problema fornecendo aos LLMs acesso a uma base de conhecimento selecionada, garantindo que o texto gerado seja fundamentado em informações factuais. Isso torna a RAG particularmente valiosa para aplicativos em que a precisão é fundamental, como reportagens, redação científica ou atendimento ao cliente.

Observação: o RAG também pode ajudar a impedir o envio de alucinações artificiais ao usuário final. O LLM ainda vai gerar soluções de vez em quando quando o treinamento estiver incompleto, mas a técnica RAG ajuda a melhorar a experiência do usuário.

Relevância contextual

O mecanismo de recuperação na RAG garante que as informações recuperadas sejam relevantes para a consulta ou contexto de entrada.

Ao fornecer ao LLM informações contextualmente relevantes, ele ajuda o modelo a gerar respostas mais coerentes e alinhadas com o contexto dado.

Esse embasamento contextual ajuda a reduzir a geração de respostas irrelevantes ou que não tenham relação com o tópico.

Consistência factual

A RAG incentiva o LLM a gerar respostas consistentes com as informações factuais recuperadas.

Ao condicionar o processo de geração ao conhecimento adquirido, a RAG ajuda a minimizar contradições e inconsistências no texto gerado.

Isso promove a consistência dos fatos e reduz a probabilidade de gerar informações falsas ou enganosas.

Usa bancos de dados de vetores

As RAGs utilizam bancos de dados de vetores para recuperar documentos relevantes com eficiência. Bancos de dados vetoriais armazenam documentos como vetores em um espaço de alta dimensão, permitindo uma recuperação rápida e precisa com base na semelhança semântica.

Respostas mais precisas

As RAGs complementam os LLMs fornecendo informações contextualmente relevantes. Os LLMs podem usar essas informações para gerar respostas mais coerentes, informativas e precisas, até mesmo respostas multimodais.

RAGs e chatbots

As RAGs podem ser integradas a um sistema de chatbot para aprimorar suas habilidades de conversa. Ao acessar informações externas, os chatbots com a tecnologia RAG ajudam a aproveitar o conhecimento externo para fornecer respostas mais abrangentes, informativas e contextuais, melhorando a experiência geral do usuário.

Vá além

Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos do programa Sempre gratuito.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud