Che cos'è la Retrieval-Augmented Generation (RAG)?

La Retrieval-Augmented Generation (RAG) è un framework di AI che combina i punti di forza dei tradizionali sistemi di recupero di informazioni (come i database) con le capacità dei modelli linguistici di grandi dimensioni (LLM) generativi. Combinando queste conoscenze aggiuntive con le proprie competenze linguistiche, l'AI può scrivere testi più accurati, aggiornati e pertinenti alle tue esigenze specifiche.

Fondatezza per Gemini con Vertex AI Search e RAG fai da te

Come funziona la Retrieval Augmented Generation (RAG)?

Le RAG operano con alcuni passaggi principali per contribuire a migliorare gli output dell'AI generativa. 

  • Recupero e pre-elaborazione: le RAG sfruttano potenti algoritmi di ricerca per eseguire query su dati esterni, come pagine web, knowledge base e database. Una volta recuperate, le informazioni pertinenti vengono sottoposte a pre-elaborazione, tra cui tokenizzazione, stemming e rimozione delle parole di interruzione.
  • Generazione: le informazioni recuperate pre-elaborate vengono quindi incorporate perfettamente nell'LLM preaddestrato. Questa integrazione migliora il contesto dell'LLM, fornendo una comprensione più completa dell'argomento. Questo contesto aumentato consente all'LLM di generare risposte più precise, informative e coinvolgenti. 

La RAG opera recuperando prima le informazioni pertinenti da un database utilizzando una query generata dall'LLM. Queste informazioni recuperate vengono quindi integrate nell'input di query dell'LLM, in modo da generare testo più accurato e contestualmente pertinente. La RAG sfrutta database vettoriali, che memorizzano i dati in modo da facilitare una ricerca e un recupero efficienti.

Perché utilizzare la RAG?

La RAG offre diversi vantaggi rispetto ai metodi tradizionali di generazione del testo, soprattutto quando si tratta di informazioni oggettive o risposte basate sui dati. Ecco alcuni motivi principali per cui l'utilizzo della RAG può essere utile:

Accedi alle informazioni aggiornate

Gli LLM tradizionali sono spesso limitati alle conoscenze e ai dati per cui sono stati preaddestrati. Ciò potrebbe causare risposte potenzialmente obsolete o inaccurate. La RAG risolve questo problema concedendo agli LLM l'accesso a fonti di informazioni esterne, garantendo risposte accurate e aggiornate.

Fondatezza fattuale

Gli LLM sono strumenti potenti per generare testo creativo e coinvolgente, ma a volte possono avere difficoltà con l'accuratezza oggettiva. Questo perché gli LLM vengono addestrati su enormi quantità di dati di testo, che potrebbero contenere inesattezze o bias.

La RAG contribuisce a risolvere questo problema fornendo agli LLM l'accesso a una knowledge base organizzata, garantendo che il testo generato sia basato su informazioni oggettive. Questo rende la RAG particolarmente utile per le applicazioni in cui l'accuratezza è fondamentale, come i servizi giornalistici, la scrittura scientifica o l'assistenza clienti.

Nota: la RAG può anche aiutare a impedire le allucinazioni inviate all'utente finale. L'LLM continua a generare soluzioni di volta in volta quando il suo addestramento è incompleto, ma la tecnica RAG aiuta a migliorare l'esperienza utente.

Pertinenza contestuale

Il meccanismo di recupero nella RAG assicura che le informazioni recuperate siano pertinenti al contesto o alla query di input.

Fornendo all'LLM informazioni contestualmente rilevanti, la RAG aiuta il modello a generare risposte più coerenti e in linea con il contesto.

Questa fondatezza contestuale contribuisce a ridurre la generazione di risposte irrilevanti o fuori tema.

Coerenza fattuale

La RAG porta l'LLM a generare risposte coerenti con le informazioni oggettive recuperate.

Condizionando il processo di generazione in base alle conoscenze recuperate, le RAG aiutano a ridurre al minimo le contraddizioni e le incoerenze nel testo generato.

Ciò favorisce la coerenza dei fatti e riduce la probabilità di generare informazioni false o fuorvianti.

Utilizza database vettoriali

Le RAG sfruttano i database vettoriali per recuperare in modo efficiente i documenti pertinenti. I database vettoriali archiviano i documenti come vettori in uno spazio con molte dimensioni, consentendo un recupero veloce e accurato in base alla somiglianza semantica.

Accuratezza delle risposte migliorata

Le RAG completano gli LLM fornendo loro informazioni contestualmente pertinenti. Gli LLM possono quindi utilizzare queste informazioni per generare risposte più coerenti, informative e accurate, persino multimodali.

RAG e chatbot

Le RAG possono essere integrati in un sistema di chatbot per migliorare le loro capacità di conversazione. Accedendo a informazioni esterne, i chatbot basati su RAG aiutano a sfruttare conoscenze esterne per fornire risposte più complete, informative e contestualizzate, migliorando l'esperienza utente complessiva.

Fai il prossimo passo

Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud