La Retrieval-Augmented Generation (RAG) è un framework di AI che combina i punti di forza dei tradizionali sistemi di recupero di informazioni (come i database) con le capacità dei modelli linguistici di grandi dimensioni (LLM) generativi. Combinando queste conoscenze aggiuntive con le proprie competenze linguistiche, l'AI può scrivere testi più accurati, aggiornati e pertinenti alle tue esigenze specifiche.
Le RAG operano con alcuni passaggi principali per contribuire a migliorare gli output dell'AI generativa.
La RAG opera recuperando prima le informazioni pertinenti da un database utilizzando una query generata dall'LLM. Queste informazioni recuperate vengono quindi integrate nell'input di query dell'LLM, in modo da generare testo più accurato e contestualmente pertinente. La RAG sfrutta database vettoriali, che memorizzano i dati in modo da facilitare una ricerca e un recupero efficienti.
La RAG offre diversi vantaggi rispetto ai metodi tradizionali di generazione del testo, soprattutto quando si tratta di informazioni oggettive o risposte basate sui dati. Ecco alcuni motivi principali per cui l'utilizzo della RAG può essere utile:
Gli LLM tradizionali sono spesso limitati alle conoscenze e ai dati per cui sono stati preaddestrati. Ciò potrebbe causare risposte potenzialmente obsolete o inaccurate. La RAG risolve questo problema concedendo agli LLM l'accesso a fonti di informazioni esterne, garantendo risposte accurate e aggiornate.
Gli LLM sono strumenti potenti per generare testo creativo e coinvolgente, ma a volte possono avere difficoltà con l'accuratezza oggettiva. Questo perché gli LLM vengono addestrati su enormi quantità di dati di testo, che potrebbero contenere inesattezze o bias.
La RAG contribuisce a risolvere questo problema fornendo agli LLM l'accesso a una knowledge base organizzata, garantendo che il testo generato sia basato su informazioni oggettive. Questo rende la RAG particolarmente utile per le applicazioni in cui l'accuratezza è fondamentale, come i servizi giornalistici, la scrittura scientifica o l'assistenza clienti.
Nota: la RAG può anche aiutare a impedire le allucinazioni inviate all'utente finale. L'LLM continua a generare soluzioni di volta in volta quando il suo addestramento è incompleto, ma la tecnica RAG aiuta a migliorare l'esperienza utente.
Il meccanismo di recupero nella RAG assicura che le informazioni recuperate siano pertinenti al contesto o alla query di input.
Fornendo all'LLM informazioni contestualmente rilevanti, la RAG aiuta il modello a generare risposte più coerenti e in linea con il contesto.
Questa fondatezza contestuale contribuisce a ridurre la generazione di risposte irrilevanti o fuori tema.
La RAG porta l'LLM a generare risposte coerenti con le informazioni oggettive recuperate.
Condizionando il processo di generazione in base alle conoscenze recuperate, le RAG aiutano a ridurre al minimo le contraddizioni e le incoerenze nel testo generato.
Ciò favorisce la coerenza dei fatti e riduce la probabilità di generare informazioni false o fuorvianti.
Le RAG sfruttano i database vettoriali per recuperare in modo efficiente i documenti pertinenti. I database vettoriali archiviano i documenti come vettori in uno spazio con molte dimensioni, consentendo un recupero veloce e accurato in base alla somiglianza semantica.
Le RAG completano gli LLM fornendo loro informazioni contestualmente pertinenti. Gli LLM possono quindi utilizzare queste informazioni per generare risposte più coerenti, informative e accurate, persino multimodali.
Le RAG possono essere integrati in un sistema di chatbot per migliorare le loro capacità di conversazione. Accedendo a informazioni esterne, i chatbot basati su RAG aiutano a sfruttare conoscenze esterne per fornire risposte più complete, informative e contestualizzate, migliorando l'esperienza utente complessiva.
Scopri di più sull'utilizzo della Retrieval Augmented Generation (RAG) con queste risorse.
Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.