Was ist Retrieval-Augmented Generation (RAG)?

RAG (Retrieval-Augmented Generation) ist ein KI-Framework, das die Stärken herkömmlicher Informationsabrufsysteme (z. B. Datenbanken) mit den Funktionen generativer Large Language Models (LLMs) kombiniert.Durch die Kombination dieses zusätzlichen Wissens mit ihren eigenen Sprachkenntnissen kann die KI genauer, aktueller und relevanter für Ihre spezifischen Anforderungen Texte schreiben.

Grundlagen für Gemini mit Vertex  AI Search und DIY RAG

Wie funktioniert die Retrieval-Augmented Generation?

RAGs nutzen einige wichtige Schritte, um generative AI-Ausgaben zu verbessern: 

  • Abruf und Vorverarbeitung: RAGs nutzen leistungsstarke Suchalgorithmen, um externe Daten wie Webseiten, Wissensdatenbanken und Datenbanken abzufragen. Nach dem Abruf werden die relevanten Informationen vorverarbeitet (einschließlich Tokenisierung, Wortstammfunktion und Entfernung von Stoppwörtern).
  • Generierung: Die vorverarbeiteten abgerufenen Informationen werden dann nahtlos in das vortrainierte LLM eingebunden. Durch diese Einbindung wird der Kontext des LLM erweitert, sodass es ein umfassenderes Verständnis des Themas erhält. Dieser erweiterte Kontext ermöglicht es dem LLM, präzisere, informativere und ansprechendere Antworten zu generieren. 

RAG ruft mithilfe einer vom LLM generierten Abfrage relevante Informationen aus einer Datenbank ab. Diese abgerufenen Informationen werden dann in die Abfrageeingabe des LLM eingebunden, damit es genaueren und kontextrelevanteren Text generieren kann. RAG nutzt Vektordatenbanken, in denen Daten auf eine Weise gespeichert werden, die ein effizientes Suchen und Abrufen ermöglicht.

Warum RAG?

RAG bietet gegenüber herkömmlichen Methoden der Textgenerierung mehrere Vorteile, insbesondere wenn es um faktenbasierte Informationen oder datengesteuerte Antworten geht. Hier sind einige der wichtigsten Gründe, warum die Verwendung von RAG vorteilhaft sein kann:

Zugriff auf aktualisierte Informationen

Herkömmliche LLMs sind oft auf ihr vortrainiertes Wissen und ihre Daten beschränkt. Das kann zu veralteten oder ungenauen Antworten führen. RAG arbeitet anders, indem es LLMs den Zugriff auf externe Informationsquellen gewährt und so für korrekte und aktuelle Antworten sorgt.

Sachliche Fundierung

LLMs sind leistungsstarke Tools zum Erstellen von kreativem und ansprechendem Text, können aber manchmal Probleme mit der faktenbasierten Genauigkeit erschweren. Das liegt daran, dass LLMs mit riesigen Mengen an Textdaten trainiert werden, die Ungenauigkeiten oder Verzerrungen enthalten können.

RAG hilft dabei, dieses Problem anzugehen, indem LLMs Zugriff auf eine ausgewählte Wissensdatenbank erhalten, die dafür sorgt, dass der generierte Text auf faktenbasierten Informationen basiert. Dies macht RAG besonders nützlich für Anwendungen, bei denen es auf Genauigkeit ankommt, wie z. B. Nachrichtenberichte, wissenschaftliche Texte oder Kundenservice.

Hinweis: RAG kann auch dabei helfen, zu verhindern, dass KI-Halluzinationen an den Endnutzer gesendet werden. Das LLM generiert gelegentlich weiterhin Lösungen, für die sein Training unvollständig ist, aber die RAG-Technik trägt dazu bei, die User Experience zu verbessern.

Kontextbezogene Relevanz

Der Abrufmechanismus in RAG stellt sicher, dass die abgerufenen Informationen für die Eingabeabfrage oder den Kontext relevant sind.

Da es das LLM mit kontextrelevanten Informationen versorgt, hilft RAG dem Modell, Antworten zu generieren, die kohärent und auf den gegebenen Kontext abgestimmt sind.

Diese kontextbezogene Grundlage trägt dazu bei, die Generierung von irrelevanten oder nicht themenbezogenen Antworten zu reduzieren.

Sachliche Konsistenz

RAG fordert das LLM an, Antworten zu generieren, die mit den abgerufenen Sachinformationen übereinstimmen.

Durch die Konditionierung des Generierungsprozesses anhand des abgerufenen Wissens trägt RAG dazu bei, Widersprüche und Inkonsistenzen im generierten Text zu minimieren.

Dies fördert sachliche Konsistenz und verringert die Wahrscheinlichkeit, dass falsche oder irreführende Informationen generiert werden.

Nutzt Vektordatenbanken

RAGs nutzen Vektordatenbanken, um relevante Dokumente effizient abzurufen. Vektordatenbanken speichern Dokumente als Vektoren in einem hochdimensionalen Raum, was ein schnelles und genaues Abrufen basierend auf semantischer Ähnlichkeit ermöglicht.

Verbesserte Antwortgenauigkeit

RAGs ergänzen LLMs durch kontextrelevante Informationen. LLMs können diese Informationen dann nutzen, um kohärente, informative und präzisere Antworten zu generieren – darunter auch multimodale Antworten.

RAGs und Chatbots

RAGs können in ein Chatbot-System eingebunden werden, um deren Konversationsfähigkeiten zu verbessern. Durch den Zugriff auf externe Informationen helfen RAG-gesteuerte Chatbots, externes Wissen zu nutzen, um umfassende, informative und kontextsensitive Antworten zu liefern und so die User Experience insgesamt zu verbessern.

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud