Die Vertex AI RAG Engine ist eine Komponente der Vertex AI-Plattform und ermöglicht die Retrieval-Augmented Generation (RAG). Die Vertex AI RAG Engine ist auch ein Datenframework für die Entwicklung von Anwendungen, die kontexterweiterte Large Language Models (LLMs) nutzen. Die Kontexterweiterung erfolgt, wenn Sie ein LLM auf Ihre Daten anwenden. Hier wird Retrieval Augmented Generation (RAG) implementiert.
Ein häufiges Problem mit LLMs ist, dass sie kein Verständnis für vertrauliches Wissen haben, also die Daten Ihres Unternehmens. Mit der Vertex AI RAG Engine können Sie den LLM-Kontext mit zusätzlichen privaten Informationen anreichern, da das Modell Halluzinationen reduzieren und Fragen genauer beantworten kann.
Durch die Kombination zusätzlicher Wissensquellen mit dem vorhandenen Wissen von LLMs wird ein besserer Kontext bereitgestellt. Der verbesserte Kontext zusammen mit der Abfrage verbessert die Qualität der LLM-Antwort.
Die folgende Abbildung veranschaulicht die wichtigsten Konzepte der Vertex AI RAG Engine.
Diese Konzepte sind in der Reihenfolge des Retrieval-Augmented-Generation-Prozesses (RAG) aufgeführt.
Datenaufnahme: Nehmen Sie Daten aus verschiedenen Datenquellen auf. Zum Beispiel lokale Dateien, Cloud Storage und Google Drive.
Datentransformation: Konvertierung der Daten in der Vorbereitung auf die Indexierung. Beispielsweise werden Daten in Blöcke unterteilt.
Einbettung: Numerische Darstellungen von Wörtern oder Textabschnitten. Diese Zahlen erfassen die semantische Bedeutung und den Kontext des Texts. Ähnliche oder verwandte Wörter oder Text haben in der Regel ähnliche Einbettungen. Das bedeutet, dass sie im hochdimensionalen Vektorbereich näher beieinander liegen.
Datenindexierung: Die Vertex AI RAG Engine erstellt einen Index, der als Korpus bezeichnet wird. Der Index strukturiert die Wissensdatenbank so, dass sie für die Suche optimiert ist. Der Index ist beispielsweise mit einem detaillierten Inhaltsverzeichnis für ein großes Referenzbuch vergleichbar.
Abrufen: Wenn ein Nutzer eine Frage stellt oder einen Prompt bereitstellt, durchsucht die Abrufkomponente in der Vertex AI RAG Engine in ihrer Wissensdatenbank nach relevanten Informationen.
Generierung: Die abgerufenen Informationen werden zum Kontext, der der ursprünglichen Nutzeranfrage als Leitfaden für das generative KI-Modell hinzugefügt wurde, um faktisch fundierte und relevante Antworten zu generieren.
Unterstützte Regionen
Die Vertex AI RAG Engine wird in den folgenden Regionen unterstützt:
Region | Standort | Beschreibung | Startphase |
---|---|---|---|
europe-west3 |
Frankfurt, Deutschland | Die Versionen v1 und v1beta1 werden unterstützt. |
GA |
us-central1 |
Iowa | Die Versionen v1 und v1beta1 werden unterstützt. |
GA |
Nächste Schritte
- Informationen zum Ausführen von Vertex AI RAG Engine-Aufgaben mit dem Vertex AI SDK finden Sie in der RAG-Schnellstartanleitung für Python.
- Weitere Informationen zur Fundierung finden Sie unter Fundierungsübersicht.
- Weitere Informationen zu den Unterschieden zwischen RAG und Erdung finden Sie unter Fundierungsantworten mit RAG.
- Weitere Informationen zur RAG-Architektur: