Auf dieser Seite werden einige Anwendungsfälle für das Erstellen von LLM-basierten Anwendungen mit LlamaIndex in Kombination mit AlloyDB for PostgreSQL beschrieben. Links zu Notebooks auf GitHub helfen Ihnen, Ansätze zu untersuchen oder Ihre Anwendung zu entwickeln.
LlamaIndex ist ein Orchestrierungs-Framework für generative KI, mit dem Sie Datenquellen mit Large Language Models (LLMs) verbinden und integrieren können. Mit LlamaIndex können Sie Anwendungen erstellen, die mit Abfragen in natürlicher Sprache auf Informationen aus privaten oder domänenspezifischen Daten zugreifen und diese abfragen.
LlamaIndex fungiert als Brücke zwischen benutzerdefinierten Daten und LLMs und erleichtert die Entwicklung von Wissensassistenten-Anwendungen mit RAG-Funktionen (Retrieval-Augmented Generation).
LlamaIndex eignet sich gut für dokumentzentrierte Anwendungen, da der Schwerpunkt auf der strukturierten Dokumentverwaltung liegt, was die Indexierung und den Abruf vereinfacht. Dieses Framework bietet optimierte Abfragemethoden, die die Geschwindigkeit und Relevanz des Informationszugriffs verbessern, sowie eine robuste Metadatenverarbeitung für differenzierte Filterung.
Weitere Informationen zum LlamaIndex-Framework finden Sie in der LlamaIndex-Produktdokumentation.
LlamaIndex-Komponenten
AlloyDB bietet die folgenden LlamaIndex-Schnittstellen:
- Vektorspeicher
- Dokumentenspeicher
- Index Stores
- Chat-Stores
- Document Reader
Informationen zur Verwendung von LlamaIndex mit der Kurzanleitung für AlloyDB
Vektorspeicher
Mit dieser LlamaIndex-Integration können Sie die robuste und skalierbare Natur von AlloyDB nutzen, um Ihre LlamaIndex-Daten zu speichern und zu verwalten. Durch die Kombination der Indexierungs- und Abfragefunktionen von LlamaIndex mit der hohen Leistung und Zuverlässigkeit von AlloyDB können Sie effizientere und skalierbarere LLM-basierte Anwendungen erstellen.
LlamaIndex zerlegt ein Dokument – DOC, Text und PDFs – in Dokumentkomponenten, die als Knoten bezeichnet werden. Der VectorStore kann nur die Einbettungsvektoren der aufgenommenen Knoteninhalte und den Text der Knoten enthalten. Ein Knoten ist ein erstklassiges Konzept, das Textinhalte, Vektoreinbettungen und Metadaten enthält. Sie können Filter auf diese Metadatenfelder anwenden, um den Knotenabruf auf Knoten zu beschränken, die den angegebenen Metadatenkriterien entsprechen.
Verwenden Sie die Klasse AlloyDBVectorStore
, um mit Vektorspeichern in AlloyDB zu arbeiten.
Weitere Informationen finden Sie unter LlamaIndex Vector Stores.
Vektoreinbettungen mit der Klasse „AlloyDBVectorStore“ speichern
Im AlloyDB-Notebook für Vektorspeicher erfahren Sie, wie Sie Folgendes tun:
- Tabelle zum Speichern von Vektoreinbettungen initialisieren
- Erstellen Sie eine Instanz der Einbettungsklasse mit einem beliebigen Llama-Index-Einbettungsmodell.
- Standard-
AlloyDBVectorStore
-Vektorspeicher initialisieren - Erstellen Sie einen Index aus dem Vektorspeicher und fragen Sie ihn mit VectorStoreIndex ab.
- Erstellen Sie einen benutzerdefinierten Vektorspeicher, um Metadaten effektiv zu speichern und zu filtern.
- Fügen Sie einen ANN-Index hinzu, um die Suchlatenz zu verbessern.
Dokument- und Indexspeicher
Die LlamaIndex Document Stores-Integration verwaltet die strukturierte Speicherung und den Abruf von Dokumenten und optimiert die dokumentzentrierten Funktionen von LlamaIndex. Dokument Store speichert die Inhalte, die sich auf die Vektoren im Vektorspeicher beziehen.
Weitere Informationen finden Sie in der Produktdokumentation zu LlamaIndex Document Stores.
Index Stores erleichtern die Verwaltung von Indexen, um schnelle Abfragen und den Datenabruf zu ermöglichen, z. B. für Zusammenfassungs-, Keyword- und Baumindexe.Index
in LlamaIndex ist ein einfacher Speicher nur für die Knotenmetadaten. Für Aktualisierungen der Knotenmetadaten ist keine Neuindexierung (Einbettungsgenerierung) des gesamten Knotens oder aller Knoten in einem Dokument erforderlich.
Weitere Informationen finden Sie unter LlamaIndex Index Stores.
Dokumente und Indexe speichern
Das AlloyDB-Notebook für Document Stores zeigt, wie Sie mit AlloyDB Dokumente und Indexe mit den Klassen AlloyDBDocumentStore
und AlloyDBIndexStore
speichern.
Sie lernen, wie Sie Folgendes tun:
- Erstellen Sie mit
AlloyDBEngine.from_instance()
eineAlloyDBEngine
. - Erstellen Sie Tabellen für DocumentStore und IndexStore.
- Standard-
AlloyDBDocumentStore
initialisieren - Richten Sie ein
AlloyDBIndexStore
ein. - Fügen Sie dem
Docstore
Dokumente hinzu. - Verwenden Sie Dokumentenspeicher mit mehreren Indexen.
- Vorhandene Indexe laden
Chat-Stores
In Chat-Speichern werden der Unterhaltungsverlauf und der Kontext für chatbasierte Anwendungen gespeichert, um personalisierte Interaktionen zu ermöglichen. Chat Stores bieten ein zentrales Repository, in dem Chatnachrichten in einer Unterhaltung gespeichert und abgerufen werden. So kann das LLM den Kontext beibehalten und auf Grundlage des laufenden Dialogs relevantere Antworten geben.
Large Language Models sind standardmäßig zustandslos. Das bedeutet, dass sie vorherige Eingaben nicht beibehalten, sofern diese nicht jedes Mal explizit angegeben werden. Wenn Sie einen Chat-Speicher verwenden, können Sie den Kontext der Unterhaltung beibehalten. So kann das Modell im Laufe der Zeit relevantere und kohärentere Antworten generieren.
Das Speichermodul in LlamaIndex ermöglicht das effiziente Speichern und Abrufen von Gesprächskontext, was personalisiertere und kontextbezogene Interaktionen in Chatanwendungen ermöglicht. Sie können das Speichermodul in LlamaIndex mit einem ChatStore und einem ChatMemoryBuffer integrieren.
Weitere Informationen finden Sie unter LlamaIndex Chat Stores.
Chatprotokoll speichern
Im AlloyDB-Notebook für Chat-Stores wird gezeigt, wie Sie AlloyDB for
PostgreSQL
verwenden, um den Chatverlauf mit der Klasse AlloyDBChatStore
zu speichern. Sie lernen, wie Sie Folgendes tun:
- Erstellen Sie mit
AlloyDBEngine.from_instance()
eineAlloyDBEngine
. - Standard-
AlloyDBChatStore
initialisieren - Erstellen Sie einen
ChatMemoryBuffer
. - Erstellen Sie eine LLM-Klasseninstanz.
- Verwenden Sie
AlloyDBChatStore
ohne Speicherkontext. - Verwenden Sie
AlloyDBChatStore
mit einem Speicherkontext. - Chat Engine erstellen und verwenden
Document Reader
Mit Document Reader werden Daten effizient aus AlloyDB abgerufen und in LlamaIndex-kompatible Formate für die Indexierung transformiert. Die Document Reader-Schnittstelle bietet Methoden zum Laden von Daten aus einer Quelle als Documents
. Document
ist eine Klasse, in der ein Textabschnitt und die zugehörigen Metadaten gespeichert werden. Mit Document Readers können Sie Dokumente laden, die Sie in Document Stores speichern oder zum Erstellen von Indexen verwenden möchten.
Weitere Informationen finden Sie unter LlamaIndex Document Reader.
Daten als Dokumente abrufen
Im AlloyDB-Notebook für Document Reader wird gezeigt, wie Sie mit AlloyDB Daten als Dokumente mit der Klasse AlloyDBReader
abrufen. Sie lernen, wie Sie Folgendes tun:
- Erstellen Sie mit
AlloyDBEngine.from_instance()
eineAlloyDBEngine
. - Erstellen Sie
AlloyDBReader
. - Laden Sie Dokumente mit dem Argument
table_name
. - Dokumente mit einer SQL-Abfrage laden.
- Seiteninhaltsformat festlegen
- Laden Sie die Dokumente.