LLM-gestützte Anwendungen mit LangChain erstellen

Auf dieser Seite wird beschrieben, wie Sie LLM-gestützte Anwendungen mit LangChain erstellen. Die Übersichten auf dieser Seite verweisen auf Leitfäden für die Eingriffe in GitHub.

Was ist LangChain?

LangChain ist ein LLM-Orchestrierungsframework, mit dem Entwickler Generative AI-Anwendungen oder RAG-Workflows (Retrieval-Augmented Generation) erstellen können. Es bietet die Struktur, Tools und Komponenten, um komplexe LLM-Workflows zu optimieren.

Weitere Informationen zu LangChain finden Sie auf der Seite Google LangChain. Weitere Informationen zum LangChain-Framework finden Sie in der LangChain-Produktdokumentation.

LangChain-Komponenten für Memorystore for Redis

Memorystore for Redis bietet die folgenden LangChain-Oberflächen:

Weitere Informationen zur Verwendung von LangChain finden Sie im LangChain-Schnellstart für Memorystore for Redis.

Vektorspeicher für Memorystore for Redis

Im Vektorspeicher werden Dokumente und Metadaten aus einer Vektordatenbank abgerufen und gespeichert. Mit einem Vektorspeicher kann eine Anwendung semantische Suchen ausführen, die die Bedeutung einer Nutzerabfrage interpretieren. Diese Art der Suche wird als Vektorsuche bezeichnet und kann Themen finden, die konzeptionell mit der Abfrage übereinstimmen. Bei der Abfrage ruft der Vektorspeicher die Einbettungsvektoren ab, die der Einbettung der Suchanfrage am ähnlichsten sind. In LangChain speichert ein Vektorspeicher eingebettete Daten und führt die Vektorsuche für Sie durch.

Verwenden Sie die Klasse RedisVectorStore, um mit dem Vektorspeicher in Memorystore for Redis zu arbeiten.

Weitere Informationen finden Sie in der Produktdokumentation zu LangChain Vector Stores.

Leitfaden für Vector Store-Verfahren

Im Memorystore for Redis-Leitfaden für den Vektorspeicher wird Folgendes beschrieben:

  • Integrationspaket und LangChain installieren
  • Vektorindex initialisieren
  • Dokumente für den Vektorspeicher vorbereiten
  • Dokumente zum Vektorspeicher hinzufügen
  • Ähnlichkeitssuche (KNN) durchführen
  • Eine bereichsbasierte Ähnlichkeitssuche durchführen
  • MMR-Suche (maximale Grenzrelevanz) durchführen
  • Vektorspeicher als Retriever verwenden
  • Dokumente aus dem Vektorspeicher löschen
  • Vektorindex löschen

Dokumentladeprogramm für Memorystore for Redis

Das Ladeprogramm für Dokumente speichert, lädt und löscht LangChain-Objekte vom Typ Document. Sie können beispielsweise Daten zur Verarbeitung in Einbettungen laden und sie entweder im Vektorspeicher speichern oder sie als Tool verwenden, um spezifischen Kontext für Ketten bereitzustellen.

Verwenden Sie die Klasse MemorystoreDocumentLoader, um Dokumente aus dem Dokumentladeprogramm in Memorystore for Redis zu laden. Verwenden Sie die Klasse MemorystoreDocumentSaver, um Dokumente zu speichern und zu löschen.

Weitere Informationen finden Sie im Thema LangChain-Dokumentladeprogramme.

Leitfaden zum Dokumentladevorgang

Im Memorystore for Redis-Leitfaden für das Dokumentladeprogramm wird beschrieben, wie Sie Folgendes tun:

  • Integrationspaket und LangChain installieren
  • Dokumente aus einer Tabelle laden
  • Filter zum Ladeprogramm hinzufügen
  • Verbindung und Authentifizierung anpassen
  • Passen Sie die Dokumenterstellung an, indem Sie Kundeninhalte und Metadaten angeben
  • MemorystoreDocumentSaver zum Speichern und Löschen von Dokumenten verwenden und anpassen

Chatnachrichtenverlauf für Memorystore for Redis

Frage-Antwort-Anwendungen erfordern einen Verlauf der in der Unterhaltung gesprochenen Dinge, um der Anwendung Kontext zur Beantwortung weiterer Fragen des Nutzers zu geben. Mit der LangChain-Klasse ChatMessageHistory kann die Anwendung Nachrichten in einer Datenbank speichern und bei Bedarf abrufen, um weitere Antworten zu formulieren. Eine Nachricht kann eine Frage, eine Antwort, eine Aussage, eine Begrüßung oder ein anderer Text sein, den der Nutzer oder eine Anwendung während der Unterhaltung gibt. ChatMessageHistory speichert jede Nachricht und verkettet Nachrichten für jede Unterhaltung.

Memorystore for Redis erweitert diese Klasse um MemorystoreChatMessageHistory.

Leitfaden zum Chatprotokoll

Im Memorystore for Redis-Leitfaden für den Nachrichtenverlauf von Chatnachrichten erfahren Sie, wie Sie:

  • LangChain installieren und bei Google Cloud authentifizieren
  • Initialisieren Sie die Klasse MemorystoreChatMessageHistory, um Nachrichten hinzuzufügen und zu löschen.