Memorystore for Redis unterstützt das Speichern und Abfragen von Vektordaten. Diese Seite enthält Informationen zur Vektorsuche in Memorystore for Redis.
Die Vektorsuche in Memorystore for Redis ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Mithilfe der Vektorsuche mit LangChain können Sie Lösungen für die folgenden Anwendungsfälle erstellen:
- Abruf von Augmented Generation (RAG)
- LLM-Cache
- Empfehlungssystem
- Semantische Suche
- Ähnlichkeitssuche für Bilder
Der Vorteil der Verwendung von Memorystore zum Speichern Ihrer Gen AI-Daten im Gegensatz zu anderen Google Cloud-Datenbanken ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Redis nutzt Multithread-Abfragen, was zu einem hohen Abfragedurchsatz bei niedriger Latenz führt.
Memorystore bietet außerdem zwei unterschiedliche Suchansätze, mit denen Sie die richtige Balance zwischen Geschwindigkeit und Genauigkeit finden können. Die HNSW-Option (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse – ideal für große Datensätze, bei denen eine enge Übereinstimmung ausreicht. Wenn Sie absolute Genauigkeit benötigen, liefert der FLAT-Ansatz genaue Antworten, allerdings kann die Verarbeitung etwas länger dauern.
Wenn Sie Ihre Anwendung für die schnellsten Lese-/Schreibgeschwindigkeiten für Vektordaten optimieren möchten, ist Memorystore for Redis wahrscheinlich die beste Option für Sie.
Sie können die Vektorsuche verwenden, um Daten abzufragen, die in Ihrer Redis-Instanz gespeichert sind. Diese Funktion ist für Memorystore for Redis Cluster nicht verfügbar.