Vektorsuche

Memorystore for Redis unterstützt das Speichern und Abfragen von Vektordaten. Diese Seite enthält Informationen zur Vektorsuche in Memorystore for Redis.

Die Vektorsuche in Memorystore for Redis ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Mithilfe der Vektorsuche mit LangChain können Sie Lösungen für die folgenden Anwendungsfälle erstellen:

  • Abruf von Augmented Generation (RAG)
  • LLM-Cache
  • Empfehlungssystem
  • Semantische Suche
  • Ähnlichkeitssuche für Bilder

Der Vorteil der Verwendung von Memorystore zum Speichern Ihrer Gen AI-Daten im Gegensatz zu anderen Google Cloud-Datenbanken ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Redis nutzt Multithread-Abfragen, was zu einem hohen Abfragedurchsatz bei niedriger Latenz führt.

Memorystore bietet außerdem zwei unterschiedliche Suchansätze, mit denen Sie die richtige Balance zwischen Geschwindigkeit und Genauigkeit finden können. Die HNSW-Option (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse – ideal für große Datensätze, bei denen eine enge Übereinstimmung ausreicht. Wenn Sie absolute Genauigkeit benötigen, liefert der FLAT-Ansatz genaue Antworten, allerdings kann die Verarbeitung etwas länger dauern.

Wenn Sie Ihre Anwendung für die schnellsten Lese-/Schreibgeschwindigkeiten für Vektordaten optimieren möchten, ist Memorystore for Redis wahrscheinlich die beste Option für Sie.

Sie können die Vektorsuche verwenden, um Daten abzufragen, die in Ihrer Redis-Instanz gespeichert sind. Diese Funktion ist für Memorystore for Redis Cluster nicht verfügbar.