Vektorsuche

Memorystore for Redis unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Redis.

Die Vektorsuche in Memorystore for Redis ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Die Verwendung der Vektorsuche mit LangChain ermöglicht es Ihnen, Lösungen für Folgendes zu erstellen: Anwendungsfälle:

  • Retrieval Augmented Generation (RAG)
  • LLM-Cache
  • Empfehlungssystem
  • Semantische Suche
  • Bildähnlichkeitssuche

Der Vorteil von Memorystore zum Speichern von generativen KI-Daten im Gegensatz zu zu anderen Google Cloud-Datenbanken ist die Geschwindigkeit von Memorystore. Vektor nutzt die Suche in Memorystore for Redis Multithread-Abfragen. einen hohen Abfragedurchsatz bei niedriger Latenz.

Memorystore bietet außerdem zwei verschiedene Suchansätze, mit denen Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden. Die HNSW-Option (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse. Sie eignet sich ideal für große Datensätze, bei denen eine ungefähre Übereinstimmung ausreicht. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten. Die Verarbeitung kann jedoch etwas länger dauern.

Wenn Sie Ihre Anwendung für die schnellste Lese-/Schreibgeschwindigkeit von Vektordaten optimieren möchten, ist Memorystore for Redis wahrscheinlich die beste Option für Sie.