Vektorsuche

Memorystore for Redis unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Redis.

Die Vektorsuche in Memorystore for Redis ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Mit der Vektorsuche und LangChain können Sie Lösungen für die folgenden Anwendungsfälle entwickeln:

  • Retrieval Augmented Generation (RAG)
  • LLM-Cache
  • Empfehlungssystem
  • Semantische Suche
  • Suche nach Bildähnlichkeit

Der Vorteil der Verwendung von Memorystore zum Speichern Ihrer Gen AI-Daten im Vergleich zu anderen Google Cloud-Datenbanken ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Redis nutzt mehrstufige Abfragen, was zu einem hohen Abfragedurchsatz (QPS) bei niedriger Latenz führt.

Memorystore bietet außerdem zwei unterschiedliche Suchansätze, mit denen Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden. Die HNSW-Option (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse. Sie eignet sich ideal für große Datensätze, bei denen eine ungefähre Übereinstimmung ausreicht. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten. Die Verarbeitung kann jedoch etwas länger dauern.

Wenn Sie Ihre Anwendung für die schnellste Lese-/Schreibgeschwindigkeit von Vektordaten optimieren möchten, ist Memorystore for Redis wahrscheinlich die beste Option für Sie.