Memorystore for Valkey unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Valkey.
Die Vektorsuche in Memorystore for Valkey ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Mit der Vektorsuche und LangChain können Sie Lösungen für die folgenden Anwendungsfälle entwickeln:
- Retrieval Augmented Generation (RAG)
- LLM-Cache
- Empfehlungssystem
- Semantische Suche
- Bildähnlichkeitssuche
Der Vorteil der Verwendung von Memorystore zum Speichern Ihrer Gen AI-Daten im Vergleich zu anderen Google Cloud-Datenbanken ist die Geschwindigkeit von Memorystore. Vektor nutzt für die Suche in Memorystore for Valkey Multithread-Abfragen. einen hohen Abfragedurchsatz bei niedriger Latenz.
Memorystore bietet außerdem zwei verschiedene Suchansätze, damit Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden. Die Option HNSW (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse – ideal für große Datasets, bei denen eine gute Übereinstimmung ausreichend ist. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten. Die Verarbeitung kann jedoch etwas länger dauern.
Wenn Sie Ihre Anwendung für die schnellsten Lese- und Schreibgeschwindigkeiten von Vektordaten optimieren möchten, ist Memorystore for Valkey wahrscheinlich die beste Option für Sie.