Memorystore pour Valkey permet de stocker et d'interroger des données vectorielles. Cette page fournit des informations sur la recherche vectorielle sur Memorystore pour Valkey.
La recherche vectorielle sur Memorystore pour Valkey est compatible avec le LLM Open Source. LangChain. L'utilisation de la recherche vectorielle avec LangChain vous permet de créer des solutions pour les éléments suivants : cas d'utilisation:
- Génération augmentée de récupération (RAG)
- Cache LLM
- Moteur de recommandations
- Recherche sémantique
- Recherche par similarité d'images
L'avantage d'utiliser Memorystore pour stocker vos données d'IA générative à d'autres bases de données Google Cloud, c'est la vitesse de Memorystore. Vecteur sur Memorystore pour Valkey utilise les requêtes multithread, ce qui génère un débit de requêtes élevé (RPS) à faible latence.
Memorystore propose également deux approches de recherche distinctes pour vous aider à trouver le bon équilibre entre vitesse et précision. L'option HNSW (Hierarchical Navigable Small World) fournit des résultats rapides et approximatifs. Elle est idéale pour les grands ensembles de données où une correspondance proche suffit. Si vous avez besoin d'une précision absolue, l'approche FLAT produit des réponses exactes, mais son traitement peut prendre un peu plus de temps.
Si vous souhaitez optimiser votre application pour des opérations de lecture et d'écriture de données vectorielles les plus rapides Memorystore pour Valkey est probablement la meilleure option pour vous.