Memorystore pour Redis permet de stocker et d'interroger des données vectorielles. Cette page fournit la recherche vectorielle sur Memorystore pour Redis.
La recherche vectorielle sur Memorystore pour Redis est compatible avec le LLM Open Source. LangChain. L'utilisation de la recherche vectorielle avec LangChain vous permet de créer des solutions pour les cas d'utilisation suivants :
- Génération augmentée de récupération (RAG)
- Cache LLM
- Moteur de recommandations
- Recherche sémantique
- Recherche de similarité d'images
L'avantage d'utiliser Memorystore pour stocker vos données d'IA générative, par rapport aux autres bases de données Google Cloud, est la vitesse de Memorystore. Vecteur sur Memorystore pour Redis utilise les requêtes multithread, ce qui génère un débit de requêtes élevé (RPS) à faible latence.
Memorystore propose également deux approches de recherche distinctes pour vous aider à trouver le bon équilibre entre rapidité et précision. L'option HNSW (Hierarchical Navigable Small World) fournit des résultats rapides et approximatifs, ce qui est idéal pour les ensembles de données volumineux où une correspondance étroite est suffisante. Si vous avez besoin d'une précision absolue, l'approche FLAT produit des réponses exactes, mais son traitement peut prendre un peu plus de temps.
Si vous souhaitez optimiser votre application pour obtenir les vitesses de lecture/écriture de données vectorielles les plus rapides, Memorystore pour Redis est probablement la meilleure option.