Memorystore pour Valkey permet de stocker et d'interroger des données vectorielles. Cette page fournit des informations sur la recherche vectorielle sur Memorystore pour Valkey.
La recherche vectorielle sur Memorystore pour Valkey est compatible avec le framework LLM Open Source LangChain. L'utilisation de la recherche vectorielle avec LangChain vous permet de créer des solutions pour les cas d'utilisation suivants:
- Génération augmentée de récupération (RAG)
- Cache LLM
- Moteur de recommandations
- Recherche sémantique
- Recherche de similarité d'images
L'avantage d'utiliser Memorystore pour stocker vos données d'IA générative, par rapport aux autres bases de données Google Cloud, est la vitesse de Memorystore. Vector Search sur Memorystore pour Valkey exploite les requêtes multithreads, ce qui permet d'obtenir un débit de requêtes (RPS) élevé avec une faible latence.
Memorystore propose également deux approches de recherche distinctes pour vous aider à trouver le bon équilibre entre vitesse et précision. L'option HNSW (Hierarchical Navigable Small World) fournit des résultats rapides et approximatifs. Elle est idéale pour les grands ensembles de données où une correspondance proche suffit. Si vous avez besoin d 'une précision absolue, l'approche FLAT produit des réponses exactes, mais son traitement peut prendre un peu plus de temps.
Si vous souhaitez optimiser votre application pour obtenir les vitesses de lecture et d'écriture de données vectorielles les plus rapides, Memorystore pour Valkey est probablement la meilleure option.