À propos de la recherche vectorielle

Memorystore pour Redis permet de stocker et d'interroger des données vectorielles. Cette page fournit des informations sur la recherche vectorielle dans Memorystore pour Redis.

La recherche vectorielle sur Memorystore pour Redis est compatible avec le framework LLM Open Source LangChain. L'utilisation de la recherche vectorielle avec LangChain vous permet de créer des solutions pour les cas d'utilisation suivants :

  • RAG (génération augmentée par récupération)
  • Cache LLM
  • Moteur de recommandations
  • Recherche sémantique
  • Recherche de similarités d'images

L'avantage d'utiliser Memorystore pour stocker vos données d'IA générative est sa rapidité. La recherche vectorielle sur Memorystore pour Redis utilise des requêtes multithread, ce qui permet d'obtenir un débit de requêtes élevé (RPS) avec une faible latence.

Memorystore propose également deux approches de recherche distinctes pour vous aider à trouver le bon équilibre entre vitesse et précision. L'option HNSW (Hierarchical Navigable Small World) fournit des résultats rapides et approximatifs. Elle est idéale pour les grands ensembles de données où une correspondance proche suffit. Si vous avez besoin d'une précision absolue, l'approche "FLAT" produit des réponses exactes, mais le traitement peut prendre un peu plus de temps.

Si vous souhaitez optimiser votre application pour obtenir les vitesses de lecture et d'écriture de données vectorielles les plus rapides, Memorystore pour Redis est probablement la meilleure option pour vous.