À propos de la recherche vectorielle

Memorystore pour Redis permet de stocker et d'interroger des données vectorielles. Cette page fournit des informations sur la recherche vectorielle dans Memorystore pour Redis.

La recherche vectorielle sur Memorystore pour Redis est compatible avec le framework LLM Open Source LangChain. L'utilisation de la recherche vectorielle avec LangChain vous permet de créer des solutions pour les cas d'utilisation suivants:

  • Génération augmentée de récupération (RAG)
  • Cache LLM
  • Moteur de recommandations
  • Recherche sémantique
  • Recherche de similarité d'images

Memorystore offre l'avantage de stocker vos données d'IA générative, par rapport à d'autres bases de données Google Cloud. La recherche vectorielle sur Memorystore pour Redis exploite les requêtes multithread, ce qui permet un débit de requêtes (RPS) élevé et une faible latence.

Memorystore propose également deux approches de recherche distinctes pour vous aider à trouver le bon équilibre entre vitesse et précision. L'option HNSW (Hierarchical Navigable Small World) fournit des résultats rapides et approximatifs. Elle est idéale pour les grands ensembles de données où une correspondance proche suffit. Si vous avez besoin d'une précision absolue, l'approche "FLAT" produit des réponses exactes, mais son traitement peut prendre un peu plus de temps.

Si vous souhaitez optimiser votre application pour obtenir les vitesses de lecture/écriture des données vectorielles les plus rapides, Memorystore pour Redis est probablement la meilleure option pour vous.

Vous pouvez utiliser la recherche vectorielle pour interroger des données stockées dans votre instance Redis. Cette fonctionnalité n'est pas disponible dans Memorystore pour un cluster Redis.