À propos de la recherche vectorielle

Memorystore pour Redis permet de stocker et d'interroger des données vectorielles. Cette page fournit des informations sur la recherche vectorielle dans Memorystore pour Redis.

La recherche vectorielle sur Memorystore pour Redis est compatible avec le framework LLM Open Source LangChain. L'utilisation de la recherche vectorielle avec LangChain vous permet de créer des solutions pour les cas d'utilisation suivants:

  • Génération augmentée de récupération (RAG)
  • Cache LLM
  • Moteur de recommandations
  • Recherche sémantique
  • Recherche de similarité d'images

L'avantage d'utiliser Memorystore pour stocker vos données d'IA générative, par rapport aux autres bases de données Google Cloud, est la vitesse de Memorystore. La recherche vectorielle sur Memorystore pour Redis exploite les requêtes multithreads, ce qui génère un débit de requêtes (RPS) élevé avec une faible latence.

Memorystore propose également deux approches de recherche distinctes pour vous aider à trouver le bon équilibre entre vitesse et précision. L'option HNSW (Hierarchical Navigable Small World) fournit des résultats rapides et approximatifs. Elle est idéale pour les grands ensembles de données où une correspondance proche suffit. Si vous avez besoin d 'une précision absolue, l'approche FLAT produit des réponses exactes, mais son traitement peut prendre un peu plus de temps.

Si vous souhaitez optimiser votre application pour obtenir les vitesses de lecture/écriture de données vectorielles les plus rapides, Memorystore pour Redis est probablement la meilleure option.