Memorystore para Redis admite el almacenamiento y la consulta de datos vectoriales. En esta página, se proporciona sobre la búsqueda de vectores en Memorystore para Redis.
La búsqueda de vectores en Memorystore para Redis es compatible con el framework de LLM de código abierto LangChain. El uso de la búsqueda de vectores con LangChain te permite compilar soluciones para los siguientes casos de uso:
- Generación mejorada por recuperación (RAG)
- Caché de LLM
- Motor de recomendaciones
- Búsqueda semántica
- Búsqueda de similitud de imágenes
La ventaja de usar Memorystore para almacenar los datos de la IA generativa a otras bases de datos de Google Cloud es la velocidad de Memorystore. La búsqueda de vectores en Memorystore para Redis aprovecha las consultas de varios subprocesos, lo que genera una alta capacidad de procesamiento de consultas (QPS) con baja latencia.
Memorystore también proporciona dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio adecuado entre velocidad y precisión. La opción HNSW (Jeerarchical Navigable Small World) proporciona resultados rápidos y aproximados, lo que es ideal para conjuntos de datos grandes en los que una coincidencia cercana es suficiente. Si necesitas precisión absoluta, el enfoque "FLAT" produce respuestas exactas, aunque el procesamiento puede tardar un poco más.
Si quieres optimizar tu aplicación para obtener la lectura/escritura más rápida de datos vectoriales de alta calidad, es probable que Memorystore for Redis sea la mejor opción para ti.