Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Memorystore para Redis admite el almacenamiento y las consultas de datos vectoriales. En esta página se proporciona información sobre la búsqueda de vectores en Memorystore para Redis.
La búsqueda vectorial de Memorystore para Redis es compatible con el framework de LLM de código abierto LangChain.
Si usas la búsqueda vectorial con LangChain, puedes crear soluciones para los siguientes casos prácticos:
Generación aumentada por recuperación (RAG)
Caché de LLM
Motor de recomendaciones
Búsqueda semántica
Búsqueda de imágenes similares
La ventaja de usar Memorystore para almacenar tus datos de IA generativa es su velocidad. La búsqueda vectorial en Memorystore para Redis aprovecha las consultas multihilo, lo que da como resultado un alto rendimiento de las consultas (consultas por segundo) con una latencia baja.
Memorystore también ofrece dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio adecuado entre velocidad y precisión. La opción HNSW (Hierarchical Navigable Small World) ofrece resultados rápidos y aproximados, ideales para conjuntos de datos grandes en los que una coincidencia cercana es suficiente. Si necesitas una precisión absoluta, el enfoque "FLAT" ofrece respuestas exactas, aunque el proceso puede tardar un poco más.
Si quieres optimizar tu aplicación para que la lectura y la escritura de datos vectoriales sean lo más rápidas posible, Memorystore para Redis es probablemente la mejor opción.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-10 (UTC)."],[],[],null,["# About vector search\n\nMemorystore for Redis supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Redis.\n| **Important:** To use vector search, your instance must use Redis version 7.2 or newer. To use this feature, either [create](/memorystore/docs/redis/create-manage-instances) or [upgrade](/memorystore/docs/redis/upgrade-redis-version) your instance to Redis version 7.2.\n\nVector search on Memorystore for Redis is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your generative AI data is Memorystore's speed. Vector\nsearch on Memorystore for Redis leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Redis is likely the best option for you."]]