Redis용 Memorystore에서 벡터 데이터를 저장하고 쿼리할 수 있습니다. 이 페이지에서는 Redis용 Memorystore의 벡터 검색에 대한 정보를 제공합니다.
Redis용 Memorystore의 벡터 검색은 오픈소스 LLM 프레임워크 LangChain과 호환됩니다.
LangChain과 함께 벡터 검색을 사용하면 다음 사용 사례에 대한 솔루션을 빌드할 수 있습니다.
검색 증강 생성(RAG)
LLM 캐시
추천 엔진
시맨틱 검색
이미지 유사성 검색
다른 Google Cloud 데이터베이스와 달리 Memorystore를 사용하여 생성형 AI 데이터를 저장할 때의 이점은 Memorystore 속도입니다. Redis용 Memorystore의 벡터 검색은 멀티 스레드 쿼리를 활용하므로 지연 시간이 짧고 높은 쿼리 처리량(QPS)이 높습니다.
Memorystore는 속도와 정확성 간의 적절한 균형을 찾는 데 도움이 되는 두 가지 고유한 검색 방법을 제공합니다. HNSW(Hierarchical Navigable Small World) 옵션은 대략적인 결과를 빠르게 제공합니다. 이는 근접 일치만으로 충분한 대규모 데이터 세트에 적합합니다. 절대 정밀도가 필요한 경우 'FLAT' 방식은 정확한 답변을 산출하지만 처리하는 데 약간 더 오래 걸릴 수 있습니다.
애플리케이션을 가장 빠른 벡터 데이터 읽기/쓰기 속도에 맞게 최적화하려는 경우 Redis용 Memorystore가 최적의 옵션일 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# About vector search\n\nMemorystore for Redis supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Redis.\n| **Important:** To use vector search, your instance must use Redis version 7.2 or newer. To use this feature, either [create](/memorystore/docs/redis/create-manage-instances) or [upgrade](/memorystore/docs/redis/upgrade-redis-version) your instance to Redis version 7.2.\n\nVector search on Memorystore for Redis is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your generative AI data is Memorystore's speed. Vector\nsearch on Memorystore for Redis leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Redis is likely the best option for you."]]