Redis용 Memorystore에서 벡터 데이터를 저장하고 쿼리할 수 있습니다. 이 페이지에서는 Redis용 Memorystore의 벡터 검색에 대한 정보를 제공합니다.
Redis용 Memorystore의 벡터 검색은 오픈소스 LLM 프레임워크 LangChain과 호환됩니다. LangChain과 함께 벡터 검색을 사용하면 다음 사용 사례에 대한 솔루션을 빌드할 수 있습니다.
- 검색 증강 생성(RAG)
- LLM 캐시
- 추천 엔진
- 시맨틱 검색
- 이미지 유사성 검색
다른 Google Cloud 데이터베이스와 달리 Memorystore를 사용하여 생성형 AI 데이터를 저장할 때의 이점은 Memorystore 속도입니다. Redis용 Memorystore의 벡터 검색은 멀티 스레드 쿼리를 활용하므로 지연 시간이 짧고 높은 쿼리 처리량(QPS)이 높습니다.
Memorystore는 속도와 정확성 간의 적절한 균형을 찾는 데 도움이 되는 두 가지 고유한 검색 방법을 제공합니다. HNSW(Hierarchical Navigable Small World) 옵션은 대략적인 결과를 빠르게 제공합니다. 이는 근접 일치만으로 충분한 대규모 데이터 세트에 적합합니다. 절대 정밀도가 필요한 경우 'FLAT' 방식은 정확한 답변을 산출하지만 처리하는 데 약간 더 오래 걸릴 수 있습니다.
애플리케이션을 가장 빠른 벡터 데이터 읽기/쓰기 속도에 맞게 최적화하려는 경우 Redis용 Memorystore가 최적의 옵션일 수 있습니다.