O Memorystore para Valkey oferece suporte ao armazenamento e à consulta de dados vetoriais. Esta página oferece informações sobre a pesquisa vetorial no Memorystore para Valkey.
A pesquisa de vetor no Memorystore para Valkey é compatível com o framework LLM de código aberto LangChain. Usar a pesquisa de vetores com o LangChain permite criar soluções para os seguintes casos de uso:
- Geração aumentada de recuperação (RAG)
- Cache do LLM
- Mecanismo de recomendação
- Pesquisa semântica
- Pesquisa por similaridade de imagens
A vantagem de usar o Memorystore para armazenar dados de IA generativa em comparação a outros bancos de dados do Google Cloud é a velocidade do Memorystore. A pesquisa vetorial no Memorystore para Valkey aproveita consultas com vários threads, resultando em alta taxa de transferência de consultas (QPS) com baixa latência.
O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e precisão. A opção Hierarchical Navigable Small World (HNSW, na sigla em inglês) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, o "FLAT" produz respostas exatas, embora o processamento possa levar um pouco mais de tempo.
Se você quiser otimizar seu aplicativo para as velocidades de leitura e gravação de dados vetoriais mais rápidas, o Memorystore para Valkey provavelmente é a melhor opção.