Acerca da pesquisa vetorial

O Memorystore for Redis suporta o armazenamento e a consulta de dados vetoriais. Esta página fornece informações sobre a pesquisa vetorial no Memorystore for Redis.

A pesquisa vetorial no Memorystore for Redis é compatível com a framework de MDIs de código aberto LangChain. A utilização da pesquisa vetorial com o LangChain permite criar soluções para os seguintes exemplos de utilização:

  • Geração aumentada de recuperação (RAG)
  • Cache de GML
  • Motor de recomendação
  • Pesquisa semântica
  • Pesquisa de semelhança de imagens

A vantagem de usar o Memorystore para armazenar os seus dados de IA generativa é a velocidade do Memorystore. A pesquisa de vetores no Memorystore for Redis tira partido das consultas com várias linhas de execução, o que resulta num elevado débito de consultas (CPS) com baixa latência.

O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar a encontrar o equilíbrio certo entre velocidade e precisão. A opção HNSW (Hierarchical Navigable Small World) oferece resultados rápidos e aproximados, ideais para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se precisar de precisão absoluta, a abordagem "FLAT" produz respostas exatas, embora possa demorar um pouco mais a processar.

Se quiser otimizar a sua aplicação para as velocidades de leitura e escrita de dados vetoriais mais rápidas, o Memorystore for Redis é provavelmente a melhor opção para si.