Sobre a pesquisa de vetores

O Memorystore para Redis oferece suporte para armazenamento e consulta de dados vetoriais. Esta página oferece informações sobre a pesquisa de vetores no Memorystore para Redis.

A pesquisa de vetores no Memorystore para Redis é compatível com o LLM de código aberto LangChain da biblioteca. O uso da pesquisa de vetores com o LangChain permite criar soluções para os seguintes casos de uso específicos:

  • Geração aumentada de recuperação (RAG)
  • Cache LLM
  • Mecanismo de recomendação
  • Pesquisa semântica
  • Pesquisa de similaridade de imagens

A vantagem de usar o Memorystore para armazenar seus dados de IA geral, em vez de outros bancos de dados do Google Cloud, é a velocidade do Memorystore. A pesquisa vetorial no Memorystore para Redis aproveita consultas com vários threads, resultando em alta taxa de transferência de consulta (QPS) com baixa latência.

O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e precisão. A opção Hierarchical Navigable Small World (HNSW, na sigla em inglês) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, o "FLAT" produz respostas exatas, embora o processamento possa levar um pouco mais de tempo.

Se quiser otimizar seu aplicativo para obter a leitura/gravação de dados vetoriais mais rápida o Memorystore para Redis é provavelmente a melhor opção para você.