Memorystore for Redis supporta l'archiviazione e l'esecuzione di query sui dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis.
La ricerca vettoriale su Memorystore for Redis è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain consente di creare soluzioni per i seguenti casi d'uso:
- Retrieval Augmented Generation (RAG)
- Cache LLM
- Motore per suggerimenti
- Ricerca semantica
- Ricerca per somiglianza di immagini
Il vantaggio di utilizzare Memorystore per archiviare i dati di AI generativa è la velocità di Memorystore. La ricerca vettoriale su Memorystore for Redis sfrutta le query multithread, con conseguente velocità effettiva delle query (QPS) elevata a bassa latenza.
Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.
Se vuoi ottimizzare la tua applicazione per la lettura e la scrittura più veloci dei dati vettoriali, Memorystore for Redis è probabilmente l'opzione migliore per te.