Memorystore for Redis Cluster supporta l'archiviazione e l'interrogazione di dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis Cluster.
La ricerca vettoriale su Memorystore for Redis Cluster è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain ti consente di creare soluzioni per i seguenti casi d'uso:
- Retrieval Augmented Generation (RAG)
- Cache LLM
- Motore per suggerimenti
- Ricerca semantica
- Ricerca per somiglianza di immagini
Il vantaggio di utilizzare Memorystore per archiviare i dati dell'AI generativa è la velocità di Memorystore. La ricerca vettoriale su Memorystore for Redis Cluster sfrutta le query multithread, con conseguente elevata velocità effettiva delle query (QPS) a bassa latenza.
Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio "PIATTO" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.
Se vuoi ottimizzare la tua applicazione per la lettura e la scrittura più veloci dei dati vettoriali, Memorystore for Redis Cluster è probabilmente l'opzione migliore per te.