Memorystore for Redis supporta l'archiviazione e l'esecuzione di query di dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis.
La ricerca vettoriale su Memorystore for Redis è compatibile con gli LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain ti consente di creare soluzioni per quanto segue: casi d'uso:
- Retrieval Augmented Generation (RAG)
- Cache LLM
- Motore per suggerimenti
- Ricerca semantica
- Ricerca di immagini simili
Il vantaggio dell'utilizzo di Memorystore per archiviare i dati dell'IA generativa, rispetto ad altri database Google Cloud, è la velocità di Memorystore. La ricerca vettoriale su Memorystore for Redis sfrutta le query multithread, con un conseguente elevato throughput delle query (QPS) a bassa latenza.
Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.
Se vuoi ottimizzare la tua applicazione per le velocità di lettura/scrittura dei dati vettoriali più elevate, Memorystore for Redis è probabilmente la scelta migliore per te.