Memorystore per Redis supporta l'archiviazione e l'esecuzione di query sui dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis.
La ricerca vettoriale su Memorystore per Redis è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain consente di creare soluzioni per i seguenti casi d'uso:
- Generazione aumentata di recupero (RAG, Retrieval Augmented Generation)
- Cache LLM
- Motore per suggerimenti
- Ricerca semantica
- Ricerca di somiglianze tra immagini
Il vantaggio di utilizzare Memorystore per archiviare i dati di IA generativa, a differenza di altri database Google Cloud, è la velocità di Memorystore. La ricerca vettoriale su Memorystore for Redis sfrutta le query multi-thread, generando una velocità effettiva di query elevata (QPS) a una bassa latenza.
Memorystore offre inoltre due diversi approcci alla ricerca per aiutarti a trovare il giusto equilibrio tra velocità e precisione. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto simile. Se è necessaria una precisione assoluta, l'approccio "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.
Se vuoi ottimizzare la tua applicazione per le velocità di lettura/scrittura dati vettoriali più elevate, Memorystore for Redis è probabilmente l'opzione migliore.
Puoi utilizzare la ricerca vettoriale per eseguire query sui dati archiviati nell'istanza Redis. Questa funzionalità non è disponibile in cluster di Memorystore for Redis