Informazioni sulla ricerca vettoriale

Memorystore per Redis supporta l'archiviazione e l'esecuzione di query sui dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis.

La ricerca vettoriale su Memorystore per Redis è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain consente di creare soluzioni per i seguenti casi d'uso:

  • Generazione aumentata di recupero (RAG, Retrieval Augmented Generation)
  • Cache LLM
  • Motore per suggerimenti
  • Ricerca semantica
  • Ricerca di somiglianze tra immagini

Il vantaggio di utilizzare Memorystore per archiviare i dati di IA generativa, a differenza di altri database Google Cloud, è la velocità di Memorystore. La ricerca vettoriale su Memorystore for Redis sfrutta le query multi-thread, generando una velocità effettiva di query elevata (QPS) a una bassa latenza.

Memorystore offre inoltre due diversi approcci alla ricerca per aiutarti a trovare il giusto equilibrio tra velocità e precisione. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto simile. Se è necessaria una precisione assoluta, l'approccio "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.

Se vuoi ottimizzare la tua applicazione per le velocità di lettura/scrittura dati vettoriali più elevate, Memorystore for Redis è probabilmente l'opzione migliore.

Puoi utilizzare la ricerca vettoriale per eseguire query sui dati archiviati nell'istanza Redis. Questa funzionalità non è disponibile in cluster di Memorystore for Redis