Informazioni sulla ricerca vettoriale

Memorystore for Redis supporta l'archiviazione e l'esecuzione di query di dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis.

La ricerca di vettori su Memorystore per Redis è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain ti consente di creare soluzioni per quanto segue: casi d'uso:

  • Retrieval Augmented Generation (RAG)
  • Cache LLM
  • Motore per suggerimenti
  • Ricerca semantica
  • Ricerca di somiglianze di immagini

Il vantaggio di utilizzare Memorystore per archiviare i dati di IA generativa, anziché ad altri database Google Cloud è la velocità di Memorystore. La ricerca vettoriale su Memorystore for Redis sfrutta le query multithread, con un conseguente elevato throughput delle query (QPS) a bassa latenza.

Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, il parametro "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.

Se vuoi ottimizzare la tua applicazione per ottenere la lettura/scrittura di dati vettoriali più veloce velocità, Memorystore for Redis è probabilmente l'opzione migliore per te.