Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Memorystore for Redis supporta l'archiviazione e l'esecuzione di query sui dati vettoriali. Questa pagina fornisce informazioni sulla ricerca vettoriale su Memorystore for Redis.
La ricerca vettoriale su Memorystore for Redis è compatibile con il framework LLM open source LangChain.
L'utilizzo della ricerca vettoriale con LangChain consente di creare soluzioni per i seguenti casi d'uso:
Retrieval Augmented Generation (RAG)
Cache LLM
Motore per suggerimenti
Ricerca semantica
Ricerca per somiglianza di immagini
Il vantaggio di utilizzare Memorystore per archiviare i dati di AI generativa è la velocità di Memorystore. La ricerca
vettoriale su Memorystore for Redis sfrutta le query multithread, con conseguente
velocità effettiva delle query (QPS) elevata a bassa latenza.
Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.
Se vuoi ottimizzare la tua applicazione per la lettura e la scrittura più veloci dei dati vettoriali, Memorystore for Redis è probabilmente l'opzione migliore per te.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-10 UTC."],[],[],null,["# About vector search\n\nMemorystore for Redis supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Redis.\n| **Important:** To use vector search, your instance must use Redis version 7.2 or newer. To use this feature, either [create](/memorystore/docs/redis/create-manage-instances) or [upgrade](/memorystore/docs/redis/upgrade-redis-version) your instance to Redis version 7.2.\n\nVector search on Memorystore for Redis is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your generative AI data is Memorystore's speed. Vector\nsearch on Memorystore for Redis leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Redis is likely the best option for you."]]