Memorystore for Redis mendukung penyimpanan dan kueri data vektor. Halaman ini memberikan informasi tentang penelusuran vektor di Memorystore for Redis.
Penelusuran vektor di Memorystore for Redis kompatibel dengan framework LLM open source LangChain. Penggunaan penelusuran vektor dengan LangChain memungkinkan Anda membuat solusi untuk kasus penggunaan berikut:
- Retrieval Augmented Generation (RAG)
- Cache LLM
- Mesin pemberi saran
- Penelusuran semantik
- Penelusuran kemiripan gambar
Keuntungan menggunakan Memorystore untuk menyimpan data AI Generatif Anda, dibandingkan dengan database Google Cloud lainnya adalah kecepatan Memorystore. Penelusuran vektor di Memorystore for Redis memanfaatkan kueri multi-thread, sehingga menghasilkan throughput kueri (QPS) tinggi dengan latensi rendah.
Memorystore juga menyediakan dua pendekatan penelusuran yang berbeda untuk membantu Anda menemukan keseimbangan yang tepat antara kecepatan dan akurasi. Opsi HNSW (Hierarchical Navigable Small World) memberikan hasil perkiraan yang cepat - ideal untuk set data besar jika kecocokannya mendekati. Jika Anda membutuhkan presisi mutlak, pendekatan 'FLAT' akan menghasilkan jawaban yang tepat, meskipun mungkin memerlukan waktu pemrosesan yang sedikit lebih lama.
Jika Anda ingin mengoptimalkan aplikasi untuk kecepatan baca/tulis data vektor tercepat, Memorystore for Redis mungkin adalah opsi terbaik bagi Anda.
Anda dapat menggunakan penelusuran vektor untuk membuat kueri data yang tersimpan dalam instance Redis. Fitur ini tidak tersedia di Memorystore untuk Cluster Redis.