Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Memorystore for Valkey mendukung penyimpanan dan kueri data vektor. Halaman ini memberikan informasi tentang penelusuran vektor di Memorystore for Valkey.
Penelusuran vektor di Memorystore untuk Valkey kompatibel dengan framework LLM open source
LangChain.
Dengan menggunakan penelusuran vektor dengan LangChain, Anda dapat membuat solusi untuk kasus penggunaan berikut:
Retrieval Augmented Generation (RAG)
Cache LLM
Mesin pemberi saran
Penelusuran semantik
Penelusuran kemiripan gambar
Keuntungan menggunakan Memorystore untuk menyimpan data AI Generatif Anda, dibandingkan dengan database Google Cloud lainnya, adalah kecepatan Memorystore. Penelusuran
vektor di Memorystore for Valkey memanfaatkan kueri multi-thread, sehingga menghasilkan throughput kueri (QPS) tinggi dengan latensi rendah.
Memorystore juga menyediakan dua pendekatan penelusuran yang berbeda untuk membantu Anda menemukan keseimbangan yang tepat antara kecepatan dan akurasi. Opsi HNSW (Hierarchical Navigable Small World) memberikan hasil perkiraan yang cepat - ideal untuk set data besar dengan kecocokan yang cukup. Jika Anda memerlukan presisi absolut, pendekatan 'FLAT' akan menghasilkan jawaban yang tepat, meskipun pemrosesannya mungkin memerlukan waktu sedikit lebih lama.
Jika Anda ingin mengoptimalkan aplikasi untuk kecepatan baca dan tulis data vektor
tercepat, Memorystore for Valkey mungkin merupakan opsi terbaik untuk Anda.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-02-26 UTC."],[],[]]