Memorystore for Redis は、ベクトル データの保存とクエリをサポートしています。このページでは、Memorystore for Redis のベクトル検索について説明します。
Memorystore for Redis のベクトル検索は、オープンソースの LLM フレームワーク LangChain と互換性があります。LangChain でベクトル検索を使用すると、次のユースケースのソリューションを構築できます。
- 検索拡張生成(RAG)
- LLM キャッシュ
- レコメンデーション エンジン
- セマンティック検索
- 画像の類似性検索
他の Google Cloud データベースとは異なり、Memorystore を使用して生成 AI データを保存するメリットは、Memorystore の速度です。Memorystore for Redis のベクトル検索はマルチスレッド クエリを活用し、低レイテンシで高スループットのクエリ処理(QPS)を実現します。
Memorystore には、速度と精度のバランスをとれるように 2 つの異なる検索アプローチも用意されています。HNSW(Hierarchical Navigable Small World)オプションでは、概算値をすばやく取得できます。近似一致で十分な大規模なデータセットに最適です。厳密な精度が必要な場合については、「FLAT」アプローチによって正確な結果が生成されますが、処理に要する時間が若干長くなる可能性があります。
ベクトルデータの読み取り / 書き込み速度を最速にするようにアプリケーションを最適化する場合は、Memorystore for Redis が最適なオプションとなる可能性があります。