Mengekspor embedding dari Spanner ke Vertex AI Vector Search

Vertex AI Vector Search memungkinkan pengguna menelusuri item yang mirip secara semantik menggunakan penyematan vektor. Dengan menggunakan Alur Kerja Spanner ke Vertex AI Vector Search, Anda dapat mengintegrasikan database Spanner dengan Vector Search untuk melakukan penelusuran kemiripan vektor pada data Spanner.

Diagram berikut menunjukkan alur kerja aplikasi menyeluruh tentang cara mengaktifkan dan menggunakan Vector Search pada data Spanner:

Alur kerja Spanner ke Vector Search.

Alur kerja umumnya adalah sebagai berikut:

  1. Buat dan simpan embedding vektor.

    Anda dapat membuat embedding vektor data, lalu menyimpan dan mengelolanya di Spanner dengan data operasional Anda. Anda dapat membuat penyematan dengan fungsi SQL ML.PREDICT Spanner untuk mengakses model textembedding-gecko Vertex AI atau menggunakan model penyematan lain yang di-deploy ke Vertex AI.

  2. Menyinkronkan penyematan ke Vector Search.

    Gunakan Alur Kerja Spanner ke Vertex AI Vector Search, yang di-deploy menggunakan Alur Kerja untuk mengekspor dan mengupload penyematan ke dalam indeks Vector Search. Anda dapat menggunakan Cloud Scheduler untuk menjadwalkan alur kerja ini secara berkala agar indeks Vector Search Anda selalu diperbarui dengan perubahan terbaru pada penyematan di Spanner.

  3. Lakukan penelusuran kemiripan vektor menggunakan indeks Vector Search Anda.

    Buat kueri indeks Penelusuran Vektor untuk menelusuri dan menemukan hasil untuk item yang mirip secara semantik. Anda dapat membuat kueri menggunakan endpoint publik atau melalui peering VPC.

Contoh kasus penggunaan

Kasus penggunaan ilustrasi untuk Vector Search adalah retailer online yang memiliki inventaris ratusan ribu item. Dalam skenario ini, Anda adalah developer untuk retailer online, dan ingin menggunakan penelusuran kemiripan vektor pada katalog produk di Spanner untuk membantu pelanggan menemukan produk yang relevan berdasarkan kueri penelusuran mereka.

Ikuti langkah 1 dan langkah 2 yang disajikan dalam alur kerja umum untuk membuat embedding vektor untuk katalog produk Anda, dan sinkronkan embedding ini ke Vector Search.

Sekarang, bayangkan pelanggan yang menjelajahi aplikasi Anda melakukan penelusuran seperti "celana pendek olahraga cepat kering terbaik yang dapat saya kenakan di air". Saat aplikasi menerima kueri ini, Anda perlu membuat penyematan permintaan untuk permintaan penelusuran ini menggunakan fungsi SQL ML.PREDICT Spanner. Pastikan untuk menggunakan model penyematan yang sama dengan yang digunakan untuk membuat penyematan untuk katalog produk Anda.

Selanjutnya, buat kueri indeks Vector Search untuk ID produk yang embedding-nya sesuai dengan embedding permintaan yang dihasilkan dari permintaan penelusuran pelanggan Anda. Indeks penelusuran mungkin merekomendasikan ID produk untuk item yang secara semantik mirip seperti celana pendek wakeboarding, pakaian surfing, dan celana renang.

Setelah Vector Search menampilkan ID produk serupa ini, Anda dapat membuat kueri Spanner untuk deskripsi, jumlah inventaris, harga, dan metadata lainnya yang relevan, lalu menampilkannya kepada pelanggan.

Anda juga dapat menggunakan AI generatif untuk memproses hasil yang ditampilkan dari Spanner sebelum menampilkannya kepada pelanggan. Misalnya, Anda dapat menggunakan model AI generatif besar Google untuk membuat ringkasan ringkas tentang produk yang direkomendasikan. Untuk informasi selengkapnya, lihat tutorial ini tentang cara menggunakan AI Generatif untuk mendapatkan rekomendasi yang dipersonalisasi di aplikasi e-commerce.

Langkah selanjutnya