Mengekspor embedding dari Spanner ke Vertex AI Vector Search

Dengan Vertex AI Vector Search, pengguna dapat menelusuri item yang serupa secara semantik menggunakan embedding vektor. Dengan Spanner To Vertex AI Vector Search Workflow, Anda dapat mengintegrasikan database Spanner dengan Vector Search untuk melakukan penelusuran kesamaan vektor pada data Spanner Anda.

Diagram berikut menunjukkan alur kerja aplikasi end-to-end terkait cara mengaktifkan dan menggunakan Vector Search pada data Spanner Anda:

Alur kerja Spanner ke Vector Search.

Alur kerja umumnya adalah sebagai berikut:

  1. Membuat dan menyimpan embedding vektor.

    Anda dapat membuat embedding vektor data, lalu menyimpan dan mengelolanya di Spanner dengan data operasional. Anda dapat membuat embedding dengan fungsi SQL ML.PREDICT Spanner untuk mengakses model textembedding-gecko Vertex AI atau menggunakan model embedding lain yang di-deploy ke Vertex AI.

  2. Menyinkronkan penyematan ke Vector Search.

    Gunakan Spanner To Vertex AI Vector Search Workflow, yang di-deploy menggunakan Workflow untuk mengekspor dan mengupload embeddings ke indeks Vector Search. Anda dapat menggunakan Cloud Scheduler untuk menjadwalkan alur kerja ini secara berkala agar indeks Vector Search Anda tetap yang terbaru dengan perubahan terbaru pada penyematan di Spanner.

  3. Lakukan penelusuran kemiripan vektor menggunakan indeks Vector Search.

    Buat kueri indeks Vector Search untuk menelusuri dan menemukan hasil item yang serupa secara semantik. Anda dapat membuat kueri menggunakan endpoint publik atau melalui peering VPC.

Contoh kasus penggunaan

Kasus penggunaan ilustrasi untuk Vector Search adalah retailer online yang memiliki inventaris ratusan ribu item. Dalam skenario ini, Anda adalah developer untuk retailer online, dan ingin menggunakan penelusuran kemiripan vektor pada katalog produk di Spanner untuk membantu pelanggan menemukan produk yang relevan berdasarkan kueri penelusuran mereka.

Ikuti langkah 1 dan langkah 2 yang dijelaskan dalam alur kerja umum guna membuat embedding vektor untuk katalog produk Anda, dan menyinkronkan embeddings ini ke Vector Search.

Sekarang, bayangkan pelanggan yang menjelajahi aplikasi Anda melakukan penelusuran seperti "celana pendek olahraga terbaik dan cepat kering yang bisa saya pakai di air". Saat aplikasi menerima kueri ini, Anda perlu membuat penyematan permintaan untuk permintaan penelusuran ini menggunakan fungsi SQL ML.PREDICT Spanner. Pastikan untuk menggunakan model embedding yang sama dengan yang digunakan untuk membuat embeddings untuk katalog produk Anda.

Selanjutnya, buat kueri indeks Vector Search untuk ID produk yang embedding terkait mirip dengan embedding permintaan yang dihasilkan dari permintaan penelusuran pelanggan Anda. Indeks penelusuran mungkin merekomendasikan ID produk untuk item yang mirip secara semantik seperti celana pendek wakeboarding, pakaian selancar, dan celana renang.

Setelah Vector Search menampilkan ID produk yang serupa, Anda dapat membuat kueri Spanner untuk deskripsi produk, jumlah inventaris, harga, dan metadata lain yang relevan, serta menampilkannya kepada pelanggan.

Anda juga dapat menggunakan AI generatif untuk memproses hasil yang ditampilkan dari Spanner sebelum menampilkannya kepada pelanggan. Misalnya, Anda dapat menggunakan model AI generatif besar dari Google untuk menghasilkan ringkasan singkat dari produk yang direkomendasikan. Untuk mengetahui informasi selengkapnya, lihat tutorial ini tentang cara menggunakan AI Generatif untuk mendapatkan rekomendasi yang dipersonalisasi di aplikasi e-commerce.

Langkah selanjutnya