Untuk membuat penyimpanan data dan menyerap data untuk rekomendasi umum, buka bagian untuk sumber yang ingin Anda gunakan:
URL situs
Konsol
Untuk menggunakan konsol Google Cloud guna membuat penyimpanan data dan mengindeks data dari situs, ikuti langkah-langkah berikut:
Di konsol Google Cloud, buka halaman Agent Builder.
Di menu navigasi, klik Data Store.
Klik New data store.
Di halaman Pilih sumber data, pilih Konten Situs.
Pilih apakah akan mengaktifkan Pengindeksan situs lanjutan untuk penyimpanan data ini. Opsi ini tidak dapat dinonaktifkan nanti.
Pengindeksan situs lanjutan menyediakan fitur tambahan seperti ringkasan penelusuran, penelusuran dengan tindak lanjut, dan jawaban ekstraktif. Pengindeksan situs lanjutan menimbulkan biaya tambahan, dan mengharuskan Anda memverifikasi kepemilikan domain untuk situs apa pun yang Anda indeks. Untuk mengetahui informasi selengkapnya, lihat Pengindeksan situs lanjutan dan Harga.
Di kolom Sites to include, tentukan URL situs yang ingin Anda terindeks. Sertakan satu URL per baris, tanpa pemisah koma.
Opsional: Di kolom Situs yang akan dikecualikan, masukkan situs yang ingin Anda kecualikan dari aplikasi.
Klik Lanjutkan.
Masukkan nama untuk penyimpanan data Anda.
Pilih lokasi untuk penyimpanan data Anda. Pengindeksan situs lanjutan harus diaktifkan untuk memilih lokasi.
Klik Create. Vertex AI Agent Builder membuat penyimpanan data dan menampilkan penyimpanan data Anda di halaman Penyimpanan Data.
Untuk melihat informasi tentang penyimpanan data, klik nama penyimpanan data Anda di kolom Nama. Halaman penyimpanan data Anda akan muncul.
Jika Anda mengaktifkan Pengindeksan situs lanjutan, peringatan akan muncul yang meminta Anda memverifikasi kepemilikan domain. Jika Anda mengalami kekurangan kuota (jumlah halaman di situs yang Anda tentukan melebihi kuota "Jumlah dokumen per project" untuk project Anda), peringatan tambahan akan muncul yang meminta Anda untuk mengupgrade kuota. Langkah-langkah berikut menunjukkan cara memverifikasi kepemilikan domain dan mengupgrade kuota Anda.
Untuk memverifikasi kepemilikan domain, ikuti langkah-langkah berikut:
- Klik Verifikasi di Google Search Console. Halaman Selamat datang di Google Search Console akan muncul.
- Ikuti petunjuk di layar untuk memverifikasi domain atau awalan URL, bergantung pada apakah Anda memverifikasi seluruh domain atau awalan URL yang merupakan bagian dari domain. Untuk informasi selengkapnya, lihat Memverifikasi kepemilikan situs di Bantuan Search Console.
- Setelah menyelesaikan alur kerja verifikasi domain, kembali ke halaman Agent Builder dan klik Data Stores di menu navigasi.
- Klik nama penyimpanan data Anda di kolom Nama. Halaman penyimpanan data Anda akan muncul.
- Klik Perbarui status untuk memperbarui nilai di kolom Status. Kolom Status untuk situs Anda menunjukkan bahwa pengindeksan sedang berlangsung.
- Ulangi langkah-langkah verifikasi domain untuk setiap situs yang memerlukan verifikasi domain hingga semuanya mulai diindeks. Jika kolom Status untuk URL menampilkan Diindeks, fitur pengindeksan situs lanjutan akan tersedia untuk URL atau pola URL tersebut.
Untuk mengupgrade kuota, ikuti langkah-langkah berikut:
- Klik Upgrade kuota. Panel Discovery Engine API akan muncul, dengan tab Quotas dipilih.
- Ikuti petunjuk di Meminta batas kuota yang lebih tinggi dalam dokumentasi Google Cloud. Kuota yang akan ditingkatkan adalah Jumlah dokumen.
- Setelah mengirimkan permintaan untuk batas kuota yang lebih tinggi, kembali ke halaman Agent Builder, lalu klik Data Stores di menu navigasi.
- Klik nama penyimpanan data Anda di kolom Nama. Kolom Status menunjukkan bahwa pengindeksan sedang berlangsung untuk situs yang telah melampaui kuota. Jika kolom Status untuk URL menampilkan Diindeks, fitur pengindeksan situs lanjutan akan tersedia untuk URL atau pola URL tersebut.
Langkah berikutnya
Untuk melampirkan penyimpanan data ke aplikasi, buat aplikasi dan pilih penyimpanan data Anda dengan mengikuti langkah-langkah di Membuat aplikasi rekomendasi umum.
Untuk melihat pratinjau tampilan rekomendasi setelah aplikasi dan penyimpanan data disiapkan, lihat Mendapatkan rekomendasi.
BigQuery
Untuk menyerap data dari BigQuery, gunakan langkah-langkah berikut untuk membuat penyimpanan data dan menyerap data menggunakan konsol Google Cloud atau API.
Sebelum mengimpor data, tinjau artikel Menyiapkan data untuk penyerapan.
Konsol
Untuk menggunakan konsol Google Cloud guna menyerap data dari BigQuery, ikuti langkah-langkah berikut:
Di konsol Google Cloud, buka halaman Agent Builder.
Buka halaman Penyimpanan Data.
Klik New data store.
Di halaman Type, pilih BigQuery.
Di kolom BigQuery path, klik Browse, pilih tabel yang telah Anda siapkan untuk ditransfer, lalu klik Select. Atau, masukkan lokasi tabel langsung di kolom Jalur BigQuery.
Pilih jenis data yang Anda impor.
Klik Lanjutkan.
Jika Anda melakukan impor data terstruktur satu kali:
Petakan kolom ke properti utama.
Jika ada kolom penting yang tidak ada dalam skema, gunakan Tambahkan kolom baru untuk menambahkannya.
Untuk informasi selengkapnya, lihat Tentang deteksi dan pengeditan otomatis.
Klik Lanjutkan.
Pilih region untuk penyimpanan data Anda.
Masukkan nama untuk penyimpanan data Anda.
Klik Create.
Untuk mengonfirmasi bahwa datastore Anda telah dibuat, buka halaman Data Store dan klik nama datastore untuk melihat detailnya di halaman Data.
Untuk memeriksa status penyerapan, buka halaman Penyimpanan Data dan klik nama penyimpanan data Anda untuk melihat detailnya di halaman Data. Jika kolom status di tab Aktivitas berubah dari Sedang berlangsung menjadi Impor selesai, penyerapan akan selesai.
Bergantung pada ukuran data Anda, proses transfer dapat memerlukan waktu beberapa menit atau beberapa jam.
REST
Untuk menggunakan command line guna membuat penyimpanan data dan mengimpor data dari BigQuery, ikuti langkah-langkah berikut:
Buat penyimpanan data.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"] }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi yang ingin Anda buat. ID ini hanya boleh berisi huruf kecil, angka, garis bawah, dan tanda hubung.DATA_STORE_DISPLAY_NAME
: nama tampilan penyimpanan data rekomendasi yang ingin Anda buat.
Opsional: Jika mengupload data terstruktur dengan skema Anda sendiri, Anda dapat menyediakan skema tersebut. Saat memberikan skema, Anda biasanya mendapatkan hasil yang lebih baik. Jika tidak, skema akan terdeteksi secara otomatis. Untuk informasi selengkapnya, lihat Menyediakan atau mendeteksi otomatis skema.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/schemas/default_schema" \ -d '{ "structSchema": JSON_SCHEMA_OBJECT }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi.JSON_SCHEMA_OBJECT
: skema JSON Anda sebagai objek JSON—misalnya:{ "$schema": "https://json-schema.org/draft/2020-12/schema", "type": "object", "properties": { "title": { "type": "string", "keyPropertyMapping": "title" }, "categories": { "type": "array", "items": { "type": "string", "keyPropertyMapping": "category" } }, "uri": { "type": "string", "keyPropertyMapping": "uri" } } }
Mengimpor data dari BigQuery.
Jika Anda menentukan skema, pastikan data sesuai dengan skema tersebut.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi.DATASET_ID
: ID set data BigQuery.TABLE_ID
: ID tabel BigQuery.- Jika tabel BigQuery tidak berada di bawah
PROJECT_ID
, Anda harus memberikan izin "BigQuery Data Viewer"service-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
akun layanan untuk tabel BigQuery. Misalnya, jika Anda mengimpor tabel BigQuery dari project sumber "123" ke project tujuan "456", berikan izinservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
untuk tabel BigQuery di project "123".
- Jika tabel BigQuery tidak berada di bawah
DATA_SCHEMA
: Opsional. Nilainya adalahdocument
dancustom
. Defaultnya adalahdocument
.document
: tabel BigQuery yang Anda gunakan harus sesuai dengan skema BigQuery default yang disediakan di Menyiapkan data untuk ditransfer. Anda dapat menentukan ID setiap dokumen sendiri, sekaligus menggabungkan semua data dalam string jsonData.custom
: Semua skema tabel BigQuery diterima, dan Rekomendasi secara otomatis membuat ID untuk setiap dokumen yang diimpor.
ERROR_DIRECTORY
: Opsional. Direktori Cloud Storage untuk informasi error tentang impor—misalnya,gs://<your-gcs-bucket>/directory/import_errors
. Google merekomendasikan untuk mengosongkan kolom ini agar Rekomendasi otomatis membuat direktori sementara.RECONCILIATION_MODE
: Opsional. Nilainya adalahFULL
danINCREMENTAL
. Default-nya adalahINCREMENTAL
. MenentukanINCREMENTAL
akan menyebabkan pembaruan data inkremental dari BigQuery ke penyimpanan data Anda. Tindakan ini akan melakukan operasi upsert, yang menambahkan dokumen baru dan mengganti dokumen yang ada dengan dokumen yang diperbarui dengan ID yang sama. MenentukanFULL
akan menyebabkan rebase penuh dokumen di penyimpanan data Anda. Dengan kata lain, dokumen baru dan yang diperbarui akan ditambahkan ke penyimpanan data Anda, dan dokumen yang tidak ada di BigQuery akan dihapus dari penyimpanan data Anda. ModeFULL
berguna jika Anda ingin menghapus dokumen secara otomatis yang tidak lagi diperlukan.AUTO_GENERATE_IDS
: Opsional. Menentukan apakah akan membuat ID dokumen secara otomatis. Jika ditetapkan ketrue
, ID dokumen akan dibuat berdasarkan hash payload. Perhatikan bahwa ID dokumen yang dihasilkan mungkin tidak tetap konsisten di beberapa impor. Jika Anda membuat ID secara otomatis melalui beberapa impor, Google sangat merekomendasikan untuk menetapkanreconciliationMode
keFULL
guna mempertahankan ID dokumen yang konsisten.Tentukan
autoGenerateIds
hanya jikabigquerySource.dataSchema
ditetapkan kecustom
. Jika tidak, errorINVALID_ARGUMENT
akan ditampilkan. Jika tidak menentukanautoGenerateIds
atau menetapkannya kefalse
, Anda harus menentukanidField
. Jika tidak, dokumen akan gagal diimpor.ID_FIELD
: Opsional. Menentukan kolom mana yang merupakan ID dokumen. Untuk file sumber BigQuery,idField
menunjukkan nama kolom dalam tabel BigQuery yang berisi ID dokumen.Tentukan
idField
hanya jika: (1)bigquerySource.dataSchema
ditetapkan kecustom
, dan (2)auto_generate_ids
ditetapkan kefalse
atau tidak ditentukan. Jika tidak, errorINVALID_ARGUMENT
akan ditampilkan.Nilai nama kolom BigQuery harus berupa jenis string, harus antara 1 dan 63 karakter, dan harus sesuai dengan RFC-1034. Jika tidak, dokumen tidak akan berhasil diimpor.
C#
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API C# Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Go
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Go Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Java
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Java Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Node.js
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Node.js Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Python
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Python Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Ruby
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Ruby Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Langkah berikutnya
Untuk melampirkan penyimpanan data ke aplikasi, buat aplikasi dan pilih penyimpanan data Anda dengan mengikuti langkah-langkah di Membuat aplikasi rekomendasi umum.
Untuk melihat pratinjau tampilan rekomendasi setelah aplikasi dan penyimpanan data disiapkan, lihat Mendapatkan rekomendasi.
Cloud Storage
Untuk menyerap data dari Cloud Storage, gunakan langkah-langkah berikut untuk membuat penyimpanan data dan menyerap data menggunakan konsol Google Cloud atau API.
Sebelum mengimpor data, tinjau artikel Menyiapkan data untuk penyerapan.
Konsol
Untuk menggunakan konsol guna menyerap data dari bucket Cloud Storage, ikuti langkah-langkah berikut:
Di konsol Google Cloud, buka halaman Agent Builder.
Buka halaman Penyimpanan Data.
Klik New data store.
Di halaman Jenis, pilih Cloud Storage.
Di bagian Select a folder or file you want to import, pilih Folder atau File.
Klik Browse dan pilih data yang telah Anda siapkan untuk ditransfer, lalu klik Select. Atau, masukkan lokasi secara langsung di kolom
gs://
.Pilih jenis data yang Anda impor.
Klik Lanjutkan.
Jika Anda melakukan impor data terstruktur satu kali:
Petakan kolom ke properti utama.
Jika ada kolom penting yang tidak ada dalam skema, gunakan Tambahkan kolom baru untuk menambahkannya.
Untuk informasi selengkapnya, lihat Tentang deteksi dan pengeditan otomatis.
Klik Lanjutkan.
Pilih region untuk penyimpanan data Anda.
Masukkan nama untuk penyimpanan data Anda.
Klik Create.
Untuk mengonfirmasi bahwa datastore Anda telah dibuat, buka halaman Data Store dan klik nama datastore untuk melihat detailnya di halaman Data.
Untuk memeriksa status penyerapan, buka halaman Penyimpanan Data dan klik nama penyimpanan data Anda untuk melihat detailnya di halaman Data. Jika kolom status di tab Aktivitas berubah dari Sedang berlangsung menjadi Impor selesai, penyerapan akan selesai.
Bergantung pada ukuran data Anda, proses transfer dapat memerlukan waktu beberapa menit atau beberapa jam.
REST
Untuk menggunakan command line guna membuat penyimpanan data dan menyerap data dari Cloud Storage, ikuti langkah-langkah berikut:
Buat penyimpanan data.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"], "contentConfig": "CONTENT_REQUIRED" }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi yang ingin Anda buat. ID ini hanya boleh berisi huruf kecil, angka, garis bawah, dan tanda hubung.DATA_STORE_DISPLAY_NAME
: nama tampilan penyimpanan data rekomendasi yang ingin Anda buat.
Mengimpor data dari Cloud Storage.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["INPUT_FILE_PATTERN_1", "INPUT_FILE_PATTERN_2"], "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi.INPUT_FILE_PATTERN
: pola file di Cloud Storage yang berisi dokumen Anda.Untuk data terstruktur, atau untuk data tidak terstruktur dengan metadata untuk dokumen tidak terstruktur, contoh pola file input adalah
gs://<your-gcs-bucket>/directory/object.json
, atau pola yang cocok dengan satu atau beberapa file, sepertigs://<your-gcs-bucket>/directory/*.json
.Untuk dokumen tidak terstruktur, contohnya adalah
gs://<your-gcs-bucket>/directory/*.pdf
. Setiap file yang cocok dengan pola menjadi dokumen.Jika
<your-gcs-bucket>
tidak berada di bawahPROJECT_ID
, Anda harus memberikan izin "Storage Object Viewer"service-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
kepada akun layanan untuk bucket Cloud Storage. Misalnya, jika Anda mengimpor bucket Cloud Storage dari project sumber "123" ke project tujuan "456", berikan izinservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
pada bucket Cloud Storage di project "123".DATA_SCHEMA
: Opsional. Nilainya adalahdocument
,custom
,csv
, dancontent
. Defaultnya adalahdocument
.document
: Mengupload data tidak terstruktur dengan metadata untuk dokumen tidak terstruktur. Setiap baris file harus mengikuti salah satu format berikut. Anda dapat menentukan ID setiap dokumen:{ "id": "<your-id>", "jsonData": "<JSON string>", "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
{ "id": "<your-id>", "structData": <JSON object>, "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
custom
: Mengupload JSON untuk dokumen terstruktur. Data diatur sesuai dengan skema. Anda dapat menentukan skema; jika tidak, skema akan terdeteksi secara otomatis. Anda dapat menempatkan string JSON dokumen dalam format yang konsisten langsung di setiap baris, dan Rekomendasi akan otomatis membuat ID untuk setiap dokumen yang diimpor.content
: Mengupload dokumen tidak terstruktur (PDF, HTML, DOC, TXT, PPTX). ID setiap dokumen dibuat secara otomatis sebagai 128 bit pertama SHA256(GCS_URI) yang dienkode sebagai string hex. Anda dapat menentukan beberapa pola file input selama file yang cocok tidak melebihi batas 100 ribu file.csv
: Sertakan baris header dalam file CSV, dengan setiap header dipetakan ke kolom dokumen. Tentukan jalur ke file CSV menggunakan kolominputUris
.
ERROR_DIRECTORY
: Opsional. Direktori Cloud Storage untuk informasi error tentang impor—misalnya,gs://<your-gcs-bucket>/directory/import_errors
. Google merekomendasikan untuk mengosongkan kolom ini agar Rekomendasi membuat direktori sementara secara otomatis.RECONCILIATION_MODE
: Opsional. Nilainya adalahFULL
danINCREMENTAL
. Default-nya adalahINCREMENTAL
. MenentukanINCREMENTAL
akan menyebabkan pembaruan data inkremental dari Cloud Storage ke penyimpanan data Anda. Tindakan ini akan melakukan operasi upsert, yang menambahkan dokumen baru dan mengganti dokumen yang ada dengan dokumen yang diperbarui dengan ID yang sama. MenentukanFULL
akan menyebabkan rebase penuh dokumen di penyimpanan data Anda. Dengan kata lain, dokumen baru dan yang diperbarui ditambahkan ke penyimpanan data Anda, dan dokumen yang tidak ada di Cloud Storage akan dihapus dari penyimpanan data Anda. ModeFULL
berguna jika Anda ingin menghapus dokumen yang tidak lagi diperlukan secara otomatis.AUTO_GENERATE_IDS
: Opsional. Menentukan apakah akan membuat ID dokumen secara otomatis. Jika ditetapkan ketrue
, ID dokumen akan dibuat berdasarkan hash payload. Perhatikan bahwa ID dokumen yang dihasilkan mungkin tidak tetap konsisten di beberapa impor. Jika Anda membuat ID secara otomatis melalui beberapa impor, Google sangat merekomendasikan untuk menetapkanreconciliationMode
keFULL
guna mempertahankan ID dokumen yang konsisten.Tentukan
autoGenerateIds
hanya jikagcsSource.dataSchema
ditetapkan kecustom
ataucsv
. Jika tidak, errorINVALID_ARGUMENT
akan ditampilkan. Jika tidak menentukanautoGenerateIds
atau menetapkannya kefalse
, Anda harus menentukanidField
. Jika tidak, dokumen akan gagal diimpor.ID_FIELD
: Opsional. Menentukan kolom mana yang merupakan ID dokumen. Untuk dokumen sumber Cloud Storage,idField
menentukan nama di kolom JSON yang merupakan ID dokumen. Misalnya, jika{"my_id":"some_uuid"}
adalah kolom ID dokumen di salah satu dokumen Anda, tentukan"idField":"my_id"
. Hal ini mengidentifikasi semua kolom JSON dengan nama"my_id"
sebagai ID dokumen.Tentukan kolom ini hanya jika: (1)
gcsSource.dataSchema
ditetapkan kecustom
ataucsv
, dan (2)auto_generate_ids
ditetapkan kefalse
atau tidak ditentukan. Jika tidak, errorINVALID_ARGUMENT
akan ditampilkan.Perhatikan bahwa nilai kolom JSON Cloud Storage harus berupa jenis string, harus antara 1-63 karakter, dan harus sesuai dengan RFC-1034. Jika tidak, dokumen akan gagal diimpor.
Perhatikan bahwa nama kolom JSON yang ditentukan oleh
id_field
harus berupa jenis string, harus antara 1 dan 63 karakter, dan harus sesuai dengan RFC-1034. Jika tidak, dokumen akan gagal diimpor.
C#
Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi API C# Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Go
Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi API Go Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Java
Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi API Java Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Node.js
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Node.js Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Python
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Python Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Ruby
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Ruby Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Contoh ini menyerap data tidak terstruktur dari BigQuery atau Cloud Storage ke penyimpanan data yang ada.
Langkah berikutnya
Untuk melampirkan penyimpanan data ke aplikasi, buat aplikasi dan pilih penyimpanan data Anda dengan mengikuti langkah-langkah di Membuat aplikasi rekomendasi umum.
Untuk melihat pratinjau tampilan rekomendasi setelah aplikasi dan penyimpanan data disiapkan, lihat Mendapatkan rekomendasi.
Mengupload data JSON terstruktur dengan API
Untuk mengupload dokumen atau objek JSON secara langsung menggunakan API, ikuti langkah-langkah berikut.
Sebelum mengimpor data, Siapkan data untuk penyerapan.
REST
Untuk menggunakan command line guna membuat penyimpanan data dan mengimpor data JSON terstruktur, ikuti langkah-langkah berikut:
Buat penyimpanan data.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"] }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi yang ingin Anda buat. ID ini hanya boleh berisi huruf kecil, angka, garis bawah, dan tanda hubung.DATA_STORE_DISPLAY_NAME
: nama tampilan penyimpanan data rekomendasi yang ingin Anda buat.
Opsional: Berikan skema Anda sendiri. Jika memberikan skema, Anda biasanya mendapatkan hasil yang lebih baik. Untuk mengetahui informasi selengkapnya, lihat Menyediakan atau mendeteksi skema secara otomatis.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/schemas/default_schema" \ -d '{ "structSchema": JSON_SCHEMA_OBJECT }'
Ganti kode berikut:
PROJECT_ID
: ID project Google Cloud Anda.DATA_STORE_ID
: ID penyimpanan data rekomendasi.JSON_SCHEMA_OBJECT
: skema JSON Anda sebagai objek JSON—misalnya:{ "$schema": "https://json-schema.org/draft/2020-12/schema", "type": "object", "properties": { "title": { "type": "string", "keyPropertyMapping": "title" }, "categories": { "type": "array", "items": { "type": "string", "keyPropertyMapping": "category" } }, "uri": { "type": "string", "keyPropertyMapping": "uri" } } }
Mengimpor data terstruktur yang sesuai dengan skema yang ditentukan.
Ada beberapa pendekatan yang dapat Anda gunakan untuk mengupload data, termasuk:
Upload dokumen JSON.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Ganti
JSON_DOCUMENT_STRING
dengan dokumen JSON sebagai satu string. Ini harus sesuai dengan skema JSON yang Anda berikan di langkah sebelumnya—misalnya:```none { \"title\": \"test title\", \"categories\": [\"cat_1\", \"cat_2\"], \"uri\": \"test uri\"} ```
Upload objek JSON.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Ganti
JSON_DOCUMENT_OBJECT
dengan dokumen JSON sebagai objek JSON. Ini harus sesuai dengan skema JSON yang Anda berikan di langkah sebelumnya—misalnya:```json { "title": "test title", "categories": [ "cat_1", "cat_2" ], "uri": "test uri" } ```
Memperbarui dengan dokumen JSON.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Memperbarui dengan objek JSON.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Langkah berikutnya
Untuk melampirkan penyimpanan data ke aplikasi, buat aplikasi dan pilih penyimpanan data Anda dengan mengikuti langkah-langkah di Membuat aplikasi rekomendasi umum.
Untuk melihat pratinjau tampilan rekomendasi setelah aplikasi dan penyimpanan data disiapkan, lihat Mendapatkan rekomendasi.
Membuat penyimpanan data menggunakan Terraform
Anda dapat menggunakan Terraform untuk membuat penyimpanan data kosong. Setelah penyimpanan data kosong dibuat, Anda dapat menyerap data ke penyimpanan data menggunakan konsol Google Cloud atau perintah API.
Untuk mempelajari cara menerapkan atau menghapus konfigurasi Terraform, lihat Perintah dasar Terraform.
Untuk membuat penyimpanan data kosong menggunakan Terraform, lihat
google_discovery_engine_data_store
.