Halaman ini menjelaskan cara memperbarui data terstruktur dan tidak terstruktur.
Untuk memuat ulang aplikasi situs, lihat Memuat ulang halaman web.
Memperbarui data terstruktur
Anda dapat memuat ulang data di penyimpanan data terstruktur selama Anda menggunakan skema yang sama atau kompatibel dengan skema di penyimpanan data. Misalnya, hanya menambahkan kolom baru ke skema yang ada akan kompatibel dengan versi sebelumnya.
Anda dapat memuat ulang data terstruktur di konsol Google Cloud atau menggunakan API.
Konsol
Untuk menggunakan konsol Google Cloud guna memuat ulang data terstruktur dari cabang penyimpanan data, ikuti langkah-langkah berikut:
Di konsol Google Cloud, buka halaman Agent Builder.
Di menu navigasi, klik Penyimpanan Data.
Di kolom Nama, klik penyimpanan data yang ingin Anda edit.
Di tab Dokumen, klik
Impor data.Untuk memuat ulang dari Cloud Storage:
- Di panel Select a data source, pilih Cloud Storage.
- Di panel Impor data dari Cloud Storage, klik Browse, pilih bucket yang berisi data yang diperbarui, lalu klik Select. Atau, masukkan lokasi bucket secara langsung di kolom gs://.
- Di bagian Opsi Impor Data, pilih opsi impor.
- Klik Import.
Untuk memuat ulang dari BigQuery:
- Di panel Select a data source, pilih BigQuery.
- Di panel Import data from BigQuery, klik Browse, pilih tabel yang berisi data yang diperbarui, lalu klik Select. Atau, masukkan lokasi tabel langsung di kolom Jalur BigQuery.
- Di bagian Opsi Impor Data, pilih opsi impor.
- Klik Import.
REST
Gunakan metode documents.import
untuk memuat ulang data,
dengan menentukan nilai reconciliationMode
yang sesuai.
Untuk memuat ulang data terstruktur dari BigQuery atau Cloud Storage menggunakan command line, ikuti langkah-langkah berikut:
Temukan ID penyimpanan data Anda. Jika Anda sudah memiliki ID penyimpanan data, lanjutkan ke langkah berikutnya.
Di konsol Google Cloud, buka halaman Agent Builder dan di menu navigasi, klik Data Stores.
Klik nama penyimpanan data Anda.
Di halaman Data untuk penyimpanan data Anda, dapatkan ID penyimpanan data.
Untuk mengimpor data terstruktur dari BigQuery, panggil metode berikut. Anda dapat mengimpor dari BigQuery atau Cloud Storage. Untuk mengimpor dari Cloud Storage, lanjutkan ke langkah berikutnya.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA_BQ", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": AUTO_GENERATE_IDS, "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
- PROJECT_ID: ID project Google Cloud Anda.
- DATA_STORE_ID: ID penyimpanan data Vertex AI Search.
- DATASET_ID: nama set data BigQuery Anda.
- TABLE_ID: nama tabel BigQuery Anda.
- DATA_SCHEMA_BQ: kolom opsional untuk menentukan skema yang akan digunakan saat mengurai data dari sumber BigQuery. Dapat memiliki
nilai berikut:
document
: nilai default. Tabel BigQuery yang Anda gunakan harus sesuai dengan skema BigQuery default berikut. Anda dapat menentukan ID setiap dokumen sendiri, sekaligus menggabungkan seluruh data dalam stringjson_data
.custom
: semua skema tabel BigQuery diterima, dan Vertex AI Agent Builder secara otomatis membuat ID untuk setiap dokumen yang diimpor.
- ERROR_DIRECTORY: kolom opsional untuk menentukan direktori Cloud Storage untuk
informasi error tentang impor—misalnya,
gs://<your-gcs-bucket>/directory/import_errors
. Google merekomendasikan untuk membiarkan kolom ini kosong agar Vertex AI Agent Builder otomatis membuat direktori sementara. - RECONCILIATION_MODE: kolom opsional untuk menentukan cara
dokumen yang diimpor direkonsiliasi dengan dokumen yang ada di
penyimpanan data tujuan. Dapat memiliki nilai berikut:
INCREMENTAL
: nilai default. Menyebabkan pembaruan data inkremental dari BigQuery ke penyimpanan data Anda. Tindakan ini akan melakukan operasi upsert, yang menambahkan dokumen baru dan mengganti dokumen yang ada dengan dokumen yang diperbarui dengan ID yang sama.FULL
: menyebabkan rebase penuh dokumen di penyimpanan data Anda. Oleh karena itu, dokumen baru dan yang diperbarui akan ditambahkan ke penyimpanan data Anda, dan dokumen yang tidak ada di BigQuery akan dihapus dari penyimpanan data Anda. ModeFULL
berguna jika Anda ingin menghapus dokumen yang tidak lagi diperlukan secara otomatis.
AUTO_GENERATE_IDS: kolom opsional untuk menentukan apakah akan membuat ID dokumen secara otomatis. Jika ditetapkan ke
true
, ID dokumen akan dibuat berdasarkan hash payload. Perhatikan bahwa ID dokumen yang dihasilkan mungkin tidak tetap konsisten di beberapa impor. Jika Anda membuat ID secara otomatis melalui beberapa impor, Google sangat merekomendasikan untuk menetapkanreconciliationMode
keFULL
guna mempertahankan ID dokumen yang konsisten.Tentukan
autoGenerateIds
hanya jikabigquerySource.dataSchema
ditetapkan kecustom
. Jika tidak, errorINVALID_ARGUMENT
akan ditampilkan. Jika tidak menentukanautoGenerateIds
atau menetapkannya kefalse
, Anda harus menentukanidField
. Jika tidak, dokumen akan gagal diimpor.ID_FIELD: kolom opsional untuk menentukan kolom mana yang merupakan ID dokumen. Untuk file sumber BigQuery,
idField
menunjukkan nama kolom dalam tabel BigQuery yang berisi ID dokumen.Tentukan
idField
hanya jika kedua kondisi ini terpenuhi, jika tidak, errorINVALID_ARGUMENT
akan ditampilkan:bigquerySource.dataSchema
disetel kecustom
auto_generate_ids
ditetapkan kefalse
atau tidak ditentukan.
Selain itu, nilai nama kolom BigQuery harus berupa jenis string, harus antara 1 dan 63 karakter, dan harus sesuai dengan RFC-1034. Jika tidak, dokumen tidak akan berhasil diimpor.
Berikut adalah skema BigQuery default. Tabel BigQuery Anda harus sesuai dengan skema ini saat Anda menetapkan
dataSchema
kedocument
.[ { "name": "id", "mode": "REQUIRED", "type": "STRING", "fields": [] }, { "name": "jsonData", "mode": "NULLABLE", "type": "STRING", "fields": [] } ]
Untuk mengimpor data terstruktur dari Cloud Storage, panggil metode berikut. Anda dapat mengimpor dari BigQuery atau Cloud Storage. Untuk mengimpor dari BigQuery, buka langkah sebelumnya.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["GCS_PATHS"], "dataSchema": "DATA_SCHEMA_GCS", }, "reconciliationMode": "RECONCILIATION_MODE", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
- PROJECT_ID: ID project Google Cloud Anda.
- DATA_STORE_ID: ID penyimpanan data Vertex AI Search.
- GCS_PATHS: daftar URI yang dipisahkan koma ke lokasi Cloud Storage tempat Anda ingin mengimpor. Setiap URI dapat
berisi maksimal 2.000 karakter. URI dapat cocok dengan jalur lengkap untuk objek penyimpanan atau dapat cocok dengan pola untuk satu atau beberapa objek. Misalnya,
gs://bucket/directory/*.json
adalah jalur yang valid. - DATA_SCHEMA_GCS: kolom opsional untuk menentukan skema yang akan digunakan saat mengurai data dari sumber BigQuery. Dapat memiliki
nilai berikut:
document
: nilai default. Tabel BigQuery yang Anda gunakan harus sesuai dengan skema BigQuery default berikut. Anda dapat menentukan ID setiap dokumen sendiri, sekaligus menggabungkan seluruh data dalam stringjson_data
.custom
: semua skema tabel BigQuery diterima, dan Vertex AI Agent Builder secara otomatis membuat ID untuk setiap dokumen yang diimpor.
- ERROR_DIRECTORY: kolom opsional untuk menentukan direktori Cloud Storage untuk
informasi error tentang impor—misalnya,
gs://<your-gcs-bucket>/directory/import_errors
. Google merekomendasikan untuk membiarkan kolom ini kosong agar Vertex AI Agent Builder otomatis membuat direktori sementara. - RECONCILIATION_MODE: kolom opsional untuk menentukan cara
dokumen yang diimpor direkonsiliasi dengan dokumen yang ada di
penyimpanan data tujuan. Dapat memiliki nilai berikut:
INCREMENTAL
: nilai default. Menyebabkan pembaruan data inkremental dari BigQuery ke penyimpanan data Anda. Tindakan ini akan melakukan operasi upsert, yang menambahkan dokumen baru dan mengganti dokumen yang ada dengan dokumen yang diperbarui dengan ID yang sama.FULL
: menyebabkan rebase penuh dokumen di penyimpanan data Anda. Oleh karena itu, dokumen baru dan yang diperbarui akan ditambahkan ke penyimpanan data Anda, dan dokumen yang tidak ada di BigQuery akan dihapus dari penyimpanan data Anda. ModeFULL
berguna jika Anda ingin menghapus dokumen yang tidak lagi diperlukan secara otomatis.
Python
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Python Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Memperbarui data tidak terstruktur
Anda dapat memuat ulang data tidak terstruktur di konsol Google Cloud atau menggunakan API.
Konsol
Untuk menggunakan konsol Google Cloud guna memuat ulang data tidak terstruktur dari cabang penyimpanan data, ikuti langkah-langkah berikut:
Di konsol Google Cloud, buka halaman Agent Builder.
Di menu navigasi, klik Penyimpanan Data.
Di kolom Nama, klik penyimpanan data yang ingin Anda edit.
Di tab Dokumen, klik
Impor data.Untuk menyerap data dari bucket Cloud Storage (dengan atau tanpa metadata):
- Di panel Select a data source, pilih Cloud Storage.
- Di panel Impor data dari Cloud Storage, klik Browse,
pilih bucket yang berisi data yang diperbarui, lalu klik
Select. Atau, masukkan lokasi bucket secara langsung di
kolom
gs://
. - Di bagian Opsi Impor Data, pilih opsi impor.
- Klik Import.
Untuk menyerap dari BigQuery:
- Di panel Select a data source, pilih BigQuery.
- Di panel Import data from BigQuery, klik Browse, pilih tabel yang berisi data yang diperbarui, lalu klik Select. Atau, masukkan lokasi tabel langsung di kolom Jalur BigQuery.
- Di bagian Opsi Impor Data, pilih opsi impor.
- Klik Import.
REST
Untuk memuat ulang data tidak terstruktur menggunakan API, impor ulang menggunakan
metode documents.import
, dengan menentukan nilai
reconciliationMode
yang sesuai. Untuk informasi selengkapnya tentang cara mengimpor data tidak terstruktur, lihat Data tidak terstruktur.
Python
Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Python Vertex AI Agent Builder.
Untuk melakukan autentikasi ke Vertex AI Agent Builder, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.