Halaman ini menjelaskan cara mengimpor data peristiwa pengguna dari peristiwa terdahulu secara massal. Vertex AI Search untuk model retail memerlukan data peristiwa pengguna untuk pelatihan.
Setelah Anda menyiapkan perekaman peristiwa real-time, perlu waktu yang cukup lama untuk merekam data peristiwa pengguna yang memadai untuk melatih model Anda. Anda dapat mempercepat pelatihan model awal dengan mengimpor data peristiwa pengguna dari peristiwa terdahulu secara massal. Sebelum melakukannya, tinjau praktik terbaik untuk merekam peristiwa pengguna dan bagian Sebelum memulai di halaman ini.
Prosedur impor di halaman ini berlaku untuk rekomendasi dan penelusuran. Setelah Anda mengimpor data, kedua layanan dapat menggunakan peristiwa tersebut, sehingga Anda tidak perlu mengimpor data yang sama dua kali jika menggunakan kedua layanan.
Anda dapat:
- Impor peristiwa dari Cloud Storage.
- Impor peristiwa dari BigQuery.
- Impor peristiwa Google Analytics 360 dari BigQuery.
- Impor peristiwa Google Analytics 4 dari BigQuery.
- Impor peristiwa secara inline dengan metode
userEvents.import
.
Mengimpor peristiwa dari tutorial Cloud Storage
Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari Cloud Storage.
Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:
Mengimpor peristiwa dari tutorial BigQuery
Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari BigQuery.
Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:
Tutorial inline impor peristiwa
Tutorial ini menunjukkan cara mengimpor data peristiwa pengguna secara inline.
Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:
Sebelum memulai
Untuk menghindari error impor dan memastikan ada data yang cukup untuk memberikan hasil yang baik, tinjau informasi berikut sebelum mengimpor peristiwa pengguna Anda.
Pemformatan peristiwa pengguna berbeda-beda bergantung pada jenis peristiwa pengguna. Lihat Skema jenis dan contoh peristiwa pengguna untuk mengetahui format yang akan ditentukan saat membuat tabel untuk setiap jenis peristiwa.
rekomendasi dan penelusuran memiliki persyaratan data minimum yang berbeda. Pastikan peristiwa pengguna memenuhi persyaratan layanan yang ingin Anda gunakan:
Lihat Persyaratan peristiwa dan praktik terbaik pengguna untuk mengetahui persyaratan penelusuran dan rekomendasi.
Jika Anda menggunakan model rekomendasi, lihat juga Persyaratan data peristiwa pengguna, yang mencantumkan persyaratan tambahan bergantung pada jenis model rekomendasi dan tujuan pengoptimalan yang ingin Anda gunakan.
Pertimbangan impor peristiwa
Bagian ini menjelaskan metode yang dapat digunakan untuk mengimpor batch peristiwa pengguna historis, kapan Anda mungkin menggunakan setiap metode, dan beberapa batasannya.
Cloud Storage | Deskripsi |
Mengimpor data dalam format JSON dari file yang dimuat di bucket Cloud Storage. Setiap file harus berukuran 2 GB atau lebih kecil, dan Anda dapat mengimpor maksimal 100 file
sekaligus. Impor dapat dilakukan menggunakan Konsol Google Cloud
atau cURL. Menggunakan format data JSON Product , yang memungkinkan atribut khusus.
|
---|---|---|
Kapan digunakan | Jika Anda menginginkan volume data yang lebih tinggi untuk dimuat dalam satu langkah. | |
Batasan | Jika data Anda ada di Google Analytics atau Merchant Center, data tersebut hanya dapat diekspor ke BigQuery dan memerlukan langkah tambahan untuk mengimpornya ke Cloud Storage. | |
BigQuery | Deskripsi | Impor data dari tabel BigQuery yang dimuat sebelumnya yang menggunakan Vertex AI Search untuk skema retail. Dapat dilakukan menggunakan Konsol Google Cloud atau cURL. |
Kapan digunakan | Apakah Anda juga menggunakan analisis atau pemrosesan data peristiwa sebelum mengimpornya. | |
Batasan | Memerlukan langkah tambahan untuk membuat tabel BigQuery yang memetakan ke Vertex AI Search untuk skema retail. Jika Anda memiliki volume peristiwa pengguna yang tinggi, pertimbangkan juga bahwa BigQuery adalah resource berbiaya lebih tinggi daripada Cloud Storage. | |
BigQuery dengan Analytics 360 | Deskripsi | Impor data yang sudah ada dari Analytics 360 ke Vertex AI Search untuk retail. |
Kapan digunakan | Jika Anda memiliki Analytics 360 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan. | |
Batasan | Hanya tersedia subset atribut, sehingga beberapa Vertex AI Search lanjutan untuk fitur retail tidak dapat digunakan. Pelacakan tayangan di Google Analytics diperlukan jika Anda berencana menggunakan penelusuran. | |
BigQuery dengan Google Analytics 4 | Deskripsi | Impor data yang sudah ada dari Google Analytics 4 ke Vertex AI Search untuk retail. |
Kapan digunakan | Jika Anda memiliki Google Analytics 4 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan. | |
Batasan |
Hanya tersedia subset atribut, sehingga beberapa Vertex AI Search lanjutan untuk fitur retail tidak dapat digunakan.
Jika berencana menggunakan penelusuran, Anda perlu menyiapkan key-value pair parameter peristiwa untuk pelacakan; kunci yang direkomendasikan adalah search_query .
|
|
Impor inline | Deskripsi |
Impor menggunakan panggilan ke metode userEvents.import .
|
Kapan digunakan | Jika Anda ingin meningkatkan privasi, dengan cara semua autentikasi terjadi di backend dan Anda dapat melakukan impor backend. | |
Batasan | Biasanya lebih rumit daripada impor web. |
Mengimpor peristiwa pengguna dari Cloud Storage
Impor peristiwa pengguna dari Cloud Storage menggunakan Konsol Google Cloud atau metode userEvents.import
.
Konsol
-
Buka halaman Data> di konsol Search for Retail.
Buka halaman Data - Klik Import untuk membuka panel Import Data.
- Pilih Peristiwa pengguna.
- Pilih Google Cloud Storage sebagai sumber data.
- Pilih Skema Peristiwa Pengguna Retail sebagai skema.
- Masukkan lokasi Cloud Storage data Anda.
- Klik Import.
cURL
Gunakan metode userEvents.import
untuk mengimpor peristiwa
pengguna Anda.
Buat file data untuk parameter input untuk impor. Gunakan objek
GcsSource
untuk menunjuk ke bucket Cloud Storage Anda.Anda dapat memberikan beberapa file, atau hanya satu file.
- INPUT_FILE: File di Cloud Storage yang berisi data peristiwa pengguna Anda. Lihat artikel Tentang peristiwa pengguna untuk mengetahui contoh setiap format jenis peristiwa pengguna. Pastikan setiap peristiwa pengguna berada pada satu barisnya sendiri, tanpa jeda baris.
- ERROR_DIRECTORY: Direktori Cloud Storage untuk informasi error tentang impor.
Kolom file input harus dalam format
gs://<bucket>/<path-to-file>/
. Direktori error harus dalam formatgs://<bucket>/<folder>/
. Jika direktori error tidak ada, Vertex AI Search untuk retail akan membuatnya. Bucket harus sudah ada.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Impor informasi katalog Anda dengan membuat permintaan
POST
ke metode RESTuserEvents:import
, dengan memberikan nama file data.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Mengimpor peristiwa pengguna dari BigQuery
Impor peristiwa pengguna dari BigQuery menggunakan Konsol Google Cloud atau metode userEvents.import
.
Menyiapkan akses BigQuery
Ikuti petunjuk dalam artikel Menyiapkan akses ke set data BigQuery agar akun layanan retail Vertex AI Search memiliki peran BigQuery Data Owner untuk set data BigQuery Anda.
Mengimpor peristiwa pengguna dari BigQuery
Anda dapat mengimpor peristiwa 360 menggunakan Search for Retail Console atau metode userEvents.import
.
Konsol
-
Buka halaman Data> di konsol Search for Retail.
Buka halaman Data - Klik Import untuk membuka panel Import Data.
- Pilih Peristiwa pengguna.
- Pilih BigQuery sebagai sumber data.
-
Pilih skema data.
- Google Analytics 4: Gunakan untuk peristiwa Google Analytics 4.
- Google Analytics 360: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakan Skema Peristiwa Pengguna Retail).
- Skema Peristiwa Pengguna Retail: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
- Masukkan tabel BigQuery tempat data Anda berada.
- Opsional: Masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Klik Import.
curl
Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import
. Lihat
referensi API userEvents.import
.
Nilai yang ditentukan untuk dataSchema
bergantung pada apa yang Anda impor:
user_event_ga4
: Gunakan untuk peristiwa Google Analytics 4.user_event_ga360
: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda hanya mengimpor kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakanuser_event
).user_event
: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Mengimpor peristiwa pengguna Analytics 360 dengan BigQuery
Anda dapat mengimpor peristiwa pengguna Analytics 360 jika telah mengintegrasikan Analytics 360 dengan BigQuery dan menggunakan Enhanced E-commerce.
Prosedur berikut mengasumsikan bahwa Anda sudah memahami penggunaan BigQuery dan Analytics 360.
Sebelum memulai
Sebelum Anda memulai langkah berikutnya, pastikan:
- Anda menggunakan Enhanced E-commerce.
- Anda memiliki BigQuery yang tertaut ke Analytics 360.
Periksa sumber data Anda
Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar dalam tabel BigQuery yang dapat Anda akses.
Pastikan tabel diberi nama
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
.Lihat dokumentasi Google Analytics untuk mengetahui informasi selengkapnya tentang format dan penamaan tabel.
Di Konsol Google Cloud BigQuery, pilih tabel dari panel Explorer untuk melihat pratinjau tabel.
Pastikan bahwa:
Kolom
clientId
memiliki nilai yang valid—misalnya,123456789.123456789
.Perhatikan bahwa nilai ini berbeda dengan nilai cookie _ga lengkap (yang memiliki format seperti
GA1.3.123456789.123456789
).Kolom
hits.transaction.currencyCode
memiliki kode mata uang yang valid.Jika Anda berencana untuk mengimpor peristiwa
search
, pastikan ada kolomhits.page.searchKeyword
atauhits.customVariable.searchQuery
.Pengimporan peristiwa
search
didukung, tetapi tidak dipetakan dari Analytics 360 dengan cara yang sama seperti yang dilakukan jenis peristiwa lainnya karena Analytics 360 tidak mendukung jenis peristiwasearch
secara native. Selama impor, peristiwasearch
dibuat dari Analytics 360 dengan menggabungkan informasi dari kueri penelusuran dan jika ada, tayangan produk.Kueri penelusuran berasal dari
hits.page.searchKeyword
, atau darihits.customVariables.customVarValue
jikahits.customVariables.customVarName
adalahsearchQuery
. Tayangan produk diambil darihits.product
jikahits.product.isImpressions
adalahTRUE
.
Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Analytics 360.
Dengan menggunakan ID produk apa pun dari kolom
hits.product.productSKU
di pratinjau tabel BigQuery, gunakan metodeproduct.get
untuk memastikan produk yang sama ada dalam katalog yang Anda upload.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Mengimpor peristiwa Analytics 360 Anda
Anda dapat mengimpor peristiwa Google Analytics 360 menggunakan Search for Retail Console atau metode userEvents.import
.
Konsol
-
Buka halaman Data> di konsol Search for Retail.
Buka halaman Data - Klik Import untuk membuka panel Import Data.
- Pilih Peristiwa pengguna.
- Pilih BigQuery sebagai sumber data.
-
Pilih skema data.
- Google Analytics 4: Gunakan untuk peristiwa Google Analytics 4.
- Google Analytics 360: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakan Skema Peristiwa Pengguna Retail).
- Skema Peristiwa Pengguna Retail: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
- Masukkan tabel BigQuery tempat data Anda berada.
- Opsional: Masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Klik Import.
REST
Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import
.
Untuk dataSchema
, gunakan nilai user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Mengimpor kunjungan halaman beranda Analytics 360 dengan BigQuery
Di Analytics 360, peristiwa kunjungan halaman beranda tidak dibedakan dari peristiwa kunjungan halaman lainnya. Artinya, peristiwa kunjungan halaman beranda tidak diimpor sebagai peristiwa dengan jenis peristiwa lainnya (seperti detail-page-view) di bagian Mengimpor peristiwa Analytics 360.
Prosedur berikut menjelaskan cara mengekstrak peristiwa tayangan halaman beranda dari data Analytics 360 dan mengimpornya ke Vertex AI Search untuk retail. Singkatnya, hal ini dilakukan dengan mengekstrak tampilan halaman beranda pengguna (yang diidentifikasi melalui jalur halaman beranda) ke dalam tabel BigQuery baru, lalu mengimpor data dari tabel baru tersebut ke Vertex AI Search untuk retail.
Untuk mengimpor peristiwa kunjungan halaman beranda dari Analytics 360 ke Vertex AI Search untuk retail:
Buat set data BigQuery atau pastikan Anda memiliki set data BigQuery yang dapat digunakan untuk menambahkan tabel.
Set data ini dapat berada di Vertex AI Search Anda untuk project retail atau dalam project tempat Anda memiliki data Analytics 360. Ini adalah set data target tempat Anda akan menyalin peristiwa kunjungan halaman beranda Analytics 360.
Buat tabel BigQuery dalam set data sebagai berikut:
Ganti variabel dalam kode SQL berikut sebagai berikut.
target_project_id: Project tempat set data dari langkah 1 berada.
target_dataset: Nama set data dari langkah 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Salin contoh kode SQL.
Buka halaman BigQuery di Konsol Google Cloud.
Jika belum dipilih, pilih project target.
Di panel Editor, tempel contoh kode SQL.
Klik
Run dan tunggu hingga kueri selesai dijalankan.
Menjalankan kode ini akan membuat tabel dalam format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
—misalnya,my-project:view_events.ga_homepage_20230115
.Salin peristiwa kunjungan halaman beranda Analytics 360 dari tabel data Analytics 360 ke dalam tabel yang dibuat pada langkah 2 sebelumnya.
Ganti variabel dalam kode contoh SQL berikut sebagai berikut:
source_project_id: ID project yang berisi data Analytics 360 dalam tabel BigQuery.
source_dataset: Set data dalam project sumber yang berisi data Analytics 360 dalam tabel BigQuery.
source_table: Tabel dalam project sumber yang berisi data Analytics 360.
target_project_id: Project ID target yang sama seperti pada langkah 2 sebelumnya.
target_dataset: Set data target yang sama seperti pada langkah 2 sebelumnya.
path: Ini adalah jalur ke halaman beranda. Biasanya ini adalah
/
—misalnya, jika halaman berandanya adalahexample.com/
. Namun, jika halaman berandanya sepertiexamplepetstore.com/index.html
, jalurnya adalah/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Salin contoh kode SQL.
Buka halaman BigQuery di Konsol Google Cloud.
Jika belum dipilih, pilih project target.
Di panel Editor, tempel contoh kode SQL.
Klik
Run dan tunggu hingga kueri selesai dijalankan.
Ikuti petunjuk dalam artikel Mengimpor peristiwa pengguna dari BigQuery untuk mengimpor peristiwa penayangan halaman beranda dari tabel target. Selama pemilihan skema, jika Anda mengimpor menggunakan konsol, pilih Retail User Events Schema; jika Anda mengimpor menggunakan
userEvents.import
, tentukanuser_event
untuk nilaidataSchema
.Hapus tabel dan set data yang telah Anda buat di langkah 1 dan 2.
Mengimpor peristiwa pengguna Google Analytics 4 dengan BigQuery
Anda dapat mengimpor peristiwa pengguna Google Analytics 4 jika telah mengintegrasikan Google Analytics 4 dengan BigQuery dan menggunakan E-commerce Google Analytics.
Prosedur berikut mengasumsikan bahwa Anda sudah memahami penggunaan BigQuery dan Google Analytics 4.
Sebelum memulai
Sebelum Anda memulai langkah berikutnya, pastikan:
- Anda menggunakan E-commerce Google Analytics.
- Anda memiliki BigQuery yang ditautkan ke Google Analytics 4.
Periksa sumber data Anda
Untuk memastikan data peristiwa pengguna Anda siap untuk diimpor, ikuti langkah-langkah berikut.
Untuk tabel kolom Google Analytics 4 yang digunakan oleh Vertex AI Search untuk retail dan Vertex AI Search untuk kolom retail yang dipetakan, lihat kolom peristiwa pengguna Google Analytics 4.
Untuk semua parameter peristiwa Google Analytics, lihat dokumentasi referensi Peristiwa Google Analytics.
Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar dalam tabel BigQuery yang dapat Anda akses.
- Set data harus diberi nama
analytics_PROPERTY_ID
. - Tabel harus diberi nama
events_YYYYMMDD
.
Untuk mendapatkan informasi tentang nama dan format tabel, lihat dokumentasi Google Analytics.
- Set data harus diberi nama
Di Konsol Google Cloud BigQuery, pilih set data dari panel Explorer dan temukan tabel peristiwa pengguna yang ingin Anda impor.
Pastikan bahwa:
Kolom
event_params.key
memiliki kuncicurrency
dan nilai string terkaitnya adalah kode mata uang yang valid.Jika Anda berencana untuk mengimpor peristiwa
search
, pastikan kolomevent.event_params.key
memiliki kuncisearch_term
dan nilai yang terkait.Pengimporan peristiwa
search
didukung, tetapi peristiwasearch
tidak dipetakan dari Google Analytics 4 dengan cara yang sama seperti jenis peristiwa lainnya, karena Google Analytics 4 tidak mendukung secara native jenis peristiwasearch
Vertex AI Search untuk retail. Selama impor, peristiwasearch
dibuat dari Google Analytics 4 dengan menggabungkan informasi dari parameterview_item_list
dansearch_term
.Untuk mendapatkan informasi tentang
search
di Google Analytics 4, lihatsearch
dalam dokumentasi Google Analytics.
Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Google Analytics 4.
Untuk memastikan bahwa produk di tabel pengguna Google Analytics 4 juga ada dalam katalog yang Anda upload, salin ID produk dari kolom
event.items.item_id
dalam pratinjau tabel BigQuery dan gunakan metodeproduct.get
untuk memeriksa apakah ID produk tersebut ada dalam katalog yang Anda upload.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Menyiapkan akses BigQuery
Ikuti petunjuk dalam artikel Menyiapkan akses ke set data BigQuery agar akun layanan retail Vertex AI Search memiliki peran BigQuery Data Owner untuk set data BigQuery Anda.
Mengimpor peristiwa Google Analytics 4
Anda dapat mengimpor peristiwa Google Analytics 4 menggunakan Search for Retail console atau metode userEvents.import
.
Mengimpor peristiwa Google Analytics 4 menggunakan konsol
-
Buka halaman Data> di konsol Search for Retail.
Buka halaman Data - Klik Import untuk membuka panel Import Data.
- Pilih Peristiwa pengguna.
- Pilih BigQuery sebagai sumber data.
-
Pilih skema data.
- Google Analytics 4: Gunakan untuk peristiwa Google Analytics 4.
- Google Analytics 360: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakan Skema Peristiwa Pengguna Retail).
- Skema Peristiwa Pengguna Retail: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
- Masukkan tabel BigQuery tempat data Anda berada.
- Opsional: Masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Klik Import.
Mengimpor peristiwa Google Analytics 4 menggunakan API
Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import
. Lihat
referensi API userEvents.import
.
Untuk dataSchema
, gunakan nilai user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Mengimpor peristiwa pengguna secara inline
Anda dapat mengimpor peristiwa pengguna secara inline dengan menyertakan data untuk peristiwa dalam
panggilan ke metode userEvents.import
.
Cara termudah untuk melakukannya adalah dengan memasukkan data peristiwa pengguna ke dalam file JSON dan memberikan file tersebut ke cURL.
Untuk mengetahui format jenis peristiwa pengguna, lihat artikel Tentang peristiwa pengguna.
curl
Buat file JSON:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Panggil metode POST:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Data katalog historis
Anda juga dapat mengimpor data katalog historis yang muncul di peristiwa pengguna historis. Data katalog historis ini dapat bermanfaat karena informasi produk sebelumnya dapat digunakan untuk memperkaya peristiwa pengguna, yang dapat meningkatkan akurasi model.
Untuk mengetahui detail selengkapnya, lihat Mengimpor data katalog historis.
Lihat peristiwa yang diimpor
Lihat metrik integrasi peristiwa di tab Peristiwa di halaman Data Search for Retail Console. Halaman ini menampilkan semua acara yang ditulis atau diimpor pada tahun lalu. Metrik dapat memerlukan waktu hingga satu jam untuk muncul di konsol setelah penyerapan data berhasil.