Halaman ini menjelaskan cara mengimpor data peristiwa pengguna dari peristiwa sebelumnya secara massal. Model Vertex AI Search untuk retail memerlukan data peristiwa pengguna untuk pelatihan.
Setelah Anda menyiapkan perekaman peristiwa real-time, perlu waktu yang cukup lama untuk merekam data peristiwa pengguna yang memadai guna melatih model Anda. Anda dapat mempercepat pelatihan model awal dengan mengimpor data peristiwa pengguna dari peristiwa sebelumnya secara massal. Sebelum melakukannya, tinjau praktik terbaik untuk merekam peristiwa pengguna dan bagian Sebelum memulai di halaman ini.
Prosedur impor di halaman ini berlaku untuk rekomendasi dan penelusuran. Setelah Anda mengimpor data, kedua layanan tersebut dapat menggunakan peristiwa tersebut, sehingga Anda tidak perlu mengimpor data yang sama dua kali jika menggunakan kedua layanan tersebut.
Anda dapat:
- Mengimpor peristiwa dari Cloud Storage.
- Impor peristiwa dari BigQuery.
- Impor peristiwa Google Analytics 360 dari BigQuery.
- Impor peristiwa Google Analytics 4 dari BigQuery.
- Impor peristiwa secara inline dengan metode
userEvents.import
.
Tutorial mengimpor peristiwa dari Cloud Storage
Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari Cloud Storage.
Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:
Tutorial mengimpor peristiwa dari BigQuery
Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari BigQuery.
Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:
Tutorial inline mengimpor peristiwa
Tutorial ini menunjukkan cara mengimpor data peristiwa pengguna secara inline.
Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:
Sebelum memulai
Untuk menghindari error impor dan memastikan bahwa ada data yang memadai untuk menghasilkan hasil yang baik, tinjau informasi berikut sebelum mengimpor peristiwa pengguna Anda.
Format peristiwa pengguna berbeda-beda bergantung pada jenis peristiwa pengguna. Lihat Jenis peristiwa pengguna dan skema contoh untuk mengetahui format yang harus ditentukan saat membuat tabel untuk setiap jenis peristiwa.
Rekomendasi dan penelusuran memiliki persyaratan data minimum yang berbeda. Pastikan peristiwa pengguna Anda memenuhi persyaratan layanan yang akan Anda gunakan:
Lihat Praktik terbaik dan persyaratan peristiwa pengguna untuk persyaratan penelusuran dan rekomendasi.
Jika Anda menggunakan model rekomendasi, lihat juga Persyaratan data peristiwa pengguna, yang mencantumkan persyaratan tambahan bergantung pada jenis model rekomendasi dan tujuan pengoptimalan yang ingin Anda gunakan.
Pertimbangan impor peristiwa
Bagian ini menjelaskan metode yang dapat digunakan untuk mengimpor peristiwa pengguna historis secara massal, kapan Anda dapat menggunakan setiap metode, dan beberapa keterbatasannya.
Cloud Storage | Deskripsi |
Mengimpor data dalam format JSON dari file yang dimuat di bucket Cloud Storage. Setiap file harus berukuran 2 GB atau lebih kecil, dan maksimal 100 file sekaligus dapat diimpor. Impor dapat dilakukan menggunakan konsol Google Cloud atau cURL. Menggunakan format data JSON Product , yang memungkinkan
atribut kustom.
|
---|---|---|
Kapan digunakan | Jika Anda memerlukan volume data yang lebih tinggi untuk dimuat dalam satu langkah. | |
Batasan | Jika data Anda ada di Google Analytics atau Merchant Center, data tersebut hanya dapat diekspor ke BigQuery dan memerlukan langkah tambahan untuk mengimpornya ke Cloud Storage. | |
BigQuery | Deskripsi | Mengimpor data dari tabel BigQuery yang dimuat sebelumnya yang menggunakan Vertex AI Search untuk skema retail. Dapat dilakukan menggunakan Konsol Google Cloud atau cURL. |
Kapan digunakan | Jika Anda juga menggunakan analisis atau memproses data peristiwa sebelum mengimpornya. | |
Batasan | Memerlukan langkah tambahan untuk membuat tabel BigQuery yang dipetakan ke skema Vertex AI Search untuk retail. Jika Anda memiliki volume peristiwa pengguna yang tinggi, pertimbangkan juga bahwa BigQuery adalah resource dengan biaya yang lebih tinggi daripada Cloud Storage. | |
BigQuery dengan Analytics 360 | Deskripsi | Mengimpor data yang sudah ada dari Analytics 360 ke Vertex AI Search untuk retail. |
Kapan digunakan | Jika Anda memiliki Analytics 360 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan. | |
Batasan | Hanya sebagian atribut yang tersedia, sehingga beberapa fitur Vertex AI Search untuk retail lanjutan tidak dapat digunakan. Pelacakan tayangan di Google Analytics diperlukan jika Anda berencana menggunakan penelusuran. | |
BigQuery dengan Google Analytics 4 | Deskripsi | Mengimpor data yang sudah ada dari Google Analytics 4 ke Vertex AI Search untuk retail. |
Kapan digunakan | Jika Anda memiliki Google Analytics 4 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan. | |
Batasan |
Hanya sebagian atribut yang tersedia, sehingga beberapa fitur Vertex AI Search untuk retail lanjutan tidak dapat digunakan.
Jika berencana menggunakan penelusuran, Anda perlu menyiapkan key-value pair parameter peristiwa untuk pelacakan; kunci yang direkomendasikan adalah search_query .
|
|
Impor inline | Deskripsi |
Impor menggunakan panggilan ke metode userEvents.import .
|
Kapan digunakan | Jika Anda ingin meningkatkan privasi dengan membuat semua autentikasi terjadi di backend dan dapat melakukan impor backend. | |
Batasan | Biasanya lebih rumit daripada impor web. |
Mengimpor peristiwa pengguna dari Cloud Storage
Mengimpor peristiwa pengguna dari Cloud Storage menggunakan Konsol Google Cloud atau metode userEvents.import
.
Konsol
-
Buka halaman Data> di konsol Penelusuran untuk Retail.
Buka halaman Data - Klik Impor untuk membuka panel Impor Data.
- Pilih Peristiwa pengguna.
- Pilih Google Cloud Storage sebagai sumber data.
- Pilih Skema Peristiwa Pengguna Retail sebagai skema.
- Masukkan lokasi Cloud Storage data Anda.
- Klik Import.
cURL
Gunakan metode userEvents.import
untuk mengimpor peristiwa pengguna.
Buat file data untuk parameter input untuk impor. Gunakan objek
GcsSource
untuk mengarah ke bucket Cloud Storage Anda.Anda dapat memberikan beberapa file, atau hanya satu.
- INPUT_FILE: Satu atau beberapa file di Cloud Storage yang berisi data peristiwa pengguna Anda. Lihat Tentang peristiwa pengguna untuk mengetahui contoh format setiap jenis peristiwa pengguna. Pastikan setiap peristiwa pengguna berada di satu baris, tanpa jeda baris.
- ERROR_DIRECTORY: Direktori Cloud Storage untuk informasi error tentang impor.
Kolom file input harus dalam format
gs://<bucket>/<path-to-file>/
. Direktori error harus dalam formatgs://<bucket>/<folder>/
. Jika direktori error tidak ada, Vertex AI Search untuk retail akan membuatnya. Bucket harus sudah ada.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Impor informasi katalog dengan membuat permintaan
POST
ke metode RESTuserEvents:import
, yang memberikan nama file data.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Mengimpor peristiwa pengguna dari BigQuery
Impor peristiwa pengguna dari BigQuery menggunakan konsol Google Cloud atau metode userEvents.import
.
Menyiapkan akses BigQuery
Ikuti petunjuk di Menyiapkan akses ke set data BigQuery untuk memberi akun layanan Vertex AI Search for retail peran BigQuery Data Owner untuk set data BigQuery Anda.
Mengimpor peristiwa pengguna dari BigQuery
Anda dapat mengimpor peristiwa 360 menggunakan
konsol Penelusuran untuk Retail atau metode userEvents.import
.
Konsol
-
Buka halaman Data> di konsol Penelusuran untuk Retail.
Buka halaman Data - Klik Impor untuk membuka panel Impor Data.
- Pilih Peristiwa pengguna.
- Pilih BigQuery sebagai sumber data.
-
Pilih skema data.
- Google Analytics 4: Gunakan untuk peristiwa Google Analytics 4.
- Google Analytics 360: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakan Skema Peristiwa Pengguna Retail).
- Skema Peristiwa Pengguna Retail: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
- Masukkan tabel BigQuery tempat data Anda berada.
- Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Klik Import.
curl
Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import
. Lihat
referensi API userEvents.import
.
Nilai yang Anda tentukan untuk dataSchema
bergantung pada apa yang Anda impor:
user_event_ga4
: Gunakan untuk peristiwa Google Analytics 4.user_event_ga360
: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda hanya mengimpor kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakanuser_event
).user_event
: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya tampilan halaman beranda dari Google Analytics 360.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Mengimpor peristiwa pengguna Analytics 360 dengan BigQuery
Anda dapat mengimpor peristiwa pengguna Analytics 360 jika telah mengintegrasikan Analytics 360 dengan BigQuery dan menggunakan Enhanced E-commerce.
Prosedur berikut mengasumsikan bahwa Anda sudah memahami cara menggunakan BigQuery dan Analytics 360.
Sebelum memulai
Sebelum memulai langkah berikutnya, pastikan:
- Anda menggunakan Enhanced E-commerce.
- Anda telah menautkan BigQuery ke Analytics 360.
Memeriksa sumber data Anda
Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar di tabel BigQuery yang dapat Anda akses.
Pastikan tabel bernama
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
.Lihat dokumentasi Google Analytics untuk mengetahui informasi selengkapnya tentang format dan penamaan tabel.
Di konsol Google Cloud BigQuery, pilih tabel dari panel Explorer untuk melihat pratinjau tabel.
Pastikan bahwa:
Kolom
clientId
memiliki nilai yang valid—misalnya,123456789.123456789
.Perhatikan bahwa nilai ini berbeda dengan nilai cookie _ga lengkap (yang memiliki format seperti
GA1.3.123456789.123456789
).Kolom
hits.transaction.currencyCode
memiliki kode mata uang yang valid.Jika Anda berencana mengimpor peristiwa
search
, pastikan kolomhits.page.searchKeyword
atauhits.customVariable.searchQuery
ada.Meskipun Vertex AI Search untuk retail memerlukan
searchQuery
danproductDetails
untuk menampilkan daftar hasil penelusuran, Analytics 360 tidak menyimpan kueri penelusuran dan tayangan produk dalam satu peristiwa. Agar Vertex AI Search for retail berfungsi, Anda harus membuat tag di lapisan data atau Piksel JavaScript agar dapat mengimpor kedua jenis peristiwa pengguna dari sumber Google Analytics:searchQuery
, yang dibaca dari parametersearch_term
, atau dari peristiwaview_search_results
, berasal darihits.page.searchKeyword
, atau darihits.customVariables.customVarValue
jikahits.customVariables.customVarName
adalahsearchQuery
.productDetails
, tayangan produk yang dibaca dari parameteritems
peristiwaview_item_list
, diambil darihits.product
jikahits.product.isImpressions
adalahTRUE
.
Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Analytics 360.
Dengan menggunakan ID produk dari kolom
hits.product.productSKU
di pratinjau tabel BigQuery, gunakan metodeproduct.get
untuk memastikan produk yang sama ada dalam katalog yang Anda upload.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Mengimpor peristiwa Analytics 360
Anda dapat mengimpor peristiwa Google Analytics 360 menggunakan konsol Penelusuran untuk Retail atau metode userEvents.import
.
Konsol
-
Buka halaman Data> di konsol Penelusuran untuk Retail.
Buka halaman Data - Klik Impor untuk membuka panel Impor Data.
- Pilih Peristiwa pengguna.
- Pilih BigQuery sebagai sumber data.
-
Pilih skema data.
- Google Analytics 4: Gunakan untuk peristiwa Google Analytics 4.
- Google Analytics 360: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakan Skema Peristiwa Pengguna Retail).
- Skema Peristiwa Pengguna Retail: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
- Masukkan tabel BigQuery tempat data Anda berada.
- Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Klik Import.
REST
Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import
.
Untuk dataSchema
, gunakan nilai user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Mengimpor kunjungan halaman beranda Analytics 360 dengan BigQuery
Di Analytics 360, peristiwa kunjungan halaman beranda tidak dibedakan dari peristiwa kunjungan halaman lainnya. Artinya, peristiwa kunjungan halaman beranda tidak diimpor sebagai peristiwa dengan jenis peristiwa lainnya (seperti kunjungan halaman detail) di Impor peristiwa Analytics 360.
Prosedur berikut menjelaskan cara mengekstrak peristiwa kunjungan halaman beranda dari data Analytics 360 dan mengimpornya ke Vertex AI Search untuk retail. Singkatnya, hal ini dilakukan dengan mengekstrak tampilan halaman rumah pengguna (diidentifikasi oleh jalur halaman beranda) ke dalam tabel BigQuery baru, lalu mengimpor data dari tabel baru tersebut ke Vertex AI Search untuk retail.
Untuk mengimpor peristiwa kunjungan halaman beranda dari Analytics 360 ke Vertex AI Search untuk retail:
Buat set data BigQuery atau pastikan Anda memiliki set data BigQuery yang dapat digunakan untuk menambahkan tabel.
Set data ini dapat berada di project Vertex AI Search untuk retail atau di project tempat Anda memiliki data Analytics 360. Set data ini adalah set data target tempat Anda akan menyalin peristiwa kunjungan halaman beranda Analytics 360.
Buat tabel BigQuery di set data sebagai berikut:
Ganti variabel dalam kode SQL berikut sebagai berikut.
target_project_id: Project tempat set data dari langkah 1 berada.
target_dataset: Nama set data dari langkah 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Salin contoh kode SQL.
Buka halaman BigQuery di konsol Google Cloud.
Jika belum dipilih, pilih project target.
Di panel Editor, tempel contoh kode SQL.
Klik
Run dan tunggu hingga kueri selesai dijalankan.
Menjalankan kode ini akan membuat tabel dalam format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
—misalnya,my-project:view_events.ga_homepage_20230115
.Salin peristiwa kunjungan halaman beranda Analytics 360 dari tabel data Analytics 360 ke dalam tabel yang dibuat di langkah 2 sebelumnya.
Ganti variabel dalam kode contoh SQL berikut sebagai berikut:
source_project_id: ID project yang berisi data Analytics 360 dalam tabel BigQuery.
source_dataset: Set data dalam project sumber yang berisi data Analytics 360 dalam tabel BigQuery.
source_table: Tabel dalam project sumber yang berisi data Analytics 360.
target_project_id: Project ID target yang sama seperti pada langkah 2 sebelumnya.
target_dataset: Set data target yang sama seperti pada langkah 2 sebelumnya.
path: Ini adalah jalur ke halaman beranda. Biasanya ini adalah
/
—misalnya, jika halaman beranda adalahexample.com/
. Namun, jika halaman beranda sepertiexamplepetstore.com/index.html
, jalurnya adalah/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Salin contoh kode SQL.
Buka halaman BigQuery di konsol Google Cloud.
Jika belum dipilih, pilih project target.
Di panel Editor, tempel contoh kode SQL.
Klik
Run dan tunggu hingga kueri selesai dijalankan.
Ikuti petunjuk di Mengimpor peristiwa pengguna dari BigQuery untuk mengimpor peristiwa tampilan halaman beranda dari tabel target. Selama pemilihan skema, jika Anda mengimpor menggunakan konsol, pilih Retail User Events Schema; jika Anda mengimpor menggunakan
userEvents.import
, tentukanuser_event
untuk nilaidataSchema
.Hapus tabel dan set data yang Anda buat di langkah 1 dan 2.
Mengimpor peristiwa pengguna Google Analytics 4 dengan BigQuery
Anda dapat mengimpor peristiwa pengguna Google Analytics 4 jika telah mengintegrasikan Google Analytics 4 dengan BigQuery dan menggunakan Google Analytics E-commerce.
Prosedur berikut mengasumsikan bahwa Anda sudah memahami cara menggunakan BigQuery dan Google Analytics 4.
Sebelum memulai
Sebelum memulai langkah berikutnya, pastikan:
- Anda menggunakan E-commerce Google Analytics.
- Anda telah menautkan BigQuery ke Google Analytics 4.
Memeriksa sumber data Anda
Untuk memastikan data peristiwa pengguna Anda siap diimpor, ikuti langkah-langkah berikut.
Untuk tabel kolom Google Analytics 4 yang digunakan Vertex AI Search untuk retail dan kolom Vertex AI Search untuk retail yang dipetakan, lihat Kolom peristiwa pengguna Google Analytics 4.
Untuk semua parameter peristiwa Google Analytics, lihat dokumentasi referensi Peristiwa Google Analytics.
Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar di tabel BigQuery yang dapat Anda akses.
- Set data harus diberi nama
analytics_PROPERTY_ID
. - Tabel harus diberi nama
events_YYYYMMDD
.
Untuk informasi tentang nama dan format tabel, lihat dokumentasi Google Analytics.
- Set data harus diberi nama
Di konsol Google Cloud BigQuery, pilih set data dari panel Explorer dan temukan tabel peristiwa pengguna yang ingin Anda impor.
Pastikan bahwa:
Kolom
event_params.key
memiliki kuncicurrency
dan nilai string terkaitnya adalah kode mata uang yang valid.Jika Anda berencana mengimpor peristiwa
search
, pastikan kolomevent.event_params.key
memiliki kuncisearch_term
dan nilai terkait.Meskipun Vertex AI Search untuk retail memerlukan
searchQuery
danproductDetails
untuk menampilkan daftar hasil penelusuran, Google Analytics 4 tidak menyimpan kueri penelusuran dan tayangan produk dalam satu peristiwa. Agar Vertex AI Search untuk retail berfungsi, Anda harus membuat tag di lapisan data atau dari Piksel JavaScript agar dapat mengimpor kedua jenis peristiwa pengguna dari sumber Google Analytics:searchQuery
, yang dibaca dari parametersearch_term
, atau dari peristiwaview_search_results
.productDetails
, tayangan produk yang dibaca dari parameteritems
peristiwaview_item_list
.
Untuk informasi tentang
search
di Google Analytics 4, lihatsearch
dalam dokumentasi Google Analytics.
Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Google Analytics 4.
Untuk memastikan bahwa produk di tabel pengguna Google Analytics 4 juga ada di katalog yang Anda upload, salin ID produk dari kolom
event.items.item_id
di pratinjau tabel BigQuery dan gunakan metodeproduct.get
untuk memeriksa apakah ID produk tersebut ada di katalog yang Anda upload.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Menyiapkan akses BigQuery
Ikuti petunjuk di Menyiapkan akses ke set data BigQuery untuk memberi akun layanan Vertex AI Search for retail peran BigQuery Data Owner untuk set data BigQuery Anda.
Mengimpor peristiwa Google Analytics 4
Anda dapat mengimpor peristiwa Google Analytics 4 menggunakan
konsol Penelusuran untuk Retail atau metode userEvents.import
.
Mengimpor peristiwa Google Analytics 4 menggunakan konsol
-
Buka halaman Data> di konsol Penelusuran untuk Retail.
Buka halaman Data - Klik Impor untuk membuka panel Impor Data.
- Pilih Peristiwa pengguna.
- Pilih BigQuery sebagai sumber data.
-
Pilih skema data.
- Google Analytics 4: Gunakan untuk peristiwa Google Analytics 4.
- Google Analytics 360: Gunakan untuk peristiwa Google Analytics 360, kecuali jika Anda mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360 (dalam hal ini, gunakan Skema Peristiwa Pengguna Retail).
- Skema Peristiwa Pengguna Retail: Gunakan untuk mengimpor peristiwa dari sumber selain Google Analytics dan untuk mengimpor peristiwa hanya kunjungan halaman beranda dari Google Analytics 360.
- Masukkan tabel BigQuery tempat data Anda berada.
- Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama. - Klik Import.
Mengimpor peristiwa Google Analytics 4 menggunakan API
Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import
. Lihat
referensi API userEvents.import
.
Untuk dataSchema
, gunakan nilai user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Mengimpor peristiwa pengguna secara inline
Anda dapat mengimpor peristiwa pengguna secara inline dengan menyertakan data untuk peristiwa dalam
panggilan ke metode userEvents.import
.
Cara termudah untuk melakukannya adalah dengan memasukkan data peristiwa pengguna ke dalam file JSON dan memberikan file tersebut ke cURL.
Untuk format jenis peristiwa pengguna, lihat Tentang peristiwa pengguna.
curl
Buat file JSON:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Panggil metode POST:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Data katalog historis
Anda juga dapat mengimpor data katalog historis yang muncul di histori peristiwa pengguna. Data katalog historis ini dapat membantu karena informasi produk sebelumnya dapat digunakan untuk memperkaya peristiwa pengguna, yang dapat meningkatkan akurasi model.
Untuk mengetahui detail selengkapnya, lihat Mengimpor data katalog historis.
Melihat peristiwa yang diimpor
Lihat metrik integrasi peristiwa di tab Peristiwa di halaman Data konsol Penelusuran untuk Retail. Halaman ini menampilkan semua peristiwa yang ditulis atau diimpor pada tahun lalu. Metrik dapat memerlukan waktu hingga 24 jam untuk muncul setelah penyerapan data berhasil.