Mengimpor peristiwa pengguna historis

Halaman ini menjelaskan cara mengimpor data peristiwa pengguna dari peristiwa sebelumnya secara massal. Model Vertex AI Search untuk retail memerlukan data peristiwa pengguna untuk pelatihan.

Setelah Anda menyiapkan perekaman peristiwa real-time, perlu waktu yang cukup lama untuk merekam data peristiwa pengguna yang memadai guna melatih model Anda. Anda dapat mempercepat pelatihan model awal dengan mengimpor data peristiwa pengguna dari peristiwa sebelumnya secara massal. Sebelum melakukannya, tinjau praktik terbaik untuk merekam peristiwa pengguna dan bagian Sebelum memulai di halaman ini.

Prosedur impor di halaman ini berlaku untuk rekomendasi dan penelusuran. Setelah Anda mengimpor data, kedua layanan tersebut dapat menggunakan peristiwa tersebut, sehingga Anda tidak perlu mengimpor data yang sama dua kali jika menggunakan kedua layanan tersebut.

Anda dapat:

Tutorial mengimpor peristiwa dari Cloud Storage

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari Cloud Storage.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Tutorial mengimpor peristiwa dari BigQuery

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari BigQuery.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Tutorial inline mengimpor peristiwa

Tutorial ini menunjukkan cara mengimpor data peristiwa pengguna secara inline.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Sebelum memulai

Untuk menghindari error impor dan memastikan bahwa ada data yang memadai untuk menghasilkan hasil yang baik, tinjau informasi berikut sebelum mengimpor peristiwa pengguna Anda.

Pertimbangan impor peristiwa

Bagian ini menjelaskan metode yang dapat digunakan untuk mengimpor peristiwa pengguna historis secara massal, kapan Anda dapat menggunakan setiap metode, dan beberapa keterbatasannya.

Cloud Storage Deskripsi Mengimpor data dalam format JSON dari file yang dimuat di bucket Cloud Storage. Setiap file harus berukuran 2 GB atau lebih kecil, dan maksimal 100 file sekaligus dapat diimpor. Impor dapat dilakukan menggunakan konsol Google Cloud atau cURL. Menggunakan format data JSON Product, yang memungkinkan atribut kustom.
Kapan digunakan Jika Anda memerlukan volume data yang lebih tinggi untuk dimuat dalam satu langkah.
Batasan Jika data Anda ada di Google Analytics atau Merchant Center, data tersebut hanya dapat diekspor ke BigQuery dan memerlukan langkah tambahan untuk mengimpornya ke Cloud Storage.
BigQuery Deskripsi Mengimpor data dari tabel BigQuery yang dimuat sebelumnya yang menggunakan Vertex AI Search untuk skema retail. Dapat dilakukan menggunakan Konsol Google Cloud atau cURL.
Kapan digunakan Jika Anda juga menggunakan analisis atau memproses data peristiwa sebelum mengimpornya.
Batasan Memerlukan langkah tambahan untuk membuat tabel BigQuery yang dipetakan ke skema Vertex AI Search untuk retail. Jika Anda memiliki volume peristiwa pengguna yang tinggi, pertimbangkan juga bahwa BigQuery adalah resource dengan biaya yang lebih tinggi daripada Cloud Storage.
BigQuery dengan Analytics 360 Deskripsi Mengimpor data yang sudah ada dari Analytics 360 ke Vertex AI Search untuk retail.
Kapan digunakan Jika Anda memiliki Analytics 360 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan.
Batasan Hanya sebagian atribut yang tersedia, sehingga beberapa fitur Vertex AI Search untuk retail lanjutan tidak dapat digunakan. Pelacakan tayangan di Google Analytics diperlukan jika Anda berencana menggunakan penelusuran.
BigQuery dengan Google Analytics 4 Deskripsi Mengimpor data yang sudah ada dari Google Analytics 4 ke Vertex AI Search untuk retail.
Kapan digunakan Jika Anda memiliki Google Analytics 4 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan.
Batasan Hanya sebagian atribut yang tersedia, sehingga beberapa fitur Vertex AI Search untuk retail lanjutan tidak dapat digunakan. Jika berencana menggunakan penelusuran, Anda perlu menyiapkan key-value pair parameter peristiwa untuk pelacakan; kunci yang direkomendasikan adalah search_query.
Impor inline Deskripsi Impor menggunakan panggilan ke metode userEvents.import.
Kapan digunakan Jika Anda ingin meningkatkan privasi dengan membuat semua autentikasi terjadi di backend dan dapat melakukan impor backend.
Batasan Biasanya lebih rumit daripada impor web.

Mengimpor peristiwa pengguna dari Cloud Storage

Mengimpor peristiwa pengguna dari Cloud Storage menggunakan Konsol Google Cloud atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Penelusuran untuk Retail.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih Google Cloud Storage sebagai sumber data.
  5. Pilih Skema Peristiwa Pengguna Retail sebagai skema.
  6. Masukkan lokasi Cloud Storage data Anda.
  7. Klik Import.

cURL

Gunakan metode userEvents.import untuk mengimpor peristiwa pengguna.

  1. Buat file data untuk parameter input untuk impor. Gunakan objek GcsSource untuk mengarah ke bucket Cloud Storage Anda.

    Anda dapat memberikan beberapa file, atau hanya satu.

    • INPUT_FILE: Satu atau beberapa file di Cloud Storage yang berisi data peristiwa pengguna Anda. Lihat Tentang peristiwa pengguna untuk mengetahui contoh format setiap jenis peristiwa pengguna. Pastikan setiap peristiwa pengguna berada di satu baris, tanpa jeda baris.
    • ERROR_DIRECTORY: Direktori Cloud Storage untuk informasi error tentang impor.

    Kolom file input harus dalam format gs://<bucket>/<path-to-file>/. Direktori error harus dalam format gs://<bucket>/<folder>/. Jika direktori error tidak ada, Vertex AI Search untuk retail akan membuatnya. Bucket harus sudah ada.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Impor informasi katalog dengan membuat permintaan POST ke metode REST userEvents:import, yang memberikan nama file data.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Mengimpor peristiwa pengguna dari BigQuery

Impor peristiwa pengguna dari BigQuery menggunakan konsol Google Cloud atau metode userEvents.import.

Menyiapkan akses BigQuery

Ikuti petunjuk di Menyiapkan akses ke set data BigQuery untuk memberi akun layanan Vertex AI Search for retail peran BigQuery Data Owner untuk set data BigQuery Anda.

Mengimpor peristiwa pengguna dari BigQuery

Anda dapat mengimpor peristiwa 360 menggunakan konsol Penelusuran untuk Retail atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Penelusuran untuk Retail.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

curl

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import. Lihat referensi API userEvents.import.

Nilai yang Anda tentukan untuk dataSchema bergantung pada apa yang Anda impor:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Mengimpor peristiwa pengguna Analytics 360 dengan BigQuery

Anda dapat mengimpor peristiwa pengguna Analytics 360 jika telah mengintegrasikan Analytics 360 dengan BigQuery dan menggunakan Enhanced E-commerce.

Prosedur berikut mengasumsikan bahwa Anda sudah memahami cara menggunakan BigQuery dan Analytics 360.

Sebelum memulai

Sebelum memulai langkah berikutnya, pastikan:

Memeriksa sumber data Anda

  1. Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar di tabel BigQuery yang dapat Anda akses.

    Pastikan tabel bernama project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Lihat dokumentasi Google Analytics untuk mengetahui informasi selengkapnya tentang format dan penamaan tabel.

  2. Di konsol Google Cloud BigQuery, pilih tabel dari panel Explorer untuk melihat pratinjau tabel.

    Pastikan bahwa:

    1. Kolom clientId memiliki nilai yang valid—misalnya, 123456789.123456789.

      Perhatikan bahwa nilai ini berbeda dengan nilai cookie _ga lengkap (yang memiliki format seperti GA1.3.123456789.123456789).

    2. Kolom hits.transaction.currencyCode memiliki kode mata uang yang valid.

    3. Jika Anda berencana mengimpor peristiwa search, pastikan kolom hits.page.searchKeyword atau hits.customVariable.searchQuery ada.

      Meskipun Vertex AI Search untuk retail memerlukan searchQuery dan productDetails untuk menampilkan daftar hasil penelusuran, Analytics 360 tidak menyimpan kueri penelusuran dan tayangan produk dalam satu peristiwa. Agar Vertex AI Search for retail berfungsi, Anda harus membuat tag di lapisan data atau Piksel JavaScript agar dapat mengimpor kedua jenis peristiwa pengguna dari sumber Google Analytics:

      • searchQuery, yang dibaca dari parameter search_term, atau dari peristiwa view_search_results, berasal dari hits.page.searchKeyword, atau dari hits.customVariables.customVarValue jika hits.customVariables.customVarName adalah searchQuery.
      • productDetails, tayangan produk yang dibaca dari parameter items peristiwa view_item_list, diambil dari hits.product jika hits.product.isImpressions adalah TRUE.
  3. Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Analytics 360.

    Dengan menggunakan ID produk dari kolom hits.product.productSKU di pratinjau tabel BigQuery, gunakan metode product.get untuk memastikan produk yang sama ada dalam katalog yang Anda upload.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Mengimpor peristiwa Analytics 360

Anda dapat mengimpor peristiwa Google Analytics 360 menggunakan konsol Penelusuran untuk Retail atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Penelusuran untuk Retail.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

REST

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import.

Untuk dataSchema, gunakan nilai user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Mengimpor kunjungan halaman beranda Analytics 360 dengan BigQuery

Di Analytics 360, peristiwa kunjungan halaman beranda tidak dibedakan dari peristiwa kunjungan halaman lainnya. Artinya, peristiwa kunjungan halaman beranda tidak diimpor sebagai peristiwa dengan jenis peristiwa lainnya (seperti kunjungan halaman detail) di Impor peristiwa Analytics 360.

Prosedur berikut menjelaskan cara mengekstrak peristiwa kunjungan halaman beranda dari data Analytics 360 dan mengimpornya ke Vertex AI Search untuk retail. Singkatnya, hal ini dilakukan dengan mengekstrak tampilan halaman rumah pengguna (diidentifikasi oleh jalur halaman beranda) ke dalam tabel BigQuery baru, lalu mengimpor data dari tabel baru tersebut ke Vertex AI Search untuk retail.

Untuk mengimpor peristiwa kunjungan halaman beranda dari Analytics 360 ke Vertex AI Search untuk retail:

  1. Buat set data BigQuery atau pastikan Anda memiliki set data BigQuery yang dapat digunakan untuk menambahkan tabel.

    Set data ini dapat berada di project Vertex AI Search untuk retail atau di project tempat Anda memiliki data Analytics 360. Set data ini adalah set data target tempat Anda akan menyalin peristiwa kunjungan halaman beranda Analytics 360.

  2. Buat tabel BigQuery di set data sebagai berikut:

    1. Ganti variabel dalam kode SQL berikut sebagai berikut.

      • target_project_id: Project tempat set data dari langkah 1 berada.

      • target_dataset: Nama set data dari langkah 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Salin contoh kode SQL.

    3. Buka halaman BigQuery di konsol Google Cloud.

      Buka halaman BigQuery

    4. Jika belum dipilih, pilih project target.

    5. Di panel Editor, tempel contoh kode SQL.

    6. Klik Run dan tunggu hingga kueri selesai dijalankan.

    Menjalankan kode ini akan membuat tabel dalam format target_project_id:target_dataset.ga_homepage_YYYYMMDD—misalnya, my-project:view_events.ga_homepage_20230115.

  3. Salin peristiwa kunjungan halaman beranda Analytics 360 dari tabel data Analytics 360 ke dalam tabel yang dibuat di langkah 2 sebelumnya.

    1. Ganti variabel dalam kode contoh SQL berikut sebagai berikut:

      • source_project_id: ID project yang berisi data Analytics 360 dalam tabel BigQuery.

      • source_dataset: Set data dalam project sumber yang berisi data Analytics 360 dalam tabel BigQuery.

      • source_table: Tabel dalam project sumber yang berisi data Analytics 360.

      • target_project_id: Project ID target yang sama seperti pada langkah 2 sebelumnya.

      • target_dataset: Set data target yang sama seperti pada langkah 2 sebelumnya.

      • path: Ini adalah jalur ke halaman beranda. Biasanya ini adalah /—misalnya, jika halaman beranda adalah example.com/. Namun, jika halaman beranda seperti examplepetstore.com/index.html, jalurnya adalah /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Salin contoh kode SQL.

    3. Buka halaman BigQuery di konsol Google Cloud.

      Buka halaman BigQuery

    4. Jika belum dipilih, pilih project target.

    5. Di panel Editor, tempel contoh kode SQL.

    6. Klik Run dan tunggu hingga kueri selesai dijalankan.

  4. Ikuti petunjuk di Mengimpor peristiwa pengguna dari BigQuery untuk mengimpor peristiwa tampilan halaman beranda dari tabel target. Selama pemilihan skema, jika Anda mengimpor menggunakan konsol, pilih Retail User Events Schema; jika Anda mengimpor menggunakan userEvents.import, tentukan user_event untuk nilai dataSchema.

  5. Hapus tabel dan set data yang Anda buat di langkah 1 dan 2.

Mengimpor peristiwa pengguna Google Analytics 4 dengan BigQuery

Anda dapat mengimpor peristiwa pengguna Google Analytics 4 jika telah mengintegrasikan Google Analytics 4 dengan BigQuery dan menggunakan Google Analytics E-commerce.

Prosedur berikut mengasumsikan bahwa Anda sudah memahami cara menggunakan BigQuery dan Google Analytics 4.

Sebelum memulai

Sebelum memulai langkah berikutnya, pastikan:

Memeriksa sumber data Anda

Untuk memastikan data peristiwa pengguna Anda siap diimpor, ikuti langkah-langkah berikut.

Untuk tabel kolom Google Analytics 4 yang digunakan Vertex AI Search untuk retail dan kolom Vertex AI Search untuk retail yang dipetakan, lihat Kolom peristiwa pengguna Google Analytics 4.

Untuk semua parameter peristiwa Google Analytics, lihat dokumentasi referensi Peristiwa Google Analytics.

  1. Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar di tabel BigQuery yang dapat Anda akses.

    • Set data harus diberi nama analytics_PROPERTY_ID.
    • Tabel harus diberi nama events_YYYYMMDD.

    Untuk informasi tentang nama dan format tabel, lihat dokumentasi Google Analytics.

  2. Di konsol Google Cloud BigQuery, pilih set data dari panel Explorer dan temukan tabel peristiwa pengguna yang ingin Anda impor.

    Pastikan bahwa:

    1. Kolom event_params.key memiliki kunci currency dan nilai string terkaitnya adalah kode mata uang yang valid.

    2. Jika Anda berencana mengimpor peristiwa search, pastikan kolom event.event_params.key memiliki kunci search_term dan nilai terkait.

      Meskipun Vertex AI Search untuk retail memerlukan searchQuery dan productDetails untuk menampilkan daftar hasil penelusuran, Google Analytics 4 tidak menyimpan kueri penelusuran dan tayangan produk dalam satu peristiwa. Agar Vertex AI Search untuk retail berfungsi, Anda harus membuat tag di lapisan data atau dari Piksel JavaScript agar dapat mengimpor kedua jenis peristiwa pengguna dari sumber Google Analytics:

      • searchQuery, yang dibaca dari parameter search_term, atau dari peristiwa view_search_results.
      • productDetails, tayangan produk yang dibaca dari parameter items peristiwa view_item_list.

      Untuk informasi tentang search di Google Analytics 4, lihat search dalam dokumentasi Google Analytics.

  3. Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Google Analytics 4.

    Untuk memastikan bahwa produk di tabel pengguna Google Analytics 4 juga ada di katalog yang Anda upload, salin ID produk dari kolom event.items.item_id di pratinjau tabel BigQuery dan gunakan metode product.get untuk memeriksa apakah ID produk tersebut ada di katalog yang Anda upload.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Menyiapkan akses BigQuery

Ikuti petunjuk di Menyiapkan akses ke set data BigQuery untuk memberi akun layanan Vertex AI Search for retail peran BigQuery Data Owner untuk set data BigQuery Anda.

Mengimpor peristiwa Google Analytics 4

Anda dapat mengimpor peristiwa Google Analytics 4 menggunakan konsol Penelusuran untuk Retail atau metode userEvents.import.

Mengimpor peristiwa Google Analytics 4 menggunakan konsol

  1. Buka halaman Data> di konsol Penelusuran untuk Retail.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

Mengimpor peristiwa Google Analytics 4 menggunakan API

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import. Lihat referensi API userEvents.import.

Untuk dataSchema, gunakan nilai user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Mengimpor peristiwa pengguna secara inline

Anda dapat mengimpor peristiwa pengguna secara inline dengan menyertakan data untuk peristiwa dalam panggilan ke metode userEvents.import.

Cara termudah untuk melakukannya adalah dengan memasukkan data peristiwa pengguna ke dalam file JSON dan memberikan file tersebut ke cURL.

Untuk format jenis peristiwa pengguna, lihat Tentang peristiwa pengguna.

curl

  1. Buat file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Panggil metode POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Data katalog historis

Anda juga dapat mengimpor data katalog historis yang muncul di histori peristiwa pengguna. Data katalog historis ini dapat membantu karena informasi produk sebelumnya dapat digunakan untuk memperkaya peristiwa pengguna, yang dapat meningkatkan akurasi model.

Untuk mengetahui detail selengkapnya, lihat Mengimpor data katalog historis.

Melihat peristiwa yang diimpor

Lihat metrik integrasi peristiwa di tab Peristiwa di halaman Data konsol Penelusuran untuk Retail. Halaman ini menampilkan semua peristiwa yang ditulis atau diimpor pada tahun lalu. Metrik dapat memerlukan waktu hingga 24 jam untuk muncul setelah penyerapan data berhasil.

Buka halaman Data

Langkah selanjutnya