Mengimpor peristiwa pengguna historis

Halaman ini menjelaskan cara mengimpor data peristiwa pengguna dari peristiwa terdahulu secara massal. Vertex AI Search untuk model retail memerlukan data peristiwa pengguna untuk pelatihan.

Setelah Anda menyiapkan perekaman peristiwa real-time, perlu waktu yang cukup lama untuk merekam data peristiwa pengguna yang memadai untuk melatih model Anda. Anda dapat mempercepat pelatihan model awal dengan mengimpor data peristiwa pengguna dari peristiwa terdahulu secara massal. Sebelum melakukannya, tinjau praktik terbaik untuk merekam peristiwa pengguna dan bagian Sebelum memulai di halaman ini.

Prosedur impor di halaman ini berlaku untuk rekomendasi dan penelusuran. Setelah Anda mengimpor data, kedua layanan dapat menggunakan peristiwa tersebut, sehingga Anda tidak perlu mengimpor data yang sama dua kali jika menggunakan kedua layanan.

Anda dapat:

Mengimpor peristiwa dari tutorial Cloud Storage

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari Cloud Storage.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Mengimpor peristiwa dari tutorial BigQuery

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari BigQuery.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Tutorial inline impor peristiwa

Tutorial ini menunjukkan cara mengimpor data peristiwa pengguna secara inline.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Sebelum memulai

Untuk menghindari error impor dan memastikan ada data yang cukup untuk memberikan hasil yang baik, tinjau informasi berikut sebelum mengimpor peristiwa pengguna Anda.

Pertimbangan impor peristiwa

Bagian ini menjelaskan metode yang dapat digunakan untuk mengimpor batch peristiwa pengguna historis, kapan Anda mungkin menggunakan setiap metode, dan beberapa batasannya.

Cloud Storage Deskripsi Mengimpor data dalam format JSON dari file yang dimuat di bucket Cloud Storage. Setiap file harus berukuran 2 GB atau lebih kecil, dan Anda dapat mengimpor maksimal 100 file sekaligus. Impor dapat dilakukan menggunakan Konsol Google Cloud atau cURL. Menggunakan format data JSON Product, yang memungkinkan atribut khusus.
Kapan digunakan Jika Anda menginginkan volume data yang lebih tinggi untuk dimuat dalam satu langkah.
Batasan Jika data Anda ada di Google Analytics atau Merchant Center, data tersebut hanya dapat diekspor ke BigQuery dan memerlukan langkah tambahan untuk mengimpornya ke Cloud Storage.
BigQuery Deskripsi Impor data dari tabel BigQuery yang dimuat sebelumnya yang menggunakan Vertex AI Search untuk skema retail. Dapat dilakukan menggunakan Konsol Google Cloud atau cURL.
Kapan digunakan Apakah Anda juga menggunakan analisis atau pemrosesan data peristiwa sebelum mengimpornya.
Batasan Memerlukan langkah tambahan untuk membuat tabel BigQuery yang memetakan ke Vertex AI Search untuk skema retail. Jika Anda memiliki volume peristiwa pengguna yang tinggi, pertimbangkan juga bahwa BigQuery adalah resource berbiaya lebih tinggi daripada Cloud Storage.
BigQuery dengan Analytics 360 Deskripsi Impor data yang sudah ada dari Analytics 360 ke Vertex AI Search untuk retail.
Kapan digunakan Jika Anda memiliki Analytics 360 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan.
Batasan Hanya tersedia subset atribut, sehingga beberapa Vertex AI Search lanjutan untuk fitur retail tidak dapat digunakan. Pelacakan tayangan di Google Analytics diperlukan jika Anda berencana menggunakan penelusuran.
BigQuery dengan Google Analytics 4 Deskripsi Impor data yang sudah ada dari Google Analytics 4 ke Vertex AI Search untuk retail.
Kapan digunakan Jika Anda memiliki Google Analytics 4 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan.
Batasan Hanya tersedia subset atribut, sehingga beberapa Vertex AI Search lanjutan untuk fitur retail tidak dapat digunakan. Jika berencana menggunakan penelusuran, Anda perlu menyiapkan key-value pair parameter peristiwa untuk pelacakan; kunci yang direkomendasikan adalah search_query.
Impor inline Deskripsi Impor menggunakan panggilan ke metode userEvents.import.
Kapan digunakan Jika Anda ingin meningkatkan privasi, dengan cara semua autentikasi terjadi di backend dan Anda dapat melakukan impor backend.
Batasan Biasanya lebih rumit daripada impor web.

Mengimpor peristiwa pengguna dari Cloud Storage

Impor peristiwa pengguna dari Cloud Storage menggunakan Konsol Google Cloud atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Search for Retail.

    Buka halaman Data
  2. Klik Import untuk membuka panel Import Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih Google Cloud Storage sebagai sumber data.
  5. Pilih Skema Peristiwa Pengguna Retail sebagai skema.
  6. Masukkan lokasi Cloud Storage data Anda.
  7. Klik Import.

cURL

Gunakan metode userEvents.import untuk mengimpor peristiwa pengguna Anda.

  1. Buat file data untuk parameter input untuk impor. Gunakan objek GcsSource untuk menunjuk ke bucket Cloud Storage Anda.

    Anda dapat memberikan beberapa file, atau hanya satu file.

    • INPUT_FILE: File di Cloud Storage yang berisi data peristiwa pengguna Anda. Lihat artikel Tentang peristiwa pengguna untuk mengetahui contoh setiap format jenis peristiwa pengguna. Pastikan setiap peristiwa pengguna berada pada satu barisnya sendiri, tanpa jeda baris.
    • ERROR_DIRECTORY: Direktori Cloud Storage untuk informasi error tentang impor.

    Kolom file input harus dalam format gs://<bucket>/<path-to-file>/. Direktori error harus dalam format gs://<bucket>/<folder>/. Jika direktori error tidak ada, Vertex AI Search untuk retail akan membuatnya. Bucket harus sudah ada.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Impor informasi katalog Anda dengan membuat permintaan POST ke metode REST userEvents:import, dengan memberikan nama file data.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Mengimpor peristiwa pengguna dari BigQuery

Impor peristiwa pengguna dari BigQuery menggunakan Konsol Google Cloud atau metode userEvents.import.

Menyiapkan akses BigQuery

Ikuti petunjuk dalam artikel Menyiapkan akses ke set data BigQuery agar akun layanan retail Vertex AI Search memiliki peran BigQuery Data Owner untuk set data BigQuery Anda.

Mengimpor peristiwa pengguna dari BigQuery

Anda dapat mengimpor peristiwa 360 menggunakan Search for Retail Console atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Search for Retail.

    Buka halaman Data
  2. Klik Import untuk membuka panel Import Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

curl

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import. Lihat referensi API userEvents.import.

Nilai yang ditentukan untuk dataSchema bergantung pada apa yang Anda impor:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Mengimpor peristiwa pengguna Analytics 360 dengan BigQuery

Anda dapat mengimpor peristiwa pengguna Analytics 360 jika telah mengintegrasikan Analytics 360 dengan BigQuery dan menggunakan Enhanced E-commerce.

Prosedur berikut mengasumsikan bahwa Anda sudah memahami penggunaan BigQuery dan Analytics 360.

Sebelum memulai

Sebelum Anda memulai langkah berikutnya, pastikan:

Periksa sumber data Anda

  1. Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar dalam tabel BigQuery yang dapat Anda akses.

    Pastikan tabel diberi nama project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Lihat dokumentasi Google Analytics untuk mengetahui informasi selengkapnya tentang format dan penamaan tabel.

  2. Di Konsol Google Cloud BigQuery, pilih tabel dari panel Explorer untuk melihat pratinjau tabel.

    Pastikan bahwa:

    1. Kolom clientId memiliki nilai yang valid—misalnya, 123456789.123456789.

      Perhatikan bahwa nilai ini berbeda dengan nilai cookie _ga lengkap (yang memiliki format seperti GA1.3.123456789.123456789).

    2. Kolom hits.transaction.currencyCode memiliki kode mata uang yang valid.

    3. Jika Anda berencana untuk mengimpor peristiwa search, pastikan ada kolom hits.page.searchKeyword atau hits.customVariable.searchQuery.

      Pengimporan peristiwa search didukung, tetapi tidak dipetakan dari Analytics 360 dengan cara yang sama seperti yang dilakukan jenis peristiwa lainnya karena Analytics 360 tidak mendukung jenis peristiwa search secara native. Selama impor, peristiwa search dibuat dari Analytics 360 dengan menggabungkan informasi dari kueri penelusuran dan jika ada, tayangan produk.

      Kueri penelusuran berasal dari hits.page.searchKeyword, atau dari hits.customVariables.customVarValue jika hits.customVariables.customVarName adalah searchQuery. Tayangan produk diambil dari hits.product jika hits.product.isImpressions adalah TRUE.

  3. Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Analytics 360.

    Dengan menggunakan ID produk apa pun dari kolom hits.product.productSKU di pratinjau tabel BigQuery, gunakan metode product.get untuk memastikan produk yang sama ada dalam katalog yang Anda upload.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Mengimpor peristiwa Analytics 360 Anda

Anda dapat mengimpor peristiwa Google Analytics 360 menggunakan Search for Retail Console atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Search for Retail.

    Buka halaman Data
  2. Klik Import untuk membuka panel Import Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

REST

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import.

Untuk dataSchema, gunakan nilai user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Mengimpor kunjungan halaman beranda Analytics 360 dengan BigQuery

Di Analytics 360, peristiwa kunjungan halaman beranda tidak dibedakan dari peristiwa kunjungan halaman lainnya. Artinya, peristiwa kunjungan halaman beranda tidak diimpor sebagai peristiwa dengan jenis peristiwa lainnya (seperti detail-page-view) di bagian Mengimpor peristiwa Analytics 360.

Prosedur berikut menjelaskan cara mengekstrak peristiwa tayangan halaman beranda dari data Analytics 360 dan mengimpornya ke Vertex AI Search untuk retail. Singkatnya, hal ini dilakukan dengan mengekstrak tampilan halaman beranda pengguna (yang diidentifikasi melalui jalur halaman beranda) ke dalam tabel BigQuery baru, lalu mengimpor data dari tabel baru tersebut ke Vertex AI Search untuk retail.

Untuk mengimpor peristiwa kunjungan halaman beranda dari Analytics 360 ke Vertex AI Search untuk retail:

  1. Buat set data BigQuery atau pastikan Anda memiliki set data BigQuery yang dapat digunakan untuk menambahkan tabel.

    Set data ini dapat berada di Vertex AI Search Anda untuk project retail atau dalam project tempat Anda memiliki data Analytics 360. Ini adalah set data target tempat Anda akan menyalin peristiwa kunjungan halaman beranda Analytics 360.

  2. Buat tabel BigQuery dalam set data sebagai berikut:

    1. Ganti variabel dalam kode SQL berikut sebagai berikut.

      • target_project_id: Project tempat set data dari langkah 1 berada.

      • target_dataset: Nama set data dari langkah 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Salin contoh kode SQL.

    3. Buka halaman BigQuery di Konsol Google Cloud.

      Buka halaman BigQuery

    4. Jika belum dipilih, pilih project target.

    5. Di panel Editor, tempel contoh kode SQL.

    6. Klik Run dan tunggu hingga kueri selesai dijalankan.

    Menjalankan kode ini akan membuat tabel dalam format target_project_id:target_dataset.ga_homepage_YYYYMMDD—misalnya, my-project:view_events.ga_homepage_20230115.

  3. Salin peristiwa kunjungan halaman beranda Analytics 360 dari tabel data Analytics 360 ke dalam tabel yang dibuat pada langkah 2 sebelumnya.

    1. Ganti variabel dalam kode contoh SQL berikut sebagai berikut:

      • source_project_id: ID project yang berisi data Analytics 360 dalam tabel BigQuery.

      • source_dataset: Set data dalam project sumber yang berisi data Analytics 360 dalam tabel BigQuery.

      • source_table: Tabel dalam project sumber yang berisi data Analytics 360.

      • target_project_id: Project ID target yang sama seperti pada langkah 2 sebelumnya.

      • target_dataset: Set data target yang sama seperti pada langkah 2 sebelumnya.

      • path: Ini adalah jalur ke halaman beranda. Biasanya ini adalah /—misalnya, jika halaman berandanya adalah example.com/. Namun, jika halaman berandanya seperti examplepetstore.com/index.html, jalurnya adalah /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Salin contoh kode SQL.

    3. Buka halaman BigQuery di Konsol Google Cloud.

      Buka halaman BigQuery

    4. Jika belum dipilih, pilih project target.

    5. Di panel Editor, tempel contoh kode SQL.

    6. Klik Run dan tunggu hingga kueri selesai dijalankan.

  4. Ikuti petunjuk dalam artikel Mengimpor peristiwa pengguna dari BigQuery untuk mengimpor peristiwa penayangan halaman beranda dari tabel target. Selama pemilihan skema, jika Anda mengimpor menggunakan konsol, pilih Retail User Events Schema; jika Anda mengimpor menggunakan userEvents.import, tentukan user_event untuk nilai dataSchema.

  5. Hapus tabel dan set data yang telah Anda buat di langkah 1 dan 2.

Mengimpor peristiwa pengguna Google Analytics 4 dengan BigQuery

Anda dapat mengimpor peristiwa pengguna Google Analytics 4 jika telah mengintegrasikan Google Analytics 4 dengan BigQuery dan menggunakan E-commerce Google Analytics.

Prosedur berikut mengasumsikan bahwa Anda sudah memahami penggunaan BigQuery dan Google Analytics 4.

Sebelum memulai

Sebelum Anda memulai langkah berikutnya, pastikan:

Periksa sumber data Anda

Untuk memastikan data peristiwa pengguna Anda siap untuk diimpor, ikuti langkah-langkah berikut.

Untuk tabel kolom Google Analytics 4 yang digunakan oleh Vertex AI Search untuk retail dan Vertex AI Search untuk kolom retail yang dipetakan, lihat kolom peristiwa pengguna Google Analytics 4.

Untuk semua parameter peristiwa Google Analytics, lihat dokumentasi referensi Peristiwa Google Analytics.

  1. Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar dalam tabel BigQuery yang dapat Anda akses.

    • Set data harus diberi nama analytics_PROPERTY_ID.
    • Tabel harus diberi nama events_YYYYMMDD.

    Untuk mendapatkan informasi tentang nama dan format tabel, lihat dokumentasi Google Analytics.

  2. Di Konsol Google Cloud BigQuery, pilih set data dari panel Explorer dan temukan tabel peristiwa pengguna yang ingin Anda impor.

    Pastikan bahwa:

    1. Kolom event_params.key memiliki kunci currency dan nilai string terkaitnya adalah kode mata uang yang valid.

    2. Jika Anda berencana untuk mengimpor peristiwa search, pastikan kolom event.event_params.key memiliki kunci search_term dan nilai yang terkait.

      Pengimporan peristiwa search didukung, tetapi peristiwa search tidak dipetakan dari Google Analytics 4 dengan cara yang sama seperti jenis peristiwa lainnya, karena Google Analytics 4 tidak mendukung secara native jenis peristiwa search Vertex AI Search untuk retail. Selama impor, peristiwa search dibuat dari Google Analytics 4 dengan menggabungkan informasi dari parameter view_item_list dan search_term.

      Untuk mendapatkan informasi tentang search di Google Analytics 4, lihat search dalam dokumentasi Google Analytics.

  3. Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Google Analytics 4.

    Untuk memastikan bahwa produk di tabel pengguna Google Analytics 4 juga ada dalam katalog yang Anda upload, salin ID produk dari kolom event.items.item_id dalam pratinjau tabel BigQuery dan gunakan metode product.get untuk memeriksa apakah ID produk tersebut ada dalam katalog yang Anda upload.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Menyiapkan akses BigQuery

Ikuti petunjuk dalam artikel Menyiapkan akses ke set data BigQuery agar akun layanan retail Vertex AI Search memiliki peran BigQuery Data Owner untuk set data BigQuery Anda.

Mengimpor peristiwa Google Analytics 4

Anda dapat mengimpor peristiwa Google Analytics 4 menggunakan Search for Retail console atau metode userEvents.import.

Mengimpor peristiwa Google Analytics 4 menggunakan konsol

  1. Buka halaman Data> di konsol Search for Retail.

    Buka halaman Data
  2. Klik Import untuk membuka panel Import Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage dalam project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

Mengimpor peristiwa Google Analytics 4 menggunakan API

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan Anda ke metode userEvents.import. Lihat referensi API userEvents.import.

Untuk dataSchema, gunakan nilai user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Mengimpor peristiwa pengguna secara inline

Anda dapat mengimpor peristiwa pengguna secara inline dengan menyertakan data untuk peristiwa dalam panggilan ke metode userEvents.import.

Cara termudah untuk melakukannya adalah dengan memasukkan data peristiwa pengguna ke dalam file JSON dan memberikan file tersebut ke cURL.

Untuk mengetahui format jenis peristiwa pengguna, lihat artikel Tentang peristiwa pengguna.

curl

  1. Buat file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Panggil metode POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Data katalog historis

Anda juga dapat mengimpor data katalog historis yang muncul di peristiwa pengguna historis. Data katalog historis ini dapat bermanfaat karena informasi produk sebelumnya dapat digunakan untuk memperkaya peristiwa pengguna, yang dapat meningkatkan akurasi model.

Untuk mengetahui detail selengkapnya, lihat Mengimpor data katalog historis.

Lihat peristiwa yang diimpor

Lihat metrik integrasi peristiwa di tab Peristiwa di halaman Data Search for Retail Console. Halaman ini menampilkan semua acara yang ditulis atau diimpor pada tahun lalu. Metrik dapat memerlukan waktu hingga satu jam untuk muncul di konsol setelah penyerapan data berhasil.

Buka halaman Data

Langkah selanjutnya