過去のユーザー イベントをインポートする

このページでは、過去のイベントからユーザー イベントデータを一括インポートする方法について説明します。 小売業向け Vertex AI Search のモデルには、トレーニングにユーザー イベントデータが必要です。

イベントの記録の設定後、モデルのトレーニングに十分なユーザー イベント データが記録されるまでに、かなりの時間がかかる場合があります。過去のイベントからユーザー イベントデータを一括インポートすることで、初期のモデル トレーニングを高速化できます。操作を行う前に、ユーザー イベントの記録に関するおすすめの方法と、このページの始める前にをご覧ください。

このページのインポート手順は、レコメンデーションと検索の両方に適用されます。データをいったんインポートすると、両方のサービスでこれらのイベントを使用できるようになります。そのため、両方のサービスを使用する場合、同じデータを 2 回インポートする必要はありません。

次のことが可能です。

Cloud Storage チュートリアルからイベントをインポートする

このチュートリアルでは、Cloud Storage からユーザー イベントをインポートする方法を説明します。


このタスクを Cloud Shell エディタで直接行う際の順を追ったガイダンスについては、[ガイドを表示] をクリックしてください。

ガイドを表示


BigQuery チュートリアルからイベントをインポートする

このチュートリアルでは、BigQuery からユーザー イベントをインポートする方法を説明します。


このタスクを Cloud Shell エディタで直接行う際の順を追ったガイダンスについては、[ガイドを表示] をクリックしてください。

ガイドを表示


イベントのインライン チュートリアルをインポートする

このチュートリアルでは、ユーザー イベントデータをインラインでインポートする方法を説明します。


このタスクを Cloud Shell エディタで直接行う際の順を追ったガイダンスについては、[ガイドを表示] をクリックしてください。

ガイドを表示


始める前に

インポート エラーを回避し、良好な結果を生成する十分なデータがあることを確認するには、ユーザー イベントをインポートする前に次の情報を確認します。

イベントのインポートに関する考慮事項

このセクションでは、過去のユーザー イベントの一括インポートに使用できる手段、各手段を使用するタイミング、その制限事項について説明します。

Cloud Storage 説明 Cloud Storage バケットに読み込まれたファイルから JSON 形式のデータをインポートします。各ファイルは 2 GB 以下である必要があります。一度にインポートできるファイル数は最大で 100 個です。インポートは、Google Cloud コンソールまたは cURL を使用して行うことができます。カスタム属性を許可する Product JSON データ形式を使用します。
使うタイミング 1 回のステップで大量のデータを読み取る必要がある場合。
制限事項 データが Google アナリティクスや Merchant Center にある場合、データは BigQuery にのみエクスポートでき、Cloud Storage にインポートする追加の手順が必要になります。
BigQuery 説明 小売業向け Vertex AI Search スキーマを使用する、以前に読み込まれた BigQuery テーブルからデータをインポートします。Google Cloud コンソールまたは cURL を使用して実行できます。
使うタイミング インポートする前に分析やイベントデータの前処理も使用している場合。
制限事項 小売業向け Vertex AI Searchl スキーマにマッピングされる BigQuery テーブルを作成する追加のステップが必要です。ユーザー イベント数が多い場合は、BigQuery が Cloud Storage より費用の高いリソースとなることも考慮してください。
BigQuery とアナリティクス 360 説明 既存のデータをアナリティクス 360 から小売業向け Vertex AI Search にインポートします。
使うタイミング アナリティクス 360 を使用していて、最適化案や検索の変換をトラッキングする場合。追加のスキーマ マッピングは必要ありません。
制限事項 一部の属性のみが使用可能で、いくつかの高度な小売業向け Vertex AI Search の機能は使用できません。検索を使用する場合は、Google アナリティクスでインプレッションを追跡する必要があります。
Google アナリティクス 4 を使用したBigQuery 説明 既存のデータを Google アナリティクスから 小売業向け Vertex AI Searchl にインポートします。
使うタイミング Google アナリティクス 4 を使用していて、最適化案や検索の変換をトラッキングする場合。追加のスキーマ マッピングは必要ありません。
制限事項 一部の属性のみが使用可能で、いくつかの高度な小売業向け Vertex AI Search の機能は使用できません。 検索を使用する場合は、トラッキング用にイベント パラメータの Key-Value ペアを設定する必要があります。推奨されるキーは search_query です。
インライン インポート 説明 userEvents.import メソッドの呼び出しを使用してインポートします。
使うタイミング すべての認証をバックエンドで行ってプライバシーを強化し、バックエンドのインポートを実行できる場合。
制限事項 通常、ウェブ インポートよりも複雑です。

Cloud Storage からユーザー イベントをインポート

Cloud Storage からユーザー イベントは、Google Cloud コンソールまたは userEvents.import メソッドを使用してインポートします。

コンソール

  1. Search for Retail コンソールの [データ] ページに移動します。

    [データ] ページに移動
  2. [インポート] をクリックして [インポート データ] パネルを開きます。
  3. [User events] を選択します。
  4. データソースとして [Google Cloud Storage] を選択します。
  5. スキーマとして [Retail ユーザー イベント スキーマ] を選択します。
  6. データの Cloud Storage のロケーションを入力します。
  7. [インポート] をクリックします。

cURL

ユーザー イベントは、userEvents.import メソッドを使用してインポートします。

  1. インポートの入力パラメータのデータファイルを作成します。Cloud Storage バケットを指定するには、GcsSource オブジェクトを使用します。

    複数のファイルを指定することも、1 つを指定することもできます。

    • INPUT_FILE: ユーザー イベント データが格納されている Cloud Storage 内の 1 つまたは複数のファイル。各ユーザー イベント タイプのフォーマットの例については、ユーザー イベントについてをご覧ください。各ユーザー イベントは、改行がないそれ自体の単一の行であることを確認してください。
    • ERROR_DIRECTORY: インポートに関するエラー情報用の Cloud Storage ディレクトリ。

    入力ファイルのフィールドは gs://<bucket>/<path-to-file>/ の形式にする必要があります。エラー ディレクトリは、gs://<bucket>/<folder>/ の形式にする必要があります。 エラー ディレクトリが存在しない場合は、小売業向け Vertex AI Search によって作成されます。バケットはすでに存在している必要があります。

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
    
  2. カタログ情報をインポートするには、userEvents:import REST メソッドに対して POST リクエストを実行し、データファイルの名前を指定します。

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'
    

BigQuery からデータをインポートする

BigQuery からユーザー イベントは、Google Cloud コンソールか userEvents.import メソッドを使用してインポートします。

BigQuery アクセスを設定する

BigQuery データセットへのアクセスの設定の手順に沿って、小売業向け Vertex AI Serach のサービス アカウントに、BigQuery データセットに対する BigQuery データオーナーロールを付与します。

BigQuery からユーザー イベントをインポートする

360 件のイベントは、Search for Retail コンソールまたは userEvents.import メソッドを使用してインポートできます。

コンソール

  1. Search for Retail コンソールの [データ] ページに移動します。

    [データ] ページに移動
  2. [インポート] をクリックして [インポート データ] パネルを開きます。
  3. [User events] を選択します。
  4. データソースとして [BigQuery] を選択します。
  5. データスキーマを選択します。

  6. データが配置される BigQuery テーブルを入力します。
  7. 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
    指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。
  8. 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。

    指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。
  9. [インポート] をクリックします。

curl

ユーザー イベントをインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。userEvents.import API リファレンスをご覧ください。

dataSchema に指定する値は、インポートする内容によって異なります。

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

BigQuery でアナリティクス 360 のユーザー イベントをインポートする

アナリティクス 360 を BigQuery と統合して拡張 e コマースを使用している場合は、アナリティクス 360 のユーザー イベントをインポートできます。

以下の手順は、BigQuery とアナリティクス 360 の使用に精通していることを前提とします。

始める前に

次の手順を開始する前に、以下の点をご確認ください。

データソースを確認する

  1. インポートするユーザー イベントデータが、アクセス権のある BigQuery テーブルで正しくフォーマットされていることを確認してください。

    テーブルが project_id:ga360_export_dataset.ga_sessions_YYYYMMDD という名前であることを確認してください。

    テーブルの形式と命名について詳しくは、Google アナリティクスのドキュメントをご覧ください。

  2. BigQuery Google Cloud コンソール で、[Explorer] パネルからテーブルを選択してテーブルをプレビューします。

    以下を確認します。

    1. clientId 列に有効な値(たとえば、123456789.123456789)がある。

      この値は、完全な _ga Cookie 値(GA1.3.123456789.123456789 のような形式)とは異なります。

    2. hits.transaction.currencyCode 列に有効な通貨コードがある。

    3. search イベントをインポートする予定の場合は、hits.page.searchKeyword 列または hits.customVariable.searchQuery 列が存在することを確認します。

      search イベントのインポートはサポートされますが、アナリティクス 360 から他のイベントタイプと同様にはマッピングされません。これは、search イベントタイプがアナリティクス 360 でネイティブにサポートされていないためです。インポートの際、search イベントは、検索クエリからの情報と、存在する場合は商品のインプレッションを組み合わせることによって、アナリティクス 360 から作成されます。

      検索クエリは hits.page.searchKeyword から派生します。hits.customVariables.customVarNamesearchQuery の場合は hits.customVariables.customVarValue から派生します。hits.product.isImpressionsTRUE の場合、商品のインプレッションは hits.product から取得されます。

  3. アップロードされたカタログとアナリティクス 360 のユーザー イベント テーブルとのアイテム ID の整合性を確認します。

    BigQuery テーブル プレビューの hits.product.productSKU 列の任意の商品 ID を使用して、アップロードしたカタログに同じ商品が含まれていることを確認するために、product.get メソッドを使用します。

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

アナリティクス 360 のイベントをインポートする

Search for Retail コンソールまたは userEvents.import メソッドを使用して、Google アナリティクス 360 のイベントをインポートできます。

Console

  1. Search for Retail コンソールの [データ] ページに移動します。

    [データ] ページに移動
  2. [インポート] をクリックして [インポート データ] パネルを開きます。
  3. [User events] を選択します。
  4. データソースとして [BigQuery] を選択します。
  5. データスキーマを選択します。

  6. データが配置される BigQuery テーブルを入力します。
  7. 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
    指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。
  8. 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。

    指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。
  9. [インポート] をクリックします。

REST

ユーザー イベントをインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。

dataSchema の場合は、user_event_ga360 の値を使用します。

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

BigQuery でアナリティクス 360 のホームページ ビューをインポートする

アナリティクス 360 では、ホームページ ビュー イベントは他のページビュー イベントと区別されません。つまり、アナリティクス 360 のイベントをインポートするでは、ホームページ ビュー イベントは、他のイベントタイプ(詳細ページビューなど)のイベントとしてインポートされません。

次の手順では、アナリティクス 360 のデータからホームページ ビュー イベントを抽出し、小売業向け Vertex AI Search にインポートする方法について説明します。これを行うには、ホームページのユーザーのビュー(ホームページのパスで識別)を新しい BigQuery テーブルに抽出してから、その新しいテーブルから小売業向け Vertex AI Search にデータをインポートします。

アナリティクス 360 から小売業向け Vertex AI Search のホームページ ビュー イベントをインポートするには:

  1. BigQuery データセットを作成するか、テーブルを追加できる BigQuery データセットがあることを確認します。

    このデータセットは、小売業向け Vertex AI Search のプロジェクトまたはアナリティクス 360 のデータが存在するプロジェクトに配置できます。これは、アナリティクス 360 のホームページ ビュー イベントをコピーするターゲット データセットです。

  2. 次のように、データセットに BigQuery テーブルを作成します。

    1. 次の SQL コードの変数を次のように置き換えます。

      • target_project_id: ステップ 1 のデータセットが配置されているプロジェクト。

      • target_dataset: ステップ 1 のデータセット名。

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
      
    2. SQL コードサンプルをコピーします。

    3. Google Cloud コンソールで [BigQuery] ページを開きます。

      [BigQuery] ページに移動

    4. まだ選択していない場合は、ターゲット プロジェクトを選択します。

    5. [エディタ] ペインに、SQL コードサンプルを貼り付けます。

    6. [ 実行] をクリックし、クエリの実行が完了するまで待ちます。

    このコードを実行すると、target_project_id:target_dataset.ga_homepage_YYYYMMDD 形式のテーブルが作成されます(例、my-project:view_events.ga_homepage_20230115)。

  3. アナリティクス 360 のデータテーブルから、前のステップ 2 で作成したテーブルにアナリティクス 360 のホームページ ビュー イベントをコピーします。

    1. 次の SQL サンプルコードの変数を次のように置き換えます。

      • source_project_id: BigQuery テーブルにアナリティクス 360 データを含むプロジェクトの ID。

      • source_dataset: BigQuery テーブルにアナリティクス 360 データを含むソース プロジェクトのデータセット。

      • source_table: アナリティクス 360 のデータを含むソース プロジェクトのテーブル。

      • target_project_id: 前のステップ 2 と同じターゲット プロジェクト ID。

      • target_dataset: 前のステップ 2 と同じターゲット データセット。

      • path: ホームページへのパスです。通常、これは / です。たとえば、ホームページが example.com/ の場合、ただし、ホームページが examplepetstore.com/index.html の場合、パスは /index.html です。

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
      
    2. SQL コードサンプルをコピーします。

    3. Google Cloud コンソールで [BigQuery] ページを開きます。

      [BigQuery] ページに移動

    4. まだ選択していない場合は、ターゲット プロジェクトを選択します。

    5. [エディタ] ペインに、SQL コードサンプルを貼り付けます。

    6. [ 実行] をクリックし、クエリの実行が完了するまで待ちます。

  4. BigQuery からユーザー イベントをインポートするの手順に沿って、ターゲット テーブルからホームページ ビューのイベントをインポートします。スキーマの選択中に、コンソールを使用してインポートする場合は、[小売ユーザー イベント スキーマ] を選択します。userEvents.import を使用してインポートする場合は、dataSchema 値に user_event を指定します。

  5. 手順 1 と 2 で作成したテーブルとデータセットを削除します。

BigQuery で Google アナリティクス 4 のユーザー イベントをインポートする

Google アナリティクス 4 を BigQuery と統合して Google アナリティクスの e コマースを使用している場合は、Google アナリティクス 4 のユーザー イベントをインポートできます。

以下の手順は、BigQuery と Google アナリティクス 4 の使用に精通していることを前提とします。

始める前に

次の手順を開始する前に、以下の点をご確認ください。

データソースを確認する

ユーザー イベントデータがインポート用に準備されていることを確認するには、次の手順を行います。

小売業向け Vertex AI Search が使用する Google アナリティクス 4 フィールドと、それらがマッピングされる小売業向け Vertex AI Search のフィールドの表については、Google アナリティクス 4 のユーザー イベント フィールドをご覧ください。

すべての Google アナリティクス イベント パラメータについては、Google アナリティクス イベントのリファレンス ドキュメントをご覧ください。

  1. インポートするユーザー イベントデータが、アクセス権のある BigQuery テーブルで正しくフォーマットされていることを確認してください。

    • データセットは analytics_PROPERTY_ID という名前である必要があります。
    • テーブルは events_YYYYMMDD という名前である必要があります。

    テーブルの名前と形式の詳細については、Google アナリティクスのドキュメントをご覧ください。

  2. BigQuery Google Cloud コンソールで、[Explorer] パネルからデータセットを選択し、インポートするユーザー イベントのテーブルを見つけます。

    以下を確認します。

    1. event_params.key 列に currency キーがあり、関連付けられた文字列値が有効な通貨コードである。

    2. search イベントをインポートする予定の場合は、event.event_params.key 列に search_term キーおよび関連する値があることを確認します。

      search イベントのインポートはサポートされますが、search イベントは他のイベントタイプと同様に Google アナリティクス 4 からマッピングされません。これは、小売向け Vertex AI Search の search イベントタイプが Google アナリティクス 4 でネイティブにサポートされていないためです。インポートの際、view_item_list パラメータと search_term パラメータからの情報を組み合わせることにより、Google アナリティクス 4 から search イベントが構築されます。

      Google アナリティクス 4 での search についての詳細は、Google アナリティクス ドキュメントの search をご覧ください。

  3. アップロードされたカタログと Google アナリティクス 4 のユーザー イベント テーブルとのアイテム ID の整合性を確認します。

    Google アナリティクス 4 のユーザー テーブルのプロダクトがアップロードされたカタログにも含まれるようにするには、BigQuery テーブル プレビューの event.items.item_id 列からプロダクト ID をコピーし、product.get メソッドを使用して、アップロードしたカタログに商品 ID があるかどうかを確認します。

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

BigQuery アクセスを設定する

BigQuery データセットへのアクセスの設定の手順に沿って、小売業向け Vertex AI Serach のサービス アカウントに、BigQuery データセットに対する BigQuery データオーナーロールを付与します。

Google アナリティクス 4 のイベントをインポートする

Search for Retail コンソールまたは userEvents.import メソッドを使用して、Google アナリティクス 4 のイベントをインポートできます。

コンソールを使用して Google アナリティクス 4 のイベントをインポートする

  1. Search for Retail コンソールの [データ] ページに移動します。

    [データ] ページに移動
  2. [インポート] をクリックして [インポート データ] パネルを開きます。
  3. [User events] を選択します。
  4. データソースとして [BigQuery] を選択します。
  5. データスキーマを選択します。

  6. データが配置される BigQuery テーブルを入力します。
  7. 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
    指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。
  8. 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。

    指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。
  9. [インポート] をクリックします。

API を使用して Google アナリティクス 4 のイベントをインポートする

ユーザー イベントをインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。userEvents.import API リファレンスをご覧ください。

dataSchema の場合は、user_event_ga4 の値を使用します。

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

ユーザー イベントをインラインでインポートする

ユーザー イベントをインラインでインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。

最も簡単な方法は、ユーザー イベントデータを JSON ファイルに追加し、ファイルを cURL に提供することです。

ユーザー イベント タイプのフォーマットについては、ユーザー イベントについてをご覧ください。

curl

  1. JSON ファイルを作成します。

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. POST メソッドを呼び出します。

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

過去のカタログ データ

過去のユーザー イベントに表示される過去のカタログ データをインポートすることもできます。この過去のカタログ データは、過去の商品情報を使用してユーザー イベントを強化し、モデルの精度を向上させることができるために役立ちます。

詳しくは、過去のカタログ データをインポートするをご覧ください。

インポートしたイベントを表示する

Search for Retail コンソールの [データ] ページの [イベント] タブでイベント統合指標を表示します。このページには、去年に書き込みまたはインポートされたすべてのイベントが表示されます。データの取り込みが成功した後、指標がコンソールに表示されるまでには、最長で 1 時間かかることがあります。

[データ] ページに移動

次のステップ