이전 사용자 이벤트 가져오기

이 페이지에서는 과거 이벤트에서 사용자 이벤트 데이터를 일괄 가져오는 방법을 설명합니다. 소매업용 Vertex AI Search 모델에는 학습을 위한 사용자 이벤트 데이터가 필요합니다.

실시간 이벤트 기록을 설정한 후 모델을 학습시키는 데 충분한 사용자 이벤트 데이터를 기록하기까지 상당한 시간이 걸릴 수 있습니다. 이전 이벤트에서 사용자 이벤트 데이터를 일괄적으로 가져와 초기 모델 학습을 가속화할 수 있습니다. 시작하기 전에 이 페이지의 사용자 이벤트 기록 권장사항시작하기 전에 섹션을 검토하세요.

이 페이지의 가져오기 절차는 추천 및 검색에 모두 적용됩니다. 데이터를 가져오면 두 서비스 모두에서 해당 이벤트를 사용할 수 있으므로 두 서비스를 모두 사용하는 경우 동일한 데이터를 두 번 가져오지 않아도 됩니다.

다음과 같은 작업을 할 수 있습니다.

Cloud Storage에서 이벤트 가져오기 튜토리얼

이 튜토리얼에서는 Cloud Storage에서 사용자 이벤트를 가져오는 방법을 설명합니다.


Cloud Shell 편집기에서 이 태스크의 단계별 안내를 직접 수행하려면 둘러보기를 클릭합니다.

둘러보기


BigQuery에서 이벤트 가져오기 튜토리얼

이 튜토리얼에서는 BigQuery에서 사용자 이벤트를 가져오는 방법을 보여줍니다.


Cloud Shell 편집기에서 이 태스크의 단계별 안내를 직접 수행하려면 둘러보기를 클릭합니다.

둘러보기


이벤트 인라인 가져오기 튜토리얼

이 튜토리얼에서는 사용자 이벤트 데이터를 인라인으로 가져오는 방법을 보여줍니다.


Cloud Shell 편집기에서 이 태스크의 단계별 안내를 직접 수행하려면 둘러보기를 클릭합니다.

둘러보기


시작하기 전에

가져오기 오류를 방지하고 좋은 결과를 생성하는 데 충분한 데이터가 있는지 확인하려면 사용자 이벤트를 가져오기 전에 다음 정보를 검토합니다.

이벤트 가져오기 고려사항

이 섹션에서는 이전 사용자 이벤트의 일괄 가져오기에 사용할 수 있는 메서드, 각 메서드 사용 시기, 일부 제한사항에 대해 설명합니다.

Cloud Storage 설명 Cloud Storage 버킷에 로드된 파일에서 JSON 형식으로 데이터를 가져옵니다. 각 파일은 2GB 이하여야 하고 한 번에 최대 100개까지 파일을 가져올 수 있습니다. 가져오기는 Google Cloud 콘솔 또는 cURL을 사용하여 수행할 수 있습니다. 커스텀 속성을 허용하는 Product JSON 데이터 형식을 사용합니다.
사용 시기 단일 단계로 많은 양의 데이터를 로드해야 하는 경우
제한사항 Google 애널리틱스 또는 판매자 센터에 있는 데이터는 BigQuery로만 내보낼 수 있으며 Cloud Storage로 가져오는 데 추가 단계가 필요합니다.
BigQuery 설명 소매업 스키마용 Vertex AI Search를 사용하는 이전에 로드된 BigQuery 테이블에서 데이터를 가져옵니다. Google Cloud 콘솔 또는 cURL을 사용하여 수행할 수 있습니다.
사용 시기 가져오기 전에 분석 또는 사전 처리 이벤트 데이터도 사용하는 경우.
제한사항 소매업 스키마용 Vertex AI Search에 매핑되는 BigQuery 테이블을 만드는 추가 단계가 필요합니다. 사용자 이벤트가 많은 경우 BigQuery가 Cloud Storage보다 비용이 많이 드는 리소스라는 점을 고려하세요.
애널리틱스 360을 사용한 BigQuery 설명 애널리틱스 360의 기존 데이터를 소매업용 Vertex AI Search로 가져옵니다.
사용 시기 애널리틱스 360이 있고 추천 또는 검색을 위한 전환을 추적하는 경우입니다. 추가 스키마 매핑은 필요하지 않습니다.
제한사항 속성의 하위 집합만 사용할 수 있으므로 일부 고급 소매업용 Vertex AI Search 기능을 사용할 수 없습니다. 검색을 사용하려면 Google 애널리틱스에서 노출을 추적해야 합니다.
Google 애널리틱스 4를 사용한 BigQuery 설명 Google 애널리틱스 4의 기존 데이터를 소매업용 Vertex AI Search로 가져옵니다.
사용 시기 Google 애널리틱스 4가 있고 추천 또는 검색을 위한 전환을 추적하는 경우입니다. 추가 스키마 매핑은 필요하지 않습니다.
제한사항 속성의 하위 집합만 사용할 수 있으므로 일부 고급 소매업용 Vertex AI Search 기능을 사용할 수 없습니다. 검색을 사용하려면 추적을 위한 이벤트 매개변수 키-값 쌍을 설정해야 합니다. 권장 키는 search_query입니다.
인라인 가져오기 설명 userEvents.import 메서드 호출을 사용하여 가져옵니다.
사용 시기 백엔드에서 모든 인증을 수행하고 백엔드 가져오기를 수행할 수 있는 개인정보 보호를 강화하려는 경우.
제한사항 일반적으로 웹 가져오기보다 더 복잡합니다.

Cloud Storage에서 사용자 이벤트 가져오기

Google Cloud 콘솔 또는 userEvents.import 메서드를 사용하여 Cloud Storage에서 사용자 이벤트를 가져옵니다.

콘솔

  1. Search for Retail 콘솔에서 데이터> 페이지로 이동합니다.

    데이터 페이지로 이동
  2. 가져오기를 클릭하여 데이터 가져오기 패널을 엽니다.
  3. 사용자 이벤트를 선택합니다.
  4. 데이터 소스로 Google Cloud Storage를 선택합니다.
  5. 스키마로 Retail 사용자 이벤트 스키마를 선택합니다.
  6. 데이터의 Cloud Storage 위치를 입력합니다.
  7. 가져오기를 클릭합니다.

cURL

userEvents.import 메서드를 사용하여 사용자 이벤트를 가져옵니다.

  1. 가져오기의 입력 매개변수에 대한 데이터 파일을 만듭니다. GcsSource 객체를 사용하여 Cloud Storage 버킷을 가리킵니다.

    파일은 여러 개 제공하거나 하나만 제공할 수 있습니다.

    • INPUT_FILE: 사용자 이벤트 데이터가 포함된 Cloud Storage의 파일입니다. 각 사용자 이벤트 유형 형식의 예시는 사용자 이벤트 정보를 참조하세요. 각 사용자 이벤트는 줄 바꿈 없이 한 줄로 입력해야 합니다.
    • ERROR_DIRECTORY: 가져오기에 대한 오류 정보를 볼 수 있는 Cloud Storage 디렉터리입니다.

    입력 파일 필드는 gs://<bucket>/<path-to-file>/ 형식이어야 합니다. 오류 디렉터리는 gs://<bucket>/<folder>/ 형식이어야 합니다. 오류 디렉터리가 존재하지 않으면 소매업용 Vertex AI Search가 해당 디렉터리를 만듭니다. 버킷은 이미 있어야 합니다.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. userEvents:import REST 메서드에 POST 요청을 수행하고 데이터 파일의 이름을 제공하여 카탈로그 정보를 가져옵니다.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

BigQuery에서 사용자 이벤트 가져오기

Google Cloud 콘솔 또는 userEvents.import 메서드를 사용하여 BigQuery에서 사용자 이벤트를 가져옵니다.

BigQuery 액세스 권한 설정

BigQuery 데이터 세트에 대한 액세스 권한 설정의 안내에 따라 소매업용 Vertex AI Search 서비스 계정에 BigQuery 데이터 세트의 BigQuery 데이터 소유자 역할을 부여합니다.

BigQuery에서 사용자 이벤트 가져오기

Search for Retail 콘솔 또는 userEvents.import 메서드를 사용하여 360 이벤트를 가져올 수 있습니다.

콘솔

  1. Search for Retail 콘솔에서 데이터> 페이지로 이동합니다.

    데이터 페이지로 이동
  2. 가져오기를 클릭하여 데이터 가져오기 패널을 엽니다.
  3. 사용자 이벤트를 선택합니다.
  4. 데이터 소스로 BigQuery를 선택합니다.
  5. 데이터 스키마를 선택합니다.

  6. 데이터가 있는 BigQuery 테이블을 입력합니다.
  7. 선택사항: 프로젝트의 Cloud Storage 버킷 위치를 데이터의 임시 위치로 입력합니다.
    지정하지 않으면 기본 위치가 사용됩니다. 지정하면 BigQuery 및 Cloud Storage 버킷은 같은 리전에 있어야 합니다.
  8. 선택사항: 고급 옵션 표시에서 프로젝트의 Cloud Storage 버킷 위치를 데이터의 임시 위치로 입력합니다.

    지정하지 않으면 기본 위치가 사용됩니다. 지정하면 BigQuery 및 Cloud Storage 버킷은 같은 리전에 있어야 합니다.
  9. 가져오기를 클릭합니다.

curl

userEvents.import 메서드 호출 이벤트에 관한 데이터를 포함하여 사용자 이벤트를 가져옵니다. userEvents.import API 참조를 참조하세요.

dataSchema에 지정하는 값은 가져오는 항목에 따라 다릅니다.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

BigQuery에서 애널리틱스 360 사용자 이벤트 가져오기

애널리틱스 360과 BigQuery를 통합하고 향상된 전자상거래를 사용하는 경우 애널리틱스 360 사용자 이벤트를 가져올 수 있습니다.

다음 절차에서는 사용자가 BigQuery 및 애널리틱스 360을 사용하는 데 익숙하다고 가정합니다.

시작하기 전에

다음 단계를 시작하기 전에 다음 사항을 확인하세요.

데이터 소스 확인

  1. 액세스할 수 있는 BigQuery 테이블에서 가져올 사용자 이벤트 데이터 형식이 올바른지 확인합니다.

    테이블 이름이 project_id:ga360_export_dataset.ga_sessions_YYYYMMDD인지 확인합니다.

    테이블 형식과 이름 지정에 대한 자세한 내용은 Google 애널리틱스 문서를 참조하세요.

  2. BigQuery Google Cloud 콘솔탐색기 패널에서 테이블을 선택하여 테이블을 미리 봅니다.

    다음 사항을 확인합니다.

    1. clientId 열에 유효한 값이 있습니다(예: 123456789.123456789).

      이 값은 전체 _ga 쿠키 값(GA1.3.123456789.123456789 같은 형식)과 다릅니다.

    2. hits.transaction.currencyCode 열에 유효한 통화 코드가 있습니다.

    3. search 이벤트를 가져오려는 경우 hits.page.searchKeyword 또는 hits.customVariable.searchQuery 열이 있는지 확인합니다.

      search 이벤트 가져오기는 지원되지만 애널리틱스 360은 기본적으로 search 이벤트 유형을 지원하지 않으므로 다른 이벤트 유형과 동일한 방식으로 애널리틱스 360에서 매핑되지 않습니다. 가져오는 동안 search 이벤트는 검색어 정보와 제품 노출의 정보(있는 경우)를 결합하여 애널리틱스 360에서 구성됩니다.

      검색어는 hits.page.searchKeyword에서 또는 hits.customVariables.customVarNamesearchQuery인 경우 hits.customVariables.customVarValue에서 파생됩니다. hits.product.isImpressionsTRUE이면 제품 노출은 hits.product에서 가져옵니다.

  3. 업로드된 카탈로그와 애널리틱스 360 사용자 이벤트 테이블의 항목 ID 일관성을 확인합니다.

    BigQuery 테이블 미리보기의 hits.product.productSKU 열에 있는 제품 ID를 사용하여 product.get 메서드를 통해 동일한 제품이 업로드된 카탈로그에 있는지 확인합니다.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

애널리틱스 360 이벤트 가져오기

Search for Retail 콘솔 또는 userEvents.import 메서드를 사용하여 Google 애널리틱스 360 이벤트를 가져올 수 있습니다.

콘솔

  1. Search for Retail 콘솔에서 데이터> 페이지로 이동합니다.

    데이터 페이지로 이동
  2. 가져오기를 클릭하여 데이터 가져오기 패널을 엽니다.
  3. 사용자 이벤트를 선택합니다.
  4. 데이터 소스로 BigQuery를 선택합니다.
  5. 데이터 스키마를 선택합니다.

  6. 데이터가 있는 BigQuery 테이블을 입력합니다.
  7. 선택사항: 프로젝트의 Cloud Storage 버킷 위치를 데이터의 임시 위치로 입력합니다.
    지정하지 않으면 기본 위치가 사용됩니다. 지정하면 BigQuery 및 Cloud Storage 버킷은 같은 리전에 있어야 합니다.
  8. 선택사항: 고급 옵션 표시에서 프로젝트의 Cloud Storage 버킷 위치를 데이터의 임시 위치로 입력합니다.

    지정하지 않으면 기본 위치가 사용됩니다. 지정하면 BigQuery 및 Cloud Storage 버킷은 같은 리전에 있어야 합니다.
  9. 가져오기를 클릭합니다.

REST

userEvents.import 메서드 호출 이벤트에 관한 데이터를 포함하여 사용자 이벤트를 가져옵니다.

dataSchema에는 user_event_ga360 값을 사용합니다.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

BigQuery로 애널리틱스 360 홈페이지 조회 가져오기

애널리틱스 360에서 홈페이지 조회 이벤트는 다른 페이지 조회 이벤트와 구분되지 않습니다. 즉, 홈페이지 조회 이벤트는 애널리틱스 360 이벤트 가져오기에서 다른 이벤트 유형(예: details-page-view)의 이벤트로서 가져오기 되지 않습니다.

다음 절차에서는 애널리틱스 360 데이터에서 홈페이지 조회 이벤트를 추출하여 소매업용 Vertex AI Search로 가져오는 방법을 설명합니다. 즉, 사용자의 홈페이지(홈페이지 경로로 식별됨)를 새 BigQuery 테이블로 추출한 다음 새 테이블의 데이터를 소매업용 Vertex AI Search로 가져오면 됩니다.

홈페이지 조회 이벤트를 애널리틱스 360에서 소매업용 Vertex AI Search로 가져오려면 다음 안내를 따르세요.

  1. BigQuery 데이터 세트를 만들거나 테이블을 추가할 수 있는 BigQuery 데이터 세트가 있는지 확인합니다.

    이 데이터 세트는 소매업용 Vertex AI Search 프로젝트 또는 애널리틱스 360 데이터가 있는 프로젝트에 있을 수 있습니다. 애널리틱스 360 홈페이지 조회 이벤트를 복사할 대상 데이터 세트입니다.

  2. 다음과 같이 데이터 세트에 BigQuery 테이블을 만듭니다.

    1. 다음 SQL 코드의 변수를 다음과 같이 바꿉니다.

      • target_project_id: 1단계의 데이터 세트가 있는 프로젝트입니다.

      • target_dataset: 1단계의 데이터 세트 이름입니다.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. SQL 코드 샘플을 복사합니다.

    3. Google Cloud 콘솔에서 BigQuery 페이지를 엽니다.

      BigQuery 페이지로 이동

    4. 대상 프로젝트를 선택하지 않았으면 선택합니다.

    5. 편집자 창에 SQL 코드 샘플을 붙여넣습니다.

    6. 실행을 클릭하고 쿼리 실행이 완료될 때까지 기다립니다.

    이 코드를 실행하면 target_project_id:target_dataset.ga_homepage_YYYYMMDD 형식의 테이블이 생성됩니다(예: my-project:view_events.ga_homepage_20230115).

  3. 애널리틱스 360 데이터 테이블에서 애널리틱스 360 홈페이지 조회 이벤트를 이전 2단계에서 만든 테이블로 복사합니다.

    1. 다음 SQL 예시 코드의 변수를 다음과 같이 바꿉니다.

      • source_project_id: BigQuery 테이블에 애널리틱스 360 데이터가 포함된 프로젝트의 ID입니다.

      • source_dataset: BigQuery 테이블에 애널리틱스 360 데이터가 포함된 소스 프로젝트의 데이터 세트입니다.

      • source_table: 애널리틱스 360 데이터가 포함된 소스 프로젝트의 테이블입니다.

      • target_project_id: 이전 2단계와 동일한 대상 프로젝트 ID입니다.

      • target_dataset: 이전 2단계와 동일한 대상 데이터 세트입니다.

      • path: 홈페이지의 경로입니다. 일반적으로, 예를 들어 홈페이지가 example.com/인 경우에는 /입니다. 하지만 홈페이지가 examplepetstore.com/index.html과 유사하면 경로는 /index.html입니다.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. SQL 코드 샘플을 복사합니다.

    3. Google Cloud 콘솔에서 BigQuery 페이지를 엽니다.

      BigQuery 페이지로 이동

    4. 대상 프로젝트를 선택하지 않았으면 선택합니다.

    5. 편집자 창에 SQL 코드 샘플을 붙여넣습니다.

    6. 실행을 클릭하고 쿼리 실행이 완료될 때까지 기다립니다.

  4. BigQuery에서 사용자 이벤트 가져오기 안내에 따라 대상 테이블에서 홈페이지 조회 이벤트를 가져옵니다. 스키마를 선택하는 동안 콘솔을 사용하여 가져오는 경우 Retail 사용자 이벤트 스키마를 선택하고 userEvents.import를 사용하여 가져오는 경우 dataSchema 값에 대해 user_event를 지정합니다.

  5. 1단계와 2단계에서 만든 테이블과 데이터 세트를 삭제합니다.

BigQuery에서 Google 애널리틱스 4 사용자 이벤트 가져오기

Google 애널리틱스 4와 BigQuery를 통합하고 Google 애널리틱스 전자상거래를 사용하는 경우 Google 애널리틱스 4 사용자 이벤트를 가져올 수 있습니다.

다음 절차에서는 사용자가 BigQuery 및 Google 애널리틱스 4를 사용하는 데 익숙하다고 가정합니다.

시작하기 전에

다음 단계를 시작하기 전에 다음 사항을 확인하세요.

데이터 소스 확인

사용자 이벤트 데이터를 가져올 준비가 되었는지 확인하려면 다음 단계를 따르세요.

소매업용 Vertex AI Search에서 사용하는 Google 애널리틱스 4 필드와 이러한 필드가 매핑되는 소매업 필드용 Vertex AI Search에 대한 표는 Google 애널리틱스 4 사용자 이벤트 필드를 참조하세요.

모든 Google 애널리틱스 이벤트 매개변수는 Google 애널리틱스 이벤트 참고 문서를 확인하세요.

  1. 액세스할 수 있는 BigQuery 테이블에서 가져올 사용자 이벤트 데이터 형식이 올바른지 확인합니다.

    • 데이터 세트 이름은 analytics_PROPERTY_ID여야 합니다.
    • 테이블 이름은 events_YYYYMMDD여야 합니다.

    테이블 이름과 형식에 대한 자세한 내용은 Google 애널리틱스 문서를 참조하세요.

  2. BigQuery Google Cloud 콘솔탐색기 패널에서 데이터 세트를 선택하고 가져올 사용자 이벤트의 테이블을 찾습니다.

    다음 사항을 확인합니다.

    1. event_params.key 열에는 currency 키가 있으며 연결된 문자열 값이 유효한 통화 코드입니다.

    2. search 이벤트를 가져오려는 경우 event.event_params.key 열에 search_term 키 및 관련 값이 있는지 확인합니다.

      search 이벤트 가져오기는 지원되지만 Google 애널리틱스 4는 기본적으로 소매업용 Vertex AI Search search 이벤트 유형을 지원하지 않으므로 다른 이벤트 유형과 동일한 방식으로 Google 애널리틱스 4에서 search 이벤트가 매핑되지 않습니다. 가져오는 동안 search 이벤트는 view_item_listsearch_term 매개변수의 정보를 결합하여 Google 애널리틱스 4에서 생성됩니다.

      Google 애널리틱스 4의 search에 대한 자세한 내용은 Google 애널리틱스 문서에서 search를 참조하세요.

  3. 업로드된 카탈로그와 Google 애널리틱스 4 사용자 이벤트 테이블의 항목 ID 일관성을 확인합니다.

    Google 애널리틱스 4 사용자 테이블의 제품이 업로드된 카탈로그에도 있는지 확인하려면 BigQuery 테이블 미리보기의 event.items.item_id 열에서 제품 ID를 복사하고 product.get 메서드를 사용하여 제품 ID가 업로드된 카탈로그에 있는지 확인합니다.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

BigQuery 액세스 권한 설정

BigQuery 데이터 세트에 대한 액세스 권한 설정의 안내에 따라 소매업용 Vertex AI Search 서비스 계정에 BigQuery 데이터 세트의 BigQuery 데이터 소유자 역할을 부여합니다.

Google 애널리틱스 4 이벤트 가져오기

Search for Retail 콘솔 또는 userEvents.import 메서드를 사용하여 Google 애널리틱스 4 이벤트를 가져올 수 있습니다.

콘솔을 사용하여 Google 애널리틱스 4 이벤트 가져오기

  1. Search for Retail 콘솔에서 데이터> 페이지로 이동합니다.

    데이터 페이지로 이동
  2. 가져오기를 클릭하여 데이터 가져오기 패널을 엽니다.
  3. 사용자 이벤트를 선택합니다.
  4. 데이터 소스로 BigQuery를 선택합니다.
  5. 데이터 스키마를 선택합니다.

  6. 데이터가 있는 BigQuery 테이블을 입력합니다.
  7. 선택사항: 프로젝트의 Cloud Storage 버킷 위치를 데이터의 임시 위치로 입력합니다.
    지정하지 않으면 기본 위치가 사용됩니다. 지정하면 BigQuery 및 Cloud Storage 버킷은 같은 리전에 있어야 합니다.
  8. 선택사항: 고급 옵션 표시에서 프로젝트의 Cloud Storage 버킷 위치를 데이터의 임시 위치로 입력합니다.

    지정하지 않으면 기본 위치가 사용됩니다. 지정하면 BigQuery 및 Cloud Storage 버킷은 같은 리전에 있어야 합니다.
  9. 가져오기를 클릭합니다.

API를 사용하여 Google 애널리틱스 4 이벤트 가져오기

userEvents.import 메서드 호출 이벤트에 관한 데이터를 포함하여 사용자 이벤트를 가져옵니다. userEvents.import API 참조를 참조하세요.

dataSchema에는 user_event_ga4 값을 사용합니다.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

사용자 이벤트 인라인으로 가져오기

userEvents.import 메서드 호출에 이벤트의 데이터를 포함하여 사용자 이벤트 인라인을 가져올 수 있습니다.

가장 쉬운 방법은 사용자 이벤트 데이터를 JSON 파일에 넣고 파일을 cURL에 제공하는 것입니다.

사용자 이벤트 유형의 형식은 사용자 이벤트 정보를 참조하세요.

curl

  1. JSON 파일을 만듭니다.

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. POST 메서드 호출:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

이전 카탈로그 데이터

이전 사용자 이벤트에 표시되는 이전 카탈로그 데이터를 가져올 수도 있습니다. 이전 제품 정보로 사용자 이벤트를 강화하여 모델 정확성을 높일 수 있기 때문에 이전 카탈로그 데이터는 유용할 수 있습니다.

자세한 내용은 이전 카탈로그 데이터 가져오기를 참조하세요.

가져온 이벤트 보기

Search for Retail 콘솔 데이터 페이지의 이벤트 탭에서 이벤트 통합 측정항목을 확인합니다. 이 페이지에는 지난해에 쓰거나 가져온 모든 이벤트가 표시됩니다. 성공적인 데이터 수집 후 측정항목이 표시되는 데 최대 24시간이 걸릴 수 있습니다.

데이터 페이지로 이동

다음 단계