이 문서는 Recommendations AI 전용 문서입니다. 제한된 GA 단계에서 Retail Search 및 통합 Retail 콘솔을 사용해 보려면 Cloud 영업팀에 문의하세요. Retail Search를 사용할 계획이 없으면 추가 알림이 있을 때까지 권장사항 콘솔에 남아 있으세요.

Recommendations AI의 v1beta 버전을 사용하는 경우 Retail API 버전으로 마이그레이션합니다.

카탈로그 정보 가져오기

이 페이지에서는 카탈로그 정보를 Recommendations AI로 가져오고 최신 상태로 유지하는 방법을 설명합니다.

시작하기 전에

카탈로그 정보를 가져오려면 먼저 시작하기 전에에서도 특히 프로젝트 설정, 서비스 계정 만들기, 로컬 환경에 서비스 계정 추가의 안내를 완료해야 합니다.

카탈로그를 가져오기 전에 제품 수준을 선택해야 하며, 가져오기를 실행하려면 Retail 관리자 IAM 역할이 있어야 합니다.

카탈로그 가져오기 권장사항

Recommendations AI가 고품질 예측을 수행하려면 고품질 데이터가 필요합니다. 데이터에 필드가 없거나 실제 값 대신 자리표시자 값이 있는 경우 예측 품질이 저하됩니다.

카탈로그 데이터를 가져올 때는 다음 권장사항을 구현해야 합니다.

  • 데이터를 업로드하기 전에 제품 수준 정보를 검토하세요.

    데이터를 가져온 후에 제품 수준을 변경하려면 상당한 노력이 필요합니다.

  • 제품 항목 가져오기 한도를 준수하세요.

    Cloud Storage에서 일괄적으로 가져오려면 각 파일의 크기가 2GB 이하여야 합니다. 일괄 가져오기 요청 하나당 한 번에 최대 100개의 파일을 포함할 수 있습니다.

    인라인 가져오기의 경우에는 한 번에 5,000개 이하의 제품 항목을 가져오세요.

  • 모든 필수 카탈로그 정보가 포함되어 있고 올바른지 확인합니다.

    더미 또는 자리표시자 값을 사용하지 않습니다.

  • 선택적 카탈로그 정보를 최대한 많이 포함합니다.

  • 모든 이벤트는 단일 통화를 사용해야 합니다(특히 Cloud Console을 사용해 수익 측정항목을 확인하려는 경우). Retail API는 카탈로그당 여러 통화의 사용을 지원하지 않습니다.

  • 카탈로그를 최신 상태로 유지합니다.

    카탈로그를 매일 업데이트하는 것이 좋습니다. 주기적 카탈로그 가져오기를 예약하면 시간이 지남에 따라 모델 품질이 저하되지 않습니다. Google Cloud Scheduler를 사용하면 이 작업을 자동화할 수 있습니다.

  • 아직 가져오지 않은 제품 항목의 사용자 이벤트는 기록하지 않습니다.

  • 카탈로그 정보를 가져온 후에 프로젝트의 오류 보고 및 로깅 정보를 검토하세요.

    몇 가지 오류가 발생하는 것이 일반적이지만 오류가 많다면 오류를 검토한 후 오류를 유발한 프로세스 문제를 해결해야 합니다.

카탈로그 데이터 가져오기

제품 데이터를 가져오려면 판매자 센터, Cloud Storage, BigQuery에서 제품 데이터를 가져오거나 요청에서 데이터 인라인을 지정합니다. 각 절차의 가져오기는 일회성입니다. 카탈로그가 최신 상태를 유지하도록 매일 카탈로그를 가져오는 것이 좋습니다. 카탈로그를 최신 상태로 유지를 참조하세요.

개별 제품 항목을 가져올 수도 있습니다. 자세한 내용은 제품 항목 업로드를 참조하세요.

판매자 센터에서 카탈로그 데이터 가져오기

Cloud Console 또는 Retail API를 사용하여 판매자 센터에서 카탈로그 데이터를 가져올 수 있습니다.

판매자 센터에서 카탈로그를 가져오려면 다음 단계를 완료하세요.

  1. 판매자 센터 전송의 안내에 따라 판매자 센터에서 BigQuery로의 전송을 설정합니다.

    Google 판매자 센터 제품 테이블 스키마를 사용합니다. 전송이 매일 반복되도록 구성하지만 데이터 세트의 만료 시간은 2일로 구성합니다.

  2. BigQuery 데이터 세트가 다른 프로젝트에 있으면 Recommendations AI가 BigQuery 데이터 세트에 액세스할 수 있도록 필요한 권한을 구성합니다. 자세히 알아보기

  3. BigQuery의 카탈로그 데이터를 Recommendations AI로 가져옵니다.

    Console

    1. Google Cloud Console에서 Recommendations AI 데이터 페이지로 이동합니다.
      Recommendations AI 데이터 페이지로 이동
    2. 가져오기를 클릭하여 카탈로그 가져오기 패널을 엽니다.
    3. 데이터가 있는 BigQuery 데이터 세트 및 테이블의 ID를 입력합니다.
    4. 프로젝트의 Cloud Storage 버킷 위치를 입력합니다.

      이 버킷이 데이터의 임시 위치로 사용됩니다.

    5. 카탈로그를 처음으로 가져오거나 삭제 후 다시 가져오는 경우 업로드(사용자 이벤트 기록) 및 예측용 제품 수준을 선택합니다.

      데이터를 가져온 후에 제품 수준을 변경하려면 상당한 노력이 필요합니다. 제품 수준 자세히 알아보기

    6. 가져오기를 클릭합니다.

    cURL

    1. 카탈로그를 처음 업로드하거나 삭제 후 다시 가져오는 경우 Catalog.patch 메서드를 사용하여 제품 수준을 설정해야 합니다. 이 작업을 수행하려면 Retail 관리자 역할이 필요합니다.

      • ingestionProductType: primary(기본값) 및 variant 값을 지원합니다.
      • merchantCenterProductIdField: offerId(기본값) 및 itemGroupId 값을 지원합니다. 판매자 센터를 사용하지 않는 경우에는 이 필드를 설정할 필요가 없습니다.
      curl -X PATCH \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
      --data '{
      "productLevelConfig": {
        "ingestionProductType": "PRODUCT-TYPE",
        "merchantCenterProductIdField": "PRODUCT-ID-FIELD"
      }
      }' \
      "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog"
    2. Products.import 메서드를 사용하여 카탈로그를 가져옵니다.

      • dataset-id: BigQuery 데이터 세트의 ID입니다.
      • table-id: 데이터를 보관하는 BigQuery 테이블의 ID입니다.
      • staging-directory: 선택사항. 데이터를 BigQuery로 가져오기 전에 데이터의 중간 위치로 사용되는 Cloud Storage 디렉터리입니다. Recommendations AI가 임시 디렉터리를 자동으로 생성하도록 하려면 이 필드를 비워 두세요(권장).
      • error-directory: 선택사항. 가져오기에 대한 오류 정보를 볼 수 있는 Cloud Storage 디렉터리입니다. Recommendations AI가 임시 디렉터리를 자동으로 생성하도록 하려면 이 필드를 비워 두세요(권장).
      • dataSchema: dataSchema 속성에 product_merchant_center 값을 사용합니다. 판매자 센터 제품 테이블 스키마를 참조하세요.

      Recommendations AI가 새 스테이징 및 오류 디렉터리로 Cloud Storage 버킷을 자동으로 만들 수 있도록 스테이징 또는 오류 디렉터리를 지정하지 않는 것이 좋습니다. 이러한 데이터 세트는 BigQuery 데이터 세트와 동일한 리전에서 생성되며 각 가져오기마다 고유합니다. 이는 스테이징 데이터를 동일한 디렉터리로 가져오는 여러 작업을 방지하며 동일한 데이터를 다시 가져오는 것을 방지합니다. 3일이 지나면 버킷 및 디렉터리가 자동으로 삭제되어 스토리지 비용이 감소합니다.

      자동으로 생성된 버킷 이름에는 프로젝트 ID, 버킷 리전, 데이터 스키마 이름이 밑줄로 구분되어 있습니다(예: 4321_us_catalog_recommendations_ai). 자동으로 생성된 디렉터리는 staging 또는 errors라고 하며 숫자가 추가됩니다(예: staging2345 또는 errors5678).

      디렉터리를 지정하는 경우 Cloud Storage 버킷이 BigQuery 데이터 세트와 같은 리전에 있어야 합니다. 그렇지 않으면 가져오기가 실패합니다. 스테이징 및 오류 디렉터리를 gs://<bucket>/<folder>/ 형식으로 지정합니다. 두 디렉터리는 서로 달라야 합니다.

      curl -X POST \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
      --data '{
      "inputConfig":{
      "bigQuerySource": {
        "datasetId":"dataset-id",
        "tableId":"table-id",
        "dataSchema":"product_merchant_center"
      }
      }
      }' \
      "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
      

BigQuery에서 카탈로그 데이터 가져오기

BigQuery에서 올바른 형식의 카탈로그 데이터를 가져오려면 Recommendations AI 스키마를 사용해 올바른 형식의 BigQuery 테이블을 만들고 카탈로그 데이터로 빈 테이블을 로드합니다. 그런 다음 데이터를 Recommendations AI에 업로드합니다.

BigQuery 테이블에 대한 도움말은 테이블 소개를 참조하세요. BigQuery 쿼리에 대한 도움말은 BigQuery 데이터 쿼리 개요를 참조하세요.

curl

  1. BigQuery 데이터 세트가 다른 프로젝트에 있으면 Recommendations AI가 BigQuery 데이터 세트에 액세스할 수 있도록 필요한 권한을 구성합니다. 자세히 알아보기

  2. 카탈로그를 처음 업로드하거나 카탈로그를 삭제한 후 다시 가져오는 경우 Catalog.patch 메서드를 사용하여 제품 수준을 설정합니다. 이 작업을 수행하려면 Recommendations AI 관리자 역할이 필요합니다.

    • ingestionProductType: primary(기본값) 및 variant 값을 지원합니다.
    • merchantCenterProductIdField: offerIditemGroupId 값을 지원합니다. 판매자 센터를 사용하지 않는 경우에는 이 필드를 설정할 필요가 없습니다.
    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
     --data '{
       "productLevelConfig": {
         "ingestionProductType": "PRODUCT-TYPE",
         "merchantCenterProductIdField": "PRODUCT-ID-FIELD"
       }
     }' \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog"
    
  3. 가져오기의 입력 매개변수에 대한 데이터 파일을 만듭니다. 입력 매개변수 값은 Cloud Storage 또는 BigQuery 중 어디에서 가져오는지에 따라 달라집니다.

    BigQuerySource 객체를 사용하여 BigQuery 데이터 세트를 가리킵니다.

    • dataset-id: BigQuery 데이터 세트의 ID입니다.
    • table-id: 데이터를 보관하는 BigQuery 테이블의 ID입니다.
    • project-id: BigQuery 소스가 있는 프로젝트 ID입니다. 지정하지 않으면 프로젝트 ID가 상위 요청에서 상속됩니다.
    • staging-directory: 선택사항. 데이터를 BigQuery로 가져오기 전에 데이터의 중간 위치로 사용되는 Cloud Storage 디렉터리입니다. Recommendations AI가 임시 디렉터리를 자동으로 생성하도록 하려면 이 필드를 비워 두세요(권장).
    • error-directory: 선택사항. 가져오기에 대한 오류 정보를 볼 수 있는 Cloud Storage 디렉터리입니다. Recommendations AI가 임시 디렉터리를 자동으로 생성하도록 하려면 이 필드를 비워 두세요(권장).
    • dataSchema: dataSchema 속성에 product(기본값) 값을 사용합니다. Recommendations AI 스키마를 사용합니다.

    Recommendations AI가 새 스테이징 및 오류 디렉터리로 Cloud Storage 버킷을 자동으로 만들 수 있도록 스테이징 또는 오류 디렉터리를 지정하지 않는 것이 좋습니다. 이러한 데이터 세트는 BigQuery 데이터 세트와 동일한 리전에서 생성되며 각 가져오기마다 고유합니다. 이는 스테이징 데이터를 동일한 디렉터리로 가져오는 여러 작업을 방지하며 동일한 데이터를 다시 가져오는 것을 방지합니다. 3일이 지나면 버킷 및 디렉터리가 자동으로 삭제되어 스토리지 비용이 감소합니다.

    자동으로 생성된 버킷 이름에는 프로젝트 ID, 버킷 리전, 데이터 스키마 이름이 밑줄로 구분되어 있습니다(예: 4321_us_catalog_recommendations_ai). 자동으로 생성된 디렉터리는 staging 또는 errors라고 하며 숫자가 추가됩니다(예: staging2345 또는 errors5678).

    디렉터리를 지정하는 경우 Cloud Storage 버킷이 BigQuery 데이터 세트와 같은 리전에 있어야 합니다. 그렇지 않으면 가져오기가 실패합니다. 스테이징 및 오류 디렉터리를 gs://<bucket>/<folder>/ 형식으로 지정합니다. 두 디렉터리는 서로 달라야 합니다.

    {
    "inputConfig":{
     "bigQuerySource": {
       "projectId": "project-id",
       "datasetId":"dataset-id",
       "tableId":"table-id",
       "dataSchema":"product"}
      }
    }
    
  4. Products:import REST 메서드에 POST 요청을 전송하여 카탈로그 정보를 Recommendations AI로 가져오고 데이터 파일의 이름을 지정합니다(여기에서는 input.json).

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" -d @./input.json
    "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
    

    가져오기 작업의 상태를 확인하는 가장 쉬운 방법은 Cloud Console을 사용하는 것입니다. 자세한 내용은 특정 통합 작업의 상태 보기를 참조하세요.

    API를 사용하여 프로그래매틱 방식으로 상태를 확인할 수도 있습니다. 다음과 같은 응답 객체가 수신됩니다.

    {
    "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "done": false
    }
    

    이름 필드는 작업 객체의 ID입니다. 이 객체의 상태를 요청하려면 done 필드가 true로 반환될 때까지 이름 필드를 가져오기 메서드에서 반환한 값으로 바꿉니다.

    curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456"
    

    작업이 완료되면 반환된 객체의 done 값이 true가 되며 다음 예시와 비슷한 상태 객체가 포함됩니다.

    { "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "metadata": {
      "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata",
      "createTime": "2020-01-01T03:33:33.000001Z",
      "updateTime": "2020-01-01T03:34:33.000001Z",
      "successCount": "2",
      "failureCount": "1"
    },
    "done": true,
    "response": {
    "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse",
    },
    "errorsConfig": {
      "gcsPrefix": "gs://error-bucket/error-directory"
    }
    }
    

    Cloud Storage의 오류 디렉터리에 있는 파일을 검사하면 가져오기 중에 발생한 오류의 종류를 확인할 수 있습니다.

BigQuery 데이터 세트에 대한 액세스 설정

BigQuery 데이터 세트가 Recommendations AI 서비스와 다른 프로젝트에 있을 때 액세스를 설정하려면 다음 단계를 완료하세요.

  1. Cloud Console에서 IAM 페이지를 엽니다.

    IAM 페이지 열기

  2. Recommendations AI 프로젝트를 선택합니다.

  3. AutoML 추천 서비스 계정이라는 이름의 서비스 계정을 찾습니다.

    이전에 Recommendations AI로 가져오기 작업을 시작한 적이 없다면 이 서비스 계정이 나열되지 않을 수 있습니다. 이 서비스 계정이 표시되지 않으면 가져오기 작업으로 돌아가서 가져오기를 시작합니다. 권한 오류로 인해 가져오기가 실패하면 여기로 돌아와 이 작업을 완료하세요.

  4. 이메일 주소와 비슷한 서비스 계정의 식별자를 복사합니다(예: service-525@gcp-sa-recommendationengine.iam.gserviceaccount.com).

  5. 동일한 IAM 및 관리자 페이지에서 BigQuery 프로젝트로 전환하고 추가를 클릭합니다.

  6. Recommendations AI 서비스 계정의 식별자를 입력하고 BigQuery > BigQuery 사용자 역할을 선택합니다.

  7. 다른 역할 추가를 클릭하고 BigQuery > BigQuery 데이터 편집자를 선택합니다.

    전체 프로젝트에 데이터 편집자 역할을 제공하지 않으려면 이 역할을 데이터 세트에 직접 추가하면 됩니다. 자세히 알아보기

  8. 저장을 클릭합니다.

Cloud Storage에서 카탈로그 데이터 가져오기

카탈로그 데이터를 JSON 형식으로 가져오려면 가져올 카탈로그 데이터가 포함된 JSON 파일을 하나 이상 만들어 Cloud Storage에 업로드합니다. Cloud Storage에서 Recommendations AI로 가져올 수 있습니다.

JSON 제품 항목 형식의 예시는 제품 항목 JSON 데이터 형식을 참조하세요.

Cloud Storage에 파일 업로드 관련 도움말은 객체 업로드를 참조하세요.

curl

  1. Recommendations AI 서비스 계정에 버킷에 대한 읽기 및 쓰기 권한이 있는지 확인합니다.

    Recommendations AI 서비스 계정은 Cloud Console의 IAM 페이지Retail 서비스 계정이라는 이름으로 나열됩니다. 계정을 버킷 권한에 추가할 때는 이메일 주소와 비슷한 식별자(예: service-525@gcp-sa-retail.iam.gserviceaccount.com)를 사용합니다.

  2. 카탈로그를 처음 업로드하거나 카탈로그를 삭제한 후 다시 가져오는 경우 Catalog.patch 메서드를 사용하여 제품 수준을 설정합니다.

    • ingestionProductType: primary(기본값) 및 variant 값을 지원합니다.
    • merchantCenterProductIdField: offerIditemGroupId 값을 지원합니다. 판매자 센터를 사용하지 않는 경우에는 이 필드를 설정할 필요가 없습니다.
    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
     --data '{
       "productLevelConfig": {
         "ingestionProductType": "PRODUCT-TYPE",
         "merchantCenterProductIdField": "PRODUCT-ID-FIELD"
       }
     }' \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog"
    
  3. 가져오기의 입력 매개변수에 대한 데이터 파일을 만듭니다. GcsSource 객체를 사용하여 Cloud Storage 버킷을 가리킵니다.

    파일은 여러 개 제공하거나 하나만 제공할 수도 있습니다. 이 예시에서는 2개의 파일을 사용합니다.

    • input-file: 카탈로그 데이터가 포함된 Cloud Storage의 파일입니다.
    • error-directory: 가져오기에 대한 오류 정보를 볼 수 있는 Cloud Storage 디렉터리입니다.

    입력 파일 필드는 gs://<bucket>/<path-to-file>/ 형식이어야 합니다. 오류 디렉터리는 gs://<bucket>/<folder>/ 형식이어야 합니다. 오류 디렉터리가 존재하지 않으면 Recommendations AI가 해당 디렉터리를 만듭니다. 버킷은 이미 있어야 합니다.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["input-file1", "input-file2"]
     }
    },
    "errorsConfig":{"gcsPrefix":"error-directory"}
    }
    
  4. Products:import REST 메서드에 POST 요청을 전송하여 카탈로그 정보를 Recommendations AI로 가져오고 데이터 파일의 이름을 지정합니다(여기에서는 input.json).

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
    -H "Content-Type: application/json; charset=utf-8" -d @./input.json"
    "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
    

    가져오기 작업의 상태를 확인하는 가장 쉬운 방법은 Cloud Console을 사용하는 것입니다. 자세한 내용은 특정 통합 작업의 상태 보기를 참조하세요.

    API를 사용하여 프로그래매틱 방식으로 상태를 확인할 수도 있습니다. 다음과 같은 응답 객체가 수신됩니다.

    {
    "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "done": false
    }
    

    이름 필드는 작업 객체의 ID입니다. 이 객체의 상태를 요청하고 done 필드가 true로 반환될 때까지 이름 필드를 가져오기 메서드에서 반환한 값으로 바꿉니다.

    curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/[OPERATION_NAME]"
    

    작업이 완료되면 반환된 객체의 done 값이 true가 되며 다음 예시와 비슷한 상태 객체가 포함됩니다.

    { "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "metadata": {
      "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata",
      "createTime": "2020-01-01T03:33:33.000001Z",
      "updateTime": "2020-01-01T03:34:33.000001Z",
      "successCount": "2",
      "failureCount": "1"
    },
    "done": true,
    "response": {
    "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse",
    },
    "errorsConfig": {
      "gcsPrefix": "gs://error-bucket/error-directory"
    }
    }
    

    Cloud Storage의 오류 디렉터리에 있는 파일을 검사하면 가져오기 중에 발생한 오류의 종류를 확인할 수 있습니다.

인라인으로 카탈로그 데이터 가져오기

curl

Products:import REST 메서드에 POST 요청을 전송하고 카탈로그 데이터를 지정하는 productInlineSource 객체를 사용하여 인라인으로 Recommendations AI에 카탈로그 정보를 가져옵니다.

JSON 제품 항목 형식의 예시는 제품 항목 JSON 데이터 형식을 참조하세요.

  1. 제품의 JSON 파일을 만들고 ./data.json이라는 이름을 지정합니다.

    {
    "inputConfig": {
    "productInlineSource": {
      "products": [
        {
          <product1>
        },
        {
          <product2>
        },
        ....
      ]
    }
    }
    }
    
  2. POST 메서드 호출:

    curl -X POST \
     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
     -H "Content-Type: application/json; charset=utf-8" \
     --data @./data.json \
    "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
    

제품 항목 JSON 데이터 형식

JSON 파일의 Product 항목은 다음 예시와 유사합니다. 줄바꿈은 가독성을 위해 사용됩니다. 전체 제품 항목을 한 줄에 제공해야 합니다. 각 제품 항목은 한 줄에 하나만 입력되어야 합니다.

최소 필수 입력란:

{
  "id": "1234",
  "categories": "Apparel & Accessories > Shoes",
  "title": "ABC sneakers"
}
{
  "id": "5839",
  "categories": "casual attire > t-shirts",
  "title": "Crew t-shirt"
}

전체 객체:

{
  "name": "projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products/1234",
  "id": "1234",
  "categories": "Apparel & Accessories > Shoes",
  "title": "ABC sneakers",
  "description": "Sneakers for the rest of us",
  "attributes": { "vendor": {"text": ["vendor123", "vendor456"]} },
  "language_code": "en",
  "tags": [ "black-friday" ],
  "priceInfo": {"currencyCode": "USD", "price":100, "originalPrice":200, "cost": 50},
  "availableTime": "2020-01-01T03:33:33.000001Z",
  "availableQuantity": "1",
  "uri":"http://foobar",
  "images": [{"uri": "http://foobar/img1", "height": 320, "width": 320 }]
}

카탈로그를 최신 상태로 유지

Recommendations AI는 최선의 권장사항을 제공하기 위해 현재 제품 정보를 활용합니다. 카탈로그가 최신 상태를 유지하도록 매일 카탈로그를 가져오는 것이 좋습니다. Google Cloud Scheduler를 사용하여 가져오기를 예약할 수 있습니다.

신규 또는 변경된 제품 항목만 업데이트하거나 전체 카탈로그를 가져올 수 있습니다. 이미 카탈로그에 있는 제품을 가져올 경우 다시 추가되지 않습니다. 변경된 모든 항목은 업데이트됩니다.

단일 항목을 업데이트하려면 카탈로그 정보 업데이트를 참조하세요.

일괄 업데이트

가져오기 메서드를 사용하여 카탈로그를 일괄 업데이트할 수 있습니다. 이 작업은 초기 가져오기를 수행할 때와 동일한 방식으로 실행합니다. 카탈로그 데이터 가져오기의 단계를 따르세요.

가져오기 상태 모니터링

고품질의 추천을 받으려면 카탈로그를 최신 상태로 유지하는 것이 중요합니다. 가져오기 오류율을 모니터링하고 필요하다면 조치를 취해야 합니다. 자세한 내용은 데이터 업로드 문제 알림 설정을 참조하세요.

다음 단계