Importer les informations du catalogue

Cette page explique comment importer et maintenir à jour les informations de votre catalogue la date de début.

Les procédures d'importation de cette page s'appliquent aux deux recommandations et la recherche. Une fois les données importées, les deux services peuvent utiliser ces données. Vous n'avez donc pas besoin d'importer deux fois si vous utilisez les deux services.

Importer des données de catalogue à partir de BigQuery

Ce tutoriel explique comment utiliser une table BigQuery pour importer de grandes quantités de données de catalogue sans limite.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Importer des données de catalogue depuis Cloud Storage

Ce tutoriel vous explique comment importer un grand nombre d'éléments dans un catalogue.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Importer des données de catalogue de façon intégrée

Ce tutoriel explique comment importer des produits dans un catalogue de façon intégrée.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Avant de commencer

Pour pouvoir importer les informations de votre catalogue, vous devez avoir suivi les instructions de la section Avant de commencer, en particulier celles spécifiques à la configuration de votre projet, à la création d'un compte de service et à l'ajout de votre compte de service à votre environnement local.

Vous devez disposer du rôle IAM Administrateur Retail pour effectuer l'importation.

Bonnes pratiques concernant l'importation de catalogues

Des données de haute qualité sont nécessaires pour générer des résultats de haute qualité. Si vos données sont des champs manquants ou des valeurs d'espace réservé au lieu de valeurs réelles, la qualité de vos prédictions et résultats de recherche en pâtit.

Lorsque vous importez des données de catalogue, veillez à mettre en œuvre les bonnes pratiques suivantes :

  • Assurez-vous de bien réfléchir avant de déterminer quels produits ou groupes de sont des produits principaux et des variantes. Avant d'importer des données, consultez la section Niveaux de produit.

    Modifier la configuration au niveau du produit après avoir importé des données demande beaucoup d'efforts.

    Les éléments principaux sont renvoyés sous forme de résultats de recherche ou de recommandations. Variante ne le sont pas.

    Par exemple, si le groupe de SKU principal est "Chemise à col en V", alors le modèle de recommandation renvoie un tee-shirt à col en V et, éventuellement, à col ras du cou et une chemise à col élastique. Toutefois, si aucune variante n'est utilisée et que chaque SKU est une référence, alors chaque combinaison couleur/taille d'une chemise à col en V s'affiche sous la forme d'un article distinct dans le panneau de recommandations: "Col en V marron chemise, taille XL", "chemise marron col en V, taille L", à "col en V blanc" chemise, taille M", "Chemise blanche à col en V, taille S".

  • Respectez les limites d'importation de produits.

    Pour les importations groupées depuis Cloud Storage, la taille de chaque fichier doit être inférieure ou égale à 2 Go. Vous pouvez inclure jusqu'à 100 fichiers à la fois dans une seule requête d'importation groupée.

    Pour l'importation intégrée, vous ne pouvez pas importer plus de 5000 produits à la fois.

  • Assurez-vous que toutes les informations requises sur le catalogue sont bien incluses et correctes.

    N'utilisez pas de valeurs d'espace réservé.

  • Incluez autant d'informations de catalogue facultatives que possible.

  • Assurez-vous que tous vos événements utilisent la même devise, surtout si vous prévoyez d'utiliser la console Google Cloud pour obtenir des métriques sur les revenus. L'API Vertex AI Search pour le commerce ne permet pas d'utiliser plusieurs devises par catalogue.

  • Maintenez votre catalogue à jour.

    Idéalement, vous devez mettre à jour votre catalogue quotidiennement. La planification des importations périodiques du catalogue empêche la qualité du modèle de se dégrader au fil du temps. Vous pouvez programmer des importations automatiques et récurrentes lorsque vous importez votre catalogue à l'aide de la Recherchez la console Retail. Vous pouvez également utiliser Google Cloud Scheduler pour automatiser les importations.

  • N'enregistrez pas d'événements utilisateur pour les produits qui n'ont pas encore été importés.

  • Une fois que vous avez importé les informations de catalogue, consultez les informations des rapports d'erreurs et de journalisation de votre projet.

    Il est normal qu'il y ait quelques erreurs, mais si vous rencontrez un grand nombre d'erreurs, vous devez les examiner et résoudre les problèmes de processus à l'origine de ces erreurs.

À propos de l'importation de données de catalogue

Vous pouvez importer vos données produit à partir de Merchant Center, Cloud Storage et BigQuery, ou spécifier les données de manière intégrée dans la requête. Chacune de ces procédures est des importations ponctuelles avec sauf pour l'association d'un compte Merchant Center. Programmer des importations régulières de catalogue (idéalement, une fois par jour) pour vous assurer que votre catalogue est à jour. Consultez Mettre à jour votre catalogue.

Vous pouvez également importer des produits individuels. Pour en savoir plus, consultez Importez un produit.

Remarques concernant l'importation de catalogues

Cette section décrit les méthodes pouvant être utilisées pour l'importation par lot des données de catalogue, leurs différents cas d'utilisation et certaines de leurs limites.

Synchronisation Merchant Center Description Importation des données du catalogue via Merchant Center en associant le compte avec Vertex AI Search pour le commerce. Une fois l'association effectuée, les données de catalogue dans Merchant Center sont synchronisées en temps réel Vertex AI Search pour le commerce.
Contexte d'utilisation Si vous disposez déjà d'une intégration avec Merchant Center.
Limites Compatibilité limitée des schémas. Par exemple, les collections de produits ne sont pas compatibles avec Merchant Center. Merchant Center devient la source unique de données jusqu'à ce qu'il soit dissocié. Par conséquent, tous les attributs personnalisés nécessaires doivent être ajoutés aux données Merchant Center.

Contrôle limité. Vous ne pouvez pas spécifier de champs ou d'ensembles d'éléments spécifiques à importer depuis Merchant Center. Tous les éléments et champs existants dans Merchant Center sont importés automatiquement.
BigQuery Description Importer des données à partir d'une table BigQuery précédemment chargée qui utilise le schéma Vertex AI Search pour le commerce Schéma Merchant Center. Possibilité d'utiliser la méthode la console Google Cloud ou curl.
Contexte d'utilisation Si vous avez des catalogues de produits avec de nombreux attributs. BigQuery utilise le schéma Vertex AI Search pour le commerce, qui propose plus de que les autres options d'importation, y compris la clé-valeur personnalisée .

Si vous disposez d'importants volumes de données. L'importation BigQuery n'a pas de limite de données.

Si vous utilisez déjà BigQuery.
Limites Nécessite l'étape supplémentaire de création d'une table BigQuery au schéma Vertex AI Search pour le commerce.
Cloud Storage Description Importer des données au format JSON à partir de fichiers chargés dans un bucket Cloud Storage. Chaque fichier doit avoir une taille inférieure ou égale à 2 Go, et vous pouvez importer jusqu'à 100 fichiers à la fois. L'importation peut être effectuée à l'aide de la console Google Cloud ou curl. Utilise le format de données JSON Product, qui permet d'utiliser des attributs personnalisés.
Contexte d'utilisation Si vous devez charger une grande quantité de données en une seule étape.
Limites Non idéal pour les catalogues avec des mises à jour fréquentes de l'inventaire et des prix, car les modifications ne sont pas immédiatement prises en compte.
Importation intégrée Description Importer à l'aide d'un appel à la méthode Product.import Utilisations l'objet ProductInlineSource, qui contient moins de que le schéma Vertex AI Search pour le commerce, mais il est compatible avec .
Contexte d'utilisation Si vous disposez de données de catalogue plates et non relationnelles, ou d'une fréquence élevée de mises à jour des quantités ou des prix.
Limites Vous ne pouvez pas importer plus de 100 éléments de catalogue à la fois. Cependant, il est possible d'effectuer de nombreuses étapes de chargement et aucune limite ne s'applique aux éléments.

Supprimer définitivement les branches du catalogue

Si vous importez de nouvelles données de catalogue dans une branche existante, il est important que la branche de catalogue est vide. Cela garantit l'intégrité des données importées la branche. Lorsque la branche est vide, vous pouvez importer de nouvelles données de catalogue, puis associer la branche à un compte marchand.

Si vous diffusez du trafic de recherche ou de prédiction en temps réel, et que vous prévoyez de supprimer définitivement le trafic par défaut envisagez de spécifier une autre branche par défaut avant de la supprimer définitivement. Comme la branche par défaut renvoie des résultats vides après avoir été purgée, la suppression une branche par défaut active peut provoquer une panne.

Pour supprimer définitivement les données d'une branche de catalogue, procédez comme suit:

  1. Accédez à Données> de la console Search for Retail.

    Accéder à la page "Données"

  2. Sélectionnez une branche de catalogue dans le champ Nom de la branche.

  3. Dans le menu à trois points à côté du champ Nom de la branche, sélectionnez Supprimer définitivement branche.

    Un message s'affiche pour vous informer que vous êtes sur le point de supprimer toutes les données de la branche ainsi que tous les attributs créés pour celle-ci.

  4. Saisissez la branche, puis cliquez sur Confirmer pour supprimer définitivement les données du catalogue du ou une autre branche.

    Une opération de longue durée démarre pour supprimer définitivement les données de la branche de catalogue. Une fois l'opération de suppression définitive terminée, l'état de celle-ci est affiché dans la liste Catalogue de produits dans la section État de l'activité. fenêtre.

Synchroniser Merchant Center avec Vertex AI Search pour le commerce

Pour une synchronisation continue entre Merchant Center et Vertex AI Search pour le commerce, vous pouvez associer votre compte Merchant Center à Vertex AI Search pour le commerce. Une fois l'association effectuée, les informations du catalogue le compte Merchant Center est immédiatement importé dans Vertex AI Search pour le commerce.

Lorsque vous configurez une synchronisation Merchant Center pour Vertex AI Search pour le commerce, le rôle d'administrateur doit vous être attribué dans Merchant Center. Bien qu'un rôle avec accès standard vous permette de lire les flux Merchant Center dans l'UI, vous recevrez un message d'erreur lorsque vous tenterez de synchroniser Merchant Center avec Vertex AI Search pour le commerce. Par conséquent, avant de pouvoir synchroniser correctement votre compte Merchant Center avec Vertex AI Search pour le commerce, vous devrez mettre à niveau votre rôle en conséquence.

Même si Vertex AI Search pour le commerce est associé à Merchant Center de vos données produit dans Merchant Center, sont automatiquement mis à jour en quelques minutes dans Vertex AI Search pour le commerce. Si vous souhaitez empêcher la synchronisation des modifications apportées à Merchant Center à Vertex AI Search pour le commerce, vous pouvez dissocier votre compte Merchant Center.

Dissocier votre compte Merchant Center n'en supprime pas dans Vertex AI Search pour le commerce. Pour supprimer des produits importés, consultez Supprimer des informations sur un produit

Pour synchroniser votre compte Merchant Center, procédez comme suit :

Console

  1. Accédez à Données> de la console Search for Retail.

    Accéder à la page "Données"
  2. Cliquez sur Importer pour ouvrir le panneau Importer des données.
  3. Sélectionnez Catalogue de produits.
  4. Sélectionnez Merchant Center Sync comme source de données.
  5. Sélectionnez votre compte Merchant Center. Si vous ne voyez pas votre compte, cochez la case Accès utilisateur.
  6. Facultatif: Sélectionnez Filtre de flux Merchant Center pour importer uniquement les offres des flux sélectionnés.

    Si aucune valeur n'est spécifiée, les offres de tous les flux sont importées (y compris les futurs flux).
  7. Facultatif: Pour importer uniquement des offres ciblant certains pays ou certaines langues, développez Afficher les options avancées, puis sélectionnez les pays de vente et les langues Merchant Center à filtrer.
  8. Sélectionnez la branche dans laquelle vous allez importer votre catalogue.
  9. Cliquez sur Import (Importer).

curl

  1. Vérifiez que le compte de service de votre environnement local a accès au compte Merchant Center Vertex AI Search pour le commerce. Pour vérifier quels comptes ont accès à votre compte Merchant Center, consultez la section Accès des utilisateurs à Merchant Center.

  2. Utilisez la méthode MerchantCenterAccountLink.create pour établir l'association.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
     --data '{
      "merchantCenterAccountId": MERCHANT_CENTER_ID,
      "branchId": "BRANCH_ID",
      "feedFilters": [
        {"primaryFeedId": PRIMARY_FEED_ID_1}
        {"primaryFeedId": PRIMARY_FEED_ID_2}
      ],
      "languageCode": "LANGUAGE_CODE",
      "feedLabel": "FEED_LABEL",
     }' \
     "https://retail.googleapis.com/v2alpha/projects/PROJECT_ID/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
    
    • MERCHANT_CENTER_ID: ID du votre compte Merchant Center.
    • BRANCH_ID: ID de la branche où établir l'association . Accepte les valeurs "0", "1" ou "2".
    • LANGUAGE_CODE (FACULTATIF) : code de langue à deux lettres du les produits que vous souhaitez importer. Vu dans Merchant Center dans la colonne "Language" produit. Si cette règle n'est pas configurée, toutes les langues sont importées.
    • FEED_LABEL (FACULTATIF) : libellé du flux des produits que vous souhaitez importer. Le libellé du flux s'affiche Merchant Center dans le libellé du flux du produit. produit de colonne. Si cette règle n'est pas configurée, tous les libellés de flux sont importés.
    • FEED_FILTERS (FACULTATIF) : liste des flux principaux d'où proviennent les produits importés. Si vous ne sélectionnez aucun flux, Les flux du compte Merchant Center sont partagés. Les identifiants sont disponibles dans la ressource de flux de données de Content API ou par accédez à Merchant Center, sélectionnez un flux obtenir l'ID du flux à partir du paramètre dataSourceId dans l'URL du site. Par exemple, mc/products/sources/detail?a=MERCHANT_CENTER_ID&dataSourceId=PRIMARY_FEED_ID.

Pour afficher le compte Merchant Center associé, accédez à Recherchez la page Données de la console Retail, puis cliquez sur Merchant Center. en haut à droite de la page. Le compte Merchant Center associé s'ouvre Comptes. Vous pouvez aussi ajouter d'autres comptes Merchant Center comptes de ce panneau.

Consultez la section Afficher les informations globales sur votre catalogue pour découvrir comment des instructions sur la façon d'afficher les produits qui ont été importés.

Répertoriez les associations de vos comptes Merchant Center.

Console

  1. Accédez à Données> de la console Search for Retail.

    Accéder à la page "Données"

  2. Cliquez sur le bouton Merchant Center en haut à droite de la page pour ouvrir la liste de vos comptes Merchant Center associés.

curl

Utiliser la méthode MerchantCenterAccountLink.list pour lister la ressource des liens.

curl -X GET \
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
 -H "Content-Type: application/json; charset=utf-8" \
 "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"

Si vous dissociez votre compte Merchant Center, il n'est plus synchroniser les données du catalogue avec Vertex AI Search pour le commerce. Cette procédure n'a pas pour effet dans Vertex AI Search pour le commerce qui ont déjà été importées.

Console

  1. Accédez à Données> de la console Search for Retail.

    Accéder à la page "Données"

  2. Cliquez sur le bouton Merchant Center en haut à droite de la page pour ouvrir la liste de vos comptes Merchant Center associés.

  3. Cliquez sur Dissocier à côté du compte Merchant Center que vous dissociez, puis confirmez votre choix dans la boîte de dialogue qui s'affiche.

curl

Utilisez le MerchantCenterAccountLink.delete pour supprimer la ressource MerchantCenterAccountLink.

curl -X DELETE \
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
 -H "Content-Type: application/json; charset=utf-8" \
 "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks/BRANCH_ID_MERCHANT_CENTER_ID"

Limites de l'association à Merchant Center

  • Un compte Merchant Center peut être associé à un nombre illimité de branches de catalogue, mais une branche de catalogue donnée ne peut être associée qu'à un seul compte Merchant Center.

  • Un compte Merchant Center ne peut pas être multicompte (MC). Toutefois, vous pouvez associer sous-comptes.

  • La première importation après l'association de votre compte Merchant Center peut prendre plusieurs heures. La durée dépend du nombre d'offres dans le compte Merchant Center.

  • Toute modification de produit à l'aide de méthodes API désactivé pour les succursales associées à un compte Merchant Center. Toute modification des données de catalogue de produits dans ces branches doit être effectuée via Merchant Center. Ces modifications sont ensuite automatiquement synchronisées à Vertex AI Search pour le commerce.

  • Le type de produit de collection n'est pas compatible avec les branches utilisant l'association à Merchant Center.

  • Votre compte Merchant Center ne peut être associé qu'à des branches de catalogue vides pour garantir l'exactitude des données. Pour supprimer des produits d'un catalogue consultez la page Supprimer des informations sur un produit.

Importer des données de catalogue depuis Merchant Center

Merchant Center est un outil que vous pouvez utiliser pour rendre vos données de magasins et de produits disponibles pour les annonces Shopping et d'autres services Google.

Vous pouvez importer des données de catalogue de manière groupée depuis Merchant Center en tant que une seule fois à partir de BigQuery à l'aide du Schéma Merchant Center (recommandations uniquement)

Importation groupée depuis Merchant Center

Vous pouvez importer des données de catalogue depuis Merchant Center à l'aide de l' Recherchez la console Retail ou la méthode products.import. Groupée l'importation est une procédure ponctuelle, qui n'est prise en charge recommandations.

Pour importer votre catalogue à partir de Merchant Center, procédez comme suit :

  1. À l'aide des instructions de la section Transferts Merchant Center, configurez un transfert de Merchant Center vers BigQuery.

    Vous utiliserez le schéma des tables de produits Google Merchant Center. Configurez votre transfert de manière à ce qu'il se répète quotidiennement, mais configurez le délai d'expiration de l'ensemble de données à deux jours.

  2. Si votre ensemble de données BigQuery se trouve dans un autre projet, configurez le les autorisations requises pour que Vertex AI Search pour le commerce puisse accéder ensemble de données BigQuery. En savoir plus

  3. Importez vos données de catalogue dans BigQuery Vertex AI Search pour le commerce.

    Console

    1. Accédez à Données> de la console Search for Retail.

      Accéder à la page "Données"

    2. Cliquez sur Importer pour ouvrir le panneau d'importation.

    3. Sélectionnez Catalogue de produits.

    4. Sélectionnez BigQuery comme source de données.

    5. Sélectionnez la branche dans laquelle vous allez importer votre catalogue.

    6. Sélectionnez Merchant Center comme schéma de données.

    7. Renseignez la table BigQuery dans laquelle se trouvent vos données.

    8. Facultatif: Saisissez l'emplacement d'un bucket Cloud Storage dans votre projet en tant qu'emplacement temporaire pour vos données.

      Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.

    9. Choisissez de planifier ou non une importation récurrente de vos données de catalogue.

    10. Si vous importez votre catalogue pour la première fois ou si vous le réimportez après sa suppression, sélectionnez les niveaux de produit. En savoir plus sur les niveaux de produit.

      Modifiez la configuration au niveau du produit après avoir importé des les données nécessitent un effort important.

    11. Cliquez sur Importer.

    curl

    1. Si vous importez votre catalogue pour la première fois ou si vous le réimportez après sa suppression, définissez vos niveaux de produits à l'aide de la méthode Catalog.patch. Cette opération nécessite le rôle "Administrateur Retail". En savoir plus sur les niveaux de produit.

      • ingestionProductType : accepte les valeurs primary (par défaut) et variant.
      • merchantCenterProductIdField : accepte les valeurs offerId (par défaut) et itemGroupId. Si vous n'utilisez pas Merchant Center, défini sur la valeur par défaut offerId.
      curl -X PATCH \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
      --data '{
      "productLevelConfig": {
        "ingestionProductType": "PRODUCT_TYPE",
        "merchantCenterProductIdField": "PRODUCT_ID_FIELD"
      }
      }' \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
    2. Importez votre catalogue en utilisant la méthode Products.import.

      • DATASET_ID : ID de l'ensemble de données BigQuery.
      • TABLE_ID : ID de la table BigQuery contenant vos données.
      • STAGING_DIRECTORY : facultatif. Un répertoire Cloud Storage utilisé comme emplacement provisoire pour vos données avant leur importation dans BigQuery. Laissez ce champ vide pour créer automatiquement (recommandé).
      • ERROR_DIRECTORY : facultatif. Un répertoire Cloud Storage contenant des informations sur les erreurs d'importation. Quitter ce champ vide pour créer automatiquement répertoire temporaire (recommandé).
      • dataSchema : pour la propriété dataSchema, utilisez la valeur product_merchant_center. Consultez le schéma des tables de produits Merchant Center.

      Nous vous recommandons de ne pas spécifier de répertoires de préproduction ou d'erreur. un bucket Cloud Storage avec de nouveaux répertoires de préproduction et d'erreur créés automatiquement. Ces répertoires sont créés dans le même région que l'ensemble de données BigQuery, et sont uniques pour chaque importation (ce qui empêche plusieurs jobs d'importation de stocker des données dans le même répertoire, et potentiellement réimporter les mêmes données). Après trois jours, le bucket et les répertoires sont automatiquement supprimés afin de réduire les coûts de stockage.

      Un nom de bucket créé automatiquement inclut l'ID du projet, la région du bucket et le nom du schéma de données, séparés par des traits de soulignement (par exemple, 4321_us_catalog_retail). Les répertoires créés automatiquement sont appelés staging ou errors, et un numéro (par exemple, staging2345 ou errors5678) leur est ajouté.

      Si vous spécifiez des répertoires, le bucket Cloud Storage doit se trouver dans la même région que l'ensemble de données BigQuery. Dans le cas contraire, l'importation échoue. Fournissez les répertoires de préproduction et d'erreur au format gs://<bucket>/<folder>/ (ils doivent être différents).

      curl -X POST \
           -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
           -H "Content-Type: application/json; charset=utf-8" \
           --data '{
             "inputConfig":{
                "bigQuerySource": {
                  "datasetId":"DATASET_ID",
                  "tableId":"TABLE_ID",
                  "dataSchema":"product_merchant_center"
                }
              }
          }' \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
    

Importer des données de catalogue à partir de BigQuery

Pour importer des données de catalogue au bon format à partir de BigQuery, utilisez le schéma Vertex AI Search pour le commerce afin de créer une table BigQuery en utilisant le format approprié ; chargez la table vide avec vos données de catalogue. Ensuite, importez vos données à Vertex AI Search pour le commerce.

Pour plus d'informations sur les tables BigQuery, consultez la page Présentation des tables. Pour obtenir de l'aide sur les requêtes BigQuery, consultez la page Présentation des requêtes de données dans BigQuery.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Pour importer votre catalogue, procédez comme suit :

  1. Si votre ensemble de données BigQuery se trouve dans un autre projet, configurez le les autorisations requises pour que Vertex AI Search pour le commerce puisse accéder ensemble de données BigQuery. En savoir plus

  2. Importez vos données de catalogue dans Vertex AI Search pour le commerce.

    Console

    1. Accédez à Données> de la console Search for Retail.

      Accéder à la page "Données"
    2. Cliquez sur Importer pour ouvrir le panneau Importer des données.
    3. Sélectionnez Catalogue de produits.
    4. Sélectionnez BigQuery comme source de données.
    5. Sélectionnez la branche dans laquelle vous allez importer votre catalogue.
    6. Sélectionnez Retail Product Catalogs Schema (Schéma Retail Product Catalogs). Voici le schéma de produit pour Vertex AI Search pour le commerce.
    7. Renseignez la table BigQuery dans laquelle se trouvent vos données.
    8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.

      Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si elles sont spécifiées, les tables BigQuery le bucket Cloud Storage doit se trouver dans la même région.
    9. Si la recherche n'est pas activée et que vous utilisez le schéma Merchant Center, sélectionnez le niveau du produit.

      Vous devez sélectionnez le niveau de produit s'il s'agit de la première importation de votre catalogue réimporter le catalogue après l'avoir supprimé définitivement. En savoir plus sur les niveaux de produits. Modification au niveau des produits une fois que vous avez importé des données, cela demande des efforts importants.

      Important:Vous ne pouvez pas activer la recherche de projets avec un qui a été ingéré en tant que variantes.
    10. Cliquez sur Importer.

    curl

    1. Si vous importez votre catalogue pour la première fois ou si vous le réimportez après sa suppression, définissez vos niveaux de produits à l'aide de la méthode Catalog.patch. Cette opération nécessite le rôle "Administrateur Retail".

      • ingestionProductType : accepte les valeurs primary (par défaut) et variant.
      • merchantCenterProductIdField : accepte les valeurs offerId et itemGroupId. Si vous n'utilisez pas Merchant Center, vous n'avez pas besoin de définir ce champ.
      curl -X PATCH \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
       --data '{
         "productLevelConfig": {
           "ingestionProductType": "PRODUCT_TYPE",
           "merchantCenterProductIdField": "PRODUCT_ID_FIELD"
         }
       }' \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
      
    2. Créez un fichier de données pour les paramètres d'entrée de l'importation.

      Utilisez l'objet BigQuerySource pour pointer vers votre ensemble de données BigQuery.

      • DATASET_ID : ID de l'ensemble de données BigQuery.
      • TABLE_ID : ID de la table BigQuery contenant vos données.
      • PROJECT_ID : ID du projet dans lequel se trouve la source BigQuery S'il n'est pas spécifié, l'ID du projet est hérité de la requête parente.
      • STAGING_DIRECTORY : facultatif. Un répertoire Cloud Storage utilisé comme emplacement provisoire pour vos données avant leur importation dans BigQuery. Laissez ce champ vide pour créer automatiquement (recommandé).
      • ERROR_DIRECTORY : facultatif. Un répertoire Cloud Storage contenant des informations sur les erreurs d'importation. Quitter ce champ vide pour créer automatiquement répertoire temporaire (recommandé).
      • dataSchema : pour la propriété dataSchema, utilisez la valeur product (par défaut). Vous utiliserez la méthode Schéma Vertex AI Search pour le commerce :

      Nous vous recommandons de ne pas spécifier de répertoires de préproduction ou d'erreur. un bucket Cloud Storage avec de nouveaux répertoires de préproduction et d'erreur créés automatiquement. Ces répertoires sont créés dans le même région que l'ensemble de données BigQuery, et sont uniques pour chaque importation (ce qui empêche plusieurs jobs d'importation de stocker des données dans le même répertoire, et potentiellement réimporter les mêmes données). Après trois jours, le bucket et les répertoires sont automatiquement supprimés afin de réduire les coûts de stockage.

      Un nom de bucket créé automatiquement inclut l'ID du projet, la région du bucket et le nom du schéma de données, séparés par des traits de soulignement (par exemple, 4321_us_catalog_retail). Les répertoires créés automatiquement sont appelés staging ou errors, et un numéro (par exemple, staging2345 ou errors5678) leur est ajouté.

      Si vous spécifiez des répertoires, le bucket Cloud Storage doit se trouver dans la même région que l'ensemble de données BigQuery. Dans le cas contraire, l'importation échoue. Fournissez les répertoires de préproduction et d'erreur au format gs://<bucket>/<folder>/ (ils doivent être différents).

      {
         "inputConfig":{
           "bigQuerySource": {
             "projectId":"PROJECT_ID",
             "datasetId":"DATASET_ID",
             "tableId":"TABLE_ID",
             "dataSchema":"product"}
            }
      }
      
    3. Importez les informations de votre catalogue en envoyant une requête POST au Products:import Méthode REST, en fournissant le nom du fichier de données (ici, indiqué sous la forme input.json).

      curl -X POST \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" -d @./input.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
      

      Vous pouvez vérifier l'état de manière automatisée avec l'API. Vous devriez recevoir un objet de réponse ressemblant à ceci :

      {
      "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456",
      "done": false
      }
      

      Le champ de nom est l'ID de l'objet d'opération. Pour demander l'état de cet objet, remplacez le champ de nom par la valeur renvoyée par la méthode import, jusqu'à ce que le champ done renvoie true :

      curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456"
      

      Une fois l'opération terminée, l'objet renvoyé a une valeur done de true et inclut un objet Status semblable à l'exemple suivant :

      { "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456",
      "metadata": {
        "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata",
        "createTime": "2020-01-01T03:33:33.000001Z",
        "updateTime": "2020-01-01T03:34:33.000001Z",
        "successCount": "2",
        "failureCount": "1"
      },
      "done": true,
      "response": {
      "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse",
      },
      "errorsConfig": {
        "gcsPrefix": "gs://error-bucket/error-directory"
      }
      }
      

      Vous pouvez inspecter les fichiers du répertoire d'erreurs dans Cloud Storage pour voir si des erreurs se sont produites lors de l'importation.

Configurer l'accès à votre ensemble de données BigQuery

Pour configurer l'accès lorsque votre ensemble de données BigQuery se trouve dans un autre que votre service Vertex AI Search pour le commerce, procédez comme suit.

  1. Ouvrez la page "IAM" dans Google Cloud Console.

    Ouvrir la page IAM

  2. Sélectionnez votre projet Vertex AI Search pour le commerce.

  3. Recherchez le compte de service intitulé Compte de service Retail.

    Si vous n'avez pas encore lancé d'opération d'importation, ce compte de service n'est peut-être pas répertorié. Si vous ne voyez pas le compte de service, revenez à la tâche d'importation et lancez l'importation. Si la tâche échoue en raison d'erreurs d'autorisation, revenez sur la page et cherchez à nouveau le compte de service.

  4. Copiez l'identifiant du compte de service qui ressemble à une adresse e-mail (par exemple, service-525@gcp-sa-retail.iam.gserviceaccount.com).

  5. Basculez vers votre projet BigQuery (avec le même IAM et administration). page) et cliquez sur  Accorder l'accès.

  6. Dans le champ Nouveaux comptes principaux, saisissez l'identifiant de Vertex AI Search pour le commerce. compte de service et sélectionnez le menu BigQuery > d'utilisateur BigQuery.

  7. Cliquez sur Ajouter un autre rôle, puis sélectionnez BigQuery > Éditeur de données BigQuery.

    Si vous ne souhaitez pas attribuer le rôle d'éditeur de données sur l'ensemble du projet, vous pouvez l'ajouter directement au niveau de l'ensemble de données. En savoir plus

  8. Cliquez sur Enregistrer.

Importer des données de catalogue depuis Cloud Storage

Pour importer des données de catalogue au format JSON, créez un ou plusieurs fichiers JSON contenant les données de catalogue que vous souhaitez importer, puis importez ces données dans Cloud Storage. Vous pouvez ensuite l'importer dans Vertex AI Search pour le commerce.

Pour obtenir un exemple de format d'élément de produit JSON, consultez la section Format de données JSON d'élément de produit.

Pour obtenir de l'aide concernant l'importation de fichiers dans Cloud Storage, consultez Importer des objets

  1. Assurez-vous que le compte de service Vertex AI Search pour le commerce a l'autorisation de lire et d'écrire dans le bucket.

    Le compte de service Vertex AI Search pour le commerce est listé sur la Page IAM dans la console Google Cloud sous le nom Retail Service Account. Utilisez l'identifiant du compte de service qui ressemble à une adresse e-mail (par exemple, service-525@gcp-sa-retail.iam.gserviceaccount.com) pour ajouter le compte à vos autorisations de bucket.

  2. Importez les données de votre catalogue.

    Console

    1. Accédez à Données> de la console Search for Retail.

      Accéder à la page "Données"
    2. Cliquez sur Importer pour ouvrir le panneau Importer des données.
    3. Sélectionnez Catalogue de produits comme source de données.
    4. Sélectionnez la branche dans laquelle vous allez importer votre catalogue.
    5. Sélectionnez Retail Product Catalogs Schema (Schéma Retail Product Catalogs) comme schéma.
    6. Saisissez l'emplacement Cloud Storage de vos données.
    7. Si la recherche n'est pas activée, sélectionnez les niveaux de produits.

      Vous devez sélectionnez les niveaux de produits s'il s'agit de la première importation de votre catalogue réimporter le catalogue après l'avoir supprimé définitivement. En savoir plus sur les niveaux de produits. Modification au niveau des produits une fois que vous avez importé des données, cela demande des efforts importants.

      Important:Vous ne pouvez pas activer la recherche de projets avec un qui a été ingéré en tant que variantes.
    8. Cliquez sur Importer.

    curl

    1. Si vous importez votre catalogue pour la première fois ou si vous le réimportez après sa suppression, définissez vos niveaux de produits à l'aide de la méthode Catalog.patch. En savoir plus sur les niveaux de produit.

      • ingestionProductType : accepte les valeurs primary (par défaut) et variant.
      • merchantCenterProductIdField : accepte les valeurs offerId et itemGroupId. Si vous n'utilisez pas Merchant Center, vous n'avez pas besoin de définir ce champ.
      curl -X PATCH \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
       --data '{
         "productLevelConfig": {
           "ingestionProductType": "PRODUCT_TYPE",
           "merchantCenterProductIdField": "PRODUCT_ID_FIELD"
         }
       }' \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
      
    2. Créez un fichier de données pour les paramètres d'entrée de l'importation. Utilisez l'objet GcsSource pour pointer vers votre bucket Cloud Storage.

      Vous pouvez fournir plusieurs fichiers ou un seul ; cet exemple utilise deux fichiers.

      • INPUT_FILE : un ou plusieurs fichiers Cloud Storage contenant vos données de catalogue.
      • ERROR_DIRECTORY : répertoire Cloud Storage contenant des informations sur les erreurs d'importation.

      Les champs du fichier d'entrée doivent être au format gs://<bucket>/<path-to-file>/. Le répertoire d'erreur doit être au format gs://<bucket>/<folder>/. Si le répertoire d'erreur n'existe pas, il est créé. Le bucket doit déjà exister.

      {
      "inputConfig":{
       "gcsSource": {
         "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"]
        }
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
      }
      
    3. Importez les informations de votre catalogue une requête POST au REST Products:import ; , en indiquant le nom du fichier de données (ici, indiqué sous la forme input.json).

      curl -X POST \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" -d @./input.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
      

      Le moyen le plus simple de vérifier l'état de votre opération d'importation consiste à utiliser la console Google Cloud. Pour en savoir plus, consultez Afficher l'état d'une opération d'intégration spécifique

      Vous pouvez aussi vérifier l'état de manière automatisée avec l'API. Vous devriez recevoir un objet de réponse ressemblant à ceci :

      {
      "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456",
      "done": false
      }
      

      Le champ de nom est l'ID de l'objet d'opération. Il vous suffit d'interroger l'état de cet objet en remplaçant le champ de nom par la valeur renvoyée par la méthode d'importation jusqu'à ce que le champ done renvoie true :

      curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/[OPERATION_NAME]"
      

      Une fois l'opération terminée, l'objet renvoyé a une valeur done de true et inclut un objet Status semblable à l'exemple suivant :

      { "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456",
      "metadata": {
        "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata",
        "createTime": "2020-01-01T03:33:33.000001Z",
        "updateTime": "2020-01-01T03:34:33.000001Z",
        "successCount": "2",
        "failureCount": "1"
      },
      "done": true,
      "response": {
      "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse"
      },
      "errorsConfig": {
        "gcsPrefix": "gs://error-bucket/error-directory"
      }
      }
      

      Vous pouvez inspecter les fichiers du répertoire d'erreurs dans Cloud Storage pour voir le type d'erreurs survenues lors de l'importation.

Importer des données de catalogue de façon intégrée

curl

Vous importez les informations de votre catalogue en envoyant une requête POST à la méthode REST Products:import. Utiliser l'objet productInlineSource pour spécifier votre catalogue données.

Fournissez un produit entier sur une seule ligne. Chaque produit doit être indépendant ligne.

Pour obtenir un exemple de format d'élément de produit JSON, consultez la section Format de données JSON d'élément de produit.

  1. Créez le fichier JSON de votre produit et appelez-le ./data.json :

    {
    "inputConfig": {
    "productInlineSource": {
      "products": [
        { PRODUCT_1 }
        { PRODUCT_2 }
      ]
    }
    }
    }
    
  2. Appelez la méthode POST :

    curl -X POST \
     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
     -H "Content-Type: application/json; charset=utf-8" \
     --data @./data.json \
    "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
    

Java

public static String importProductsFromInlineSource(
    List<Product> productsToImport)
    throws IOException, InterruptedException, ExecutionException {
  ProductServiceClient productClient = getProductServiceClient();

  ProductInlineSource inlineSource = ProductInlineSource.newBuilder()
      .addAllProducts(productsToImport)
      .build();

  ProductInputConfig inputConfig = ProductInputConfig.newBuilder()
      .setProductInlineSource(inlineSource)
      .build();

  ImportProductsRequest importRequest = ImportProductsRequest.newBuilder()
      .setParent(IMPORT_PARENT)
      .setRequestId(REQUEST_ID)
      .setReconciliationMode(ReconciliationMode.INCREMENTAL)
      .setInputConfig(inputConfig)
      .build();

  String operationName = productClient
      .importProductsAsync(importRequest).getName();

  productClient.shutdownNow();
  productClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Format des données JSON de produit

Les entrées Product de votre fichier JSON doivent ressembler aux exemples suivants.

Fournissez un produit entier sur une seule ligne. Chaque produit doit être indépendant ligne.

Champs obligatoires minimum :

  {
    "id": "1234",
    "categories": "Apparel & Accessories > Shoes",
    "title": "ABC sneakers"
  }
  {
    "id": "5839",
    "categories": "casual attire > t-shirts",
    "title": "Crew t-shirt"
  }

Objet complet :

  {
    "name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/1234",
    "id": "1234",
    "categories": "Apparel & Accessories > Shoes",
    "title": "ABC sneakers",
    "description": "Sneakers for the rest of us",
    "attributes": { "vendor": {"text": ["vendor123", "vendor456"]} },
    "language_code": "en",
    "tags": [ "black-friday" ],
    "priceInfo": {
      "currencyCode": "USD", "price":100, "originalPrice":200, "cost": 50
    },
    "availableTime": "2020-01-01T03:33:33.000001Z",
    "availableQuantity": "1",
    "uri":"http://example.com",
    "images": [
      {"uri": "http://example.com/img1", "height": 320, "width": 320 }
    ]
  }
  {
    "name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/4567",
    "id": "4567",
    "categories": "casual attire > t-shirts",
    "title": "Crew t-shirt",
    "description": "A casual shirt for a casual day",
    "attributes": { "vendor": {"text": ["vendor789", "vendor321"]} },
    "language_code": "en",
    "tags": [ "black-friday" ],
    "priceInfo": {
      "currencyCode": "USD", "price":50, "originalPrice":60, "cost": 40
    },
    "availableTime": "2020-02-01T04:44:44.000001Z",
    "availableQuantity": "2",
    "uri":"http://example.com",
    "images": [
      {"uri": "http://example.com/img2", "height": 320, "width": 320 }
    ]
  }

Historique de données de catalogue

Vertex AI Search pour le commerce permet d'importer et de gérer des données historiques des données de catalogue. L'historique des données de catalogue peut être utile lorsque vous utilisez l'historique des événements utilisateur pour l'entraînement de modèle. Les informations produit antérieures peuvent être utilisées pour enrichir les données historiques des événements utilisateur et améliorer la précision du modèle.

Les anciens produits sont stockés sous la forme de produits arrivés à expiration. Ils ne sont pas renvoyés dans les réponses de recherche, mais sont visibles par les appels d'API Update, List et Delete.

Importer l'historique de données de catalogue

Lorsque le champ expireTime d'un produit est défini sur un horodatage antérieur, ce produit est considéré comme un ancien produit. Définir le produit availability [disponibilité] sur OUT_OF_STOCK pour éviter tout impact recommandations.

Nous vous recommandons d'utiliser les méthodes suivantes pour importer les données de l'historique du catalogue :

Appeler la méthode Product.Create

Utilisez la méthode Product.Create pour créer une entrée Product avec le champ expireTime défini sur un horodatage antérieur.

Importation intégrée de produits arrivés à expiration

La procédure est la même que pour l'importation intégrée, si ce n'est que les produits les champs expireTime doivent être définis sur une date antérieure du code temporel.

Fournissez un produit entier sur une seule ligne. Chaque produit doit être indépendant ligne.

Voici un exemple de ./data.json utilisé dans la requête d'importation intégrée :

{
"inputConfig": {
  "productInlineSource": {
      "products": [
          {
            "id": "historical_product_001",
            "categories": "Apparel & Accessories > Shoes",
            "title": "ABC sneakers",
            "expire_time": {
              "second": "2021-10-02T15:01:23Z"  // a past timestamp
            }
          },
          {
            "id": "historical product 002",
            "categories": "casual attire > t-shirts",
            "title": "Crew t-shirt",
            "expire_time": {
              "second": "2021-10-02T15:01:24Z"  // a past timestamp
            }
          }
      ]
    }
  }
}

Importer des produits arrivés à expiration à partir de BigQuery ou de Cloud Storage

Utilisez les mêmes procédures que celles documentées pour Importer des données de catalogue à partir de BigQuery Importer des données de catalogue à partir de Cloud Storage Toutefois, assurez-vous de définir le champ expireTime à un horodatage passé.

Maintenez votre catalogue à jour

Pour des résultats optimaux, votre catalogue doit contenir des informations à jour. Nous vous recommandons d'importer votre catalogue quotidiennement pour vous assurer qu'il reste bien à jour. Vous pouvez utiliser Google Cloud Scheduler pour planifier des importations ou choisir une de planification automatique lorsque vous importez des données à l'aide du console Google Cloud.

Vous pouvez ne mettre à jour que les produits nouveaux ou modifiés, ou importer l'intégralité du catalogue. Si vous importez des produits qui figurent déjà dans votre catalogue, ils ne sont pas ajoutés à nouveau. Tous les produits modifiés sont mis à jour.

Pour mettre à jour un seul article, consultez l'article Mettre à jour les informations sur les produits.

Mise à jour groupée

Vous pouvez utiliser la méthode d'importation pour mettre à jour votre catalogue de manière groupée. À faire de la même manière que l'importation initiale. suivez les étapes décrites dans Importer des données de catalogue

Surveiller l'état des importations

Pour surveiller l'ingestion et l'état du catalogue:

  1. Afficher des informations globales sur votre catalogue et l'aperçu importé Produits dans l'onglet Catalogue de la recherche pour le commerce Données.

    Accéder à la page "Données"

  2. Déterminez si vous devez mettre à jour les données du catalogue pour améliorer la qualité des résultats de recherche et accéder à des niveaux de performances Page Qualité des données.

    Découvrez comment vérifier la qualité des données de recherche et afficher les performances de recherche pour en savoir plus, consultez l'article Accéder aux niveaux de performances sur le Réseau de Recherche. Pour obtenir un résumé de de catalogue disponibles sur cette page, consultez Métriques de qualité du catalogue.

    Accéder à la page "Qualité des données"

  3. Pour créer des alertes qui vous avertissent en cas de problème avec vos données les importations, suivez les procédures décrites dans Configurer des alertes Cloud Monitoring.

    Il est important de maintenir votre catalogue à jour pour obtenir des contenus de haute qualité résultats. Utilisez des alertes pour surveiller les taux d'erreur lors de l'importation et prendre des mesures nécessaires.

Étape suivante