Cette documentation ne concerne que Recommendations AI. Pour essayer Retail Search et la console Play Store unifiée pendant la phase de disponibilité limitée, contactez le service commercial Cloud. Si vous ne prévoyez pas d'utiliser Retail Search, restez dans la console "Recommandations" jusqu'à nouvel ordre.

Si vous utilisez la version v1beta de Recommendations AI, migrez vers la version Retail API.

Importer des informations du catalogue

Cette page explique comment importer les informations de votre catalogue dans Recommendations AI et comment les maintenir à jour.

Avant de commencer

Pour pouvoir importer les informations de votre catalogue, vous devez avoir suivi les instructions de la section Avant de commencer, en particulier celles spécifiques à la configuration de votre projet, à la création d'un compte de service et à l'ajout de votre compte de service à votre environnement local.

Vous devez choisir vos niveaux de produit avant d'importer votre catalogue, et vous devez disposer du rôle IAM Administrateur Retail pour pouvoir effectuer l'importation.

Bonnes pratiques concernant l'importation de catalogues

Recommendations AI nécessite des données de haute qualité pour effectuer des prédictions de haute qualité. Si des champs sont manquants dans vos données ou si elles contiennent des valeurs d'espace réservé plutôt que des valeurs réelles, la qualité de vos prédictions en souffrira.

Lorsque vous importez des données de catalogue, veillez à mettre en œuvre les bonnes pratiques suivantes :

  • Veillez à consulter les informations sur les niveaux de produit avant d'importer des données.

    La modification des niveaux de produit après l'importation de données nécessite un effort considérable.

  • Respectez les limites d'importation de produits.

    Pour les importations groupées depuis Cloud Storage, la taille de chaque fichier doit être inférieure ou égale à 2 Go. Vous pouvez inclure jusqu'à 100 fichiers à la fois dans une seule requête d'importation groupée.

    Pour l'importation intégrée, vous ne pouvez pas importer plus de 5000 produits à la fois.

  • Assurez-vous que toutes les informations requises sur le catalogue sont bien incluses et correctes.

    N'utilisez pas de valeurs factices ou de remplacement (espaces réservés).

  • Incluez autant d'informations catalogues facultatives que possible.

  • Assurez-vous que tous vos événements utilisent une seule devise, en particulier si vous prévoyez d'utiliser Cloud Console pour obtenir des métriques de revenus. L'API Retail n'accepte pas l'utilisation de plusieurs devises par catalogue.

  • Maintenez votre catalogue à jour.

    Idéalement, vous devez mettre à jour votre catalogue quotidiennement. La planification des importations périodiques du catalogue empêche la qualité du modèle de se dégrader au fil du temps. Vous pouvez utiliser Google Cloud Scheduler pour automatiser cette tâche.

  • N'enregistrez pas d'événements utilisateur pour les produits qui n'ont pas encore été importés.

  • Une fois que vous avez importé les informations de catalogue, consultez les informations des rapports d'erreurs et de journalisation de votre projet.

    Il est normal qu'il y ait quelques erreurs, mais si vous rencontrez un grand nombre d'erreurs, vous devez les examiner et résoudre les problèmes de processus à l'origine de ces erreurs.

Importer des données de catalogue

Pour importer vos données produit, vous pouvez les importer depuis Merchant Center, Cloud Storage et BigQuery, ou Spécifier les données de manière intégrée dans la requête. Ces procédures permettent de réaliser des importations ponctuelles. Nous vous recommandons d'importer votre catalogue quotidiennement pour vous assurer qu'il reste bien à jour. Consultez la page Maintenir votre catalogue à jour.

Vous pouvez également importer des produits individuels. Pour en savoir plus, consultez la page Importer un produit.

Importer des données de catalogue à partir de Merchant Center

Vous pouvez importer des données de catalogue à partir de Merchant Center en utilisant Cloud Console ou l'API Retail.

Pour importer votre catalogue à partir de Merchant Center, procédez comme suit :

  1. À l'aide des instructions de la section Transferts Merchant Center, configurez un transfert de Merchant Center vers BigQuery.

    Vous utiliserez le schéma des tables de produits Google Merchant Center. Configurez votre transfert de manière à ce qu'il se répète quotidiennement, mais configurez le délai d'expiration de l'ensemble de données à deux jours.

  2. Si votre ensemble de données BigQuery se trouve dans un autre projet, configurez les autorisations requises pour que Recommendations AI puisse y accéder. En savoir plus

  3. Importez vos données de catalogue depuis BigQuery dans Recommendations AI.

    Console

    1. Accédez à la page "Recommandations IA" de Google Cloud Console.
      Accéder à la page "Recommandations IA"
    2. Cliquez sur Importer pour ouvrir le panneau d'importation.
    3. Saisissez les ID de l'ensemble de données BigQuery et de la table dans laquelle se trouvent vos données.
    4. Saisissez l'emplacement d'un bucket Cloud Storage dans votre projet.

      Ce bucket sert d'emplacement temporaire pour vos données.

    5. Si c'est la première fois que vous importez votre catalogue, ou si vous en réimportez un après la suppression définitive, sélectionnez les niveaux de produit à importer (enregistrement des événements utilisateur) et à effectuer la prédiction.

      La modification des niveaux de produit après l'importation de données nécessite un effort considérable. En savoir plus sur les niveaux de produit.

    6. Cliquez sur Import (Importer).

    cURL

    1. Si vous importez votre catalogue pour la première fois ou si vous en réimportez un après la suppression définitive, définissez vos niveaux de produits à l'aide du Catalog.patch. Cette opération nécessite le rôle "Administrateur Retail".

      • ingestionProductType : accepte les valeurs primary (par défaut) et variant.
      • merchantCenterProductIdField : accepte les valeurs offerId (par défaut) et itemGroupId. Si vous n'utilisez pas Merchant Center, vous n'avez pas besoin de définir ce champ.
      curl -X PATCH \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
      --data '{
      "productLevelConfig": {
        "ingestionProductType": "PRODUCT-TYPE",
        "merchantCenterProductIdField": "PRODUCT-ID-FIELD"
      }
      }' \
      "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog"
    2. Importez votre catalogue en utilisant la méthode Products.import.

      • dataset-id : ID de l'ensemble de données BigQuery.
      • table-id : ID de la table BigQuery contenant vos données.
      • staging-directory : facultatif. Un répertoire Cloud Storage utilisé comme emplacement provisoire pour vos données avant leur importation dans BigQuery. Laissez ce champ vide pour permettre à Recommendations AI de créer automatiquement un répertoire temporaire (recommandé).
      • error-directory : facultatif. Un répertoire Cloud Storage contenant des informations sur les erreurs d'importation. Laissez ce champ vide pour permettre à Recommendations AI de créer automatiquement un répertoire temporaire (recommandé).
      • dataSchema : pour la propriété dataSchema, utilisez la valeur product_merchant_center. Consultez le schéma des tables de produits Merchant Center.

      Nous vous recommandons de ne pas spécifier les répertoires de préproduction ou d'erreur afin que Recommendations AI puisse créer automatiquement un bucket Cloud Storage avec de nouveaux répertoires de préproduction et d'erreur. Ils seront créés dans la même région que l'ensemble de données BigQuery et seront uniques pour chaque importation (ce qui empêche plusieurs tâches d'importation de préparer des données dans le même répertoire et de potentiellement réimporter les mêmes données). Après trois jours, le bucket et les répertoires sont automatiquement supprimés afin de réduire les coûts de stockage.

      Un nom de bucket créé automatiquement inclut l'ID du projet, la région du bucket et le nom du schéma de données, séparés par des traits de soulignement (par exemple, 4321_us_catalog_recommendations_ai). Les répertoires créés automatiquement sont appelés staging ou errors, et un numéro (par exemple, staging2345 ou errors5678) leur est ajouté.

      Si vous spécifiez des répertoires, le bucket Cloud Storage doit se trouver dans la même région que l'ensemble de données BigQuery. Dans le cas contraire, l'importation échoue. Fournissez les répertoires de préproduction et d'erreur au format gs://<bucket>/<folder>/ (ils doivent être différents).

      curl -X POST \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json; charset=utf-8" \
      --data '{
      "inputConfig":{
      "bigQuerySource": {
        "datasetId":"dataset-id",
        "tableId":"table-id",
        "dataSchema":"product_merchant_center"
      }
      }
      }' \
      "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
      

Importer des données de catalogue à partir de BigQuery

Pour importer des données de catalogue au format adapté depuis BigQuery, utilisez le schéma Recommendations AI pour créer une table BigQuery au format approprié et remplissez la table vide avec vos données de catalogue. Ensuite, importez vos données dans Recommendations AI.

Pour plus d'informations sur les tables BigQuery, consultez la page Présentation des tables. Pour obtenir de l'aide sur les requêtes BigQuery, consultez la page Présentation des requêtes de données dans BigQuery.

curl

  1. Si votre ensemble de données BigQuery se trouve dans un autre projet, configurez les autorisations requises pour que Recommendations AI puisse y accéder. En savoir plus

  2. Si vous importez votre catalogue pour la première fois ou si vous le réimportez après la suppression définitive, définissez les niveaux de produit à l'aide de la fonction Catalog.patch. Cette opération nécessite le rôle Administrateur Recommendations AI.

    • ingestionProductType : accepte les valeurs primary (par défaut) et variant.
    • merchantCenterProductIdField : accepte les valeurs offerId et itemGroupId. Si vous n'utilisez pas Merchant Center, vous n'avez pas besoin de définir ce champ.
    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
     --data '{
       "productLevelConfig": {
         "ingestionProductType": "PRODUCT-TYPE",
         "merchantCenterProductIdField": "PRODUCT-ID-FIELD"
       }
     }' \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog"
    
  3. Créez un fichier de données pour les paramètres d'entrée de l'importation. Les valeurs de vos paramètres d'entrée varient selon que vous importez depuis Cloud Storage ou BigQuery.

    Utilisez l'objet BigQuerySource pour pointer vers votre ensemble de données BigQuery.

    • dataset-id : ID de l'ensemble de données BigQuery.
    • table-id : ID de la table BigQuery contenant vos données.
    • project-id: ID du projet dans lequel se trouve la source BigQuery. S'il n'est pas spécifié, l'ID du projet est hérité de la requête parente.
    • staging-directory : facultatif. Un répertoire Cloud Storage utilisé comme emplacement provisoire pour vos données avant leur importation dans BigQuery. Laissez ce champ vide pour permettre à Recommendations AI de créer automatiquement un répertoire temporaire (recommandé).
    • error-directory : facultatif. Un répertoire Cloud Storage contenant des informations sur les erreurs liées à l'importation. Laissez ce champ vide pour permettre à Recommendations AI de créer automatiquement un répertoire temporaire (recommandé).
    • dataSchema : pour la propriété dataSchema, utilisez les valeurs product (par défaut). Vous utiliserez le schéma Recommendations AI.

    Nous vous recommandons de ne pas spécifier les répertoires de préproduction ou d'erreur afin que Recommendations AI puisse créer automatiquement un bucket Cloud Storage avec de nouveaux répertoires de préproduction et d'erreur. Ils seront créés dans la même région que l'ensemble de données BigQuery et seront uniques pour chaque importation (ce qui empêche plusieurs tâches d'importation de préparer des données dans le même répertoire et de potentiellement réimporter les mêmes données). Après trois jours, le bucket et les répertoires sont automatiquement supprimés afin de réduire les coûts de stockage.

    Un nom de bucket créé automatiquement inclut l'ID du projet, la région du bucket et le nom du schéma de données, séparés par des traits de soulignement (par exemple, 4321_us_catalog_recommendations_ai). Les répertoires créés automatiquement sont appelés staging ou errors, et un numéro (par exemple, staging2345 ou errors5678) leur est ajouté.

    Si vous spécifiez des répertoires, le bucket Cloud Storage doit se trouver dans la même région que l'ensemble de données BigQuery. Dans le cas contraire, l'importation échoue. Fournissez les répertoires de préproduction et d'erreur au format gs://<bucket>/<folder>/ (ils doivent être différents).

    {
    "inputConfig":{
     "bigQuerySource": {
       "projectId": "project-id",
       "datasetId":"dataset-id",
       "tableId":"table-id",
       "dataSchema":"product"}
      }
    }
    
  4. Importez vos informations de catalogue dans Recommendations AI en envoyant une requête POST à la méthode REST Products:import, en indiquant le nom du fichier de données (ici, sous la forme input.json).

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" -d @./input.json
    "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
    

    Le moyen le plus simple de vérifier l'état de votre opération d'importation consiste à utiliser Cloud Console. Pour en savoir plus, consultez la section Afficher l'état d'une opération d'intégration spécifique.

    Vous pouvez aussi vérifier l'état de manière automatisée avec l'API. Vous devriez recevoir un objet de réponse ressemblant à ceci :

    {
    "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "done": false
    }
    

    Le champ de nom est l'ID de l'objet d'opération. Pour demander l'état de cet objet, remplacez le champ de nom par la valeur renvoyée par la méthode d'importation, jusqu'à ce que le champ done affiche true :

    curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456"
    

    Une fois l'opération terminée, l'objet renvoyé a une valeur done de true et inclut un objet Status semblable à l'exemple suivant :

    { "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "metadata": {
      "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata",
      "createTime": "2020-01-01T03:33:33.000001Z",
      "updateTime": "2020-01-01T03:34:33.000001Z",
      "successCount": "2",
      "failureCount": "1"
    },
    "done": true,
    "response": {
    "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse",
    },
    "errorsConfig": {
      "gcsPrefix": "gs://error-bucket/error-directory"
    }
    }
    

    Vous pouvez consulter les fichiers du répertoire d'erreurs dans Cloud Storage pour voir le type d'erreurs survenues lors de l'importation.

Configurer l'accès à votre ensemble de données BigQuery

Pour configurer l'accès lorsque l'ensemble de données BigQuery se trouve dans un projet différent de celui de votre service Recommendations AI, procédez comme suit :

  1. Ouvrez la page IAM dans Cloud Console.

    Ouvrir la page IAM

  2. Sélectionnez votre projet Recommendations AI.

  3. Recherchez le compte de service intitulé Compte de service AutoML Recommendations.

    Si vous n'avez pas encore lancé d'opération d'importation avec Recommendations AI, ce compte de service peut ne pas être répertorié. Si vous ne voyez pas le compte de service, revenez à la tâche d'importation et lancez l'importation. Si la tâche échoue en raison d'erreurs d'autorisation, revenez sur la page et cherchez à nouveau le compte de service.

  4. Copiez l'identifiant du compte de service, qui ressemble à une adresse e-mail (par exemple, service-525@gcp-sa-recommendationengine.iam.gserviceaccount.com).

  5. Basculez vers votre projet BigQuery (sur la même page IAM et administration), puis cliquez sur Ajouter.

  6. Saisissez l'identifiant du compte de service Recommendations AI, puis sélectionnez le rôle BigQuery > Utilisateur BigQuery.

  7. Cliquez sur Ajouter un autre rôle, puis sélectionnez BigQuery > Éditeur de données BigQuery.

    Si vous ne souhaitez pas attribuer le rôle d'éditeur de données sur l'ensemble du projet, vous pouvez l'ajouter directement au niveau de l'ensemble de données. En savoir plus

  8. Cliquez sur Enregistrer.

Importer des données de catalogue à partir de Cloud Storage

Pour importer des données de catalogue au format JSON, créez un ou plusieurs fichiers JSON contenant les données de catalogue que vous souhaitez importer, puis importez ces données dans Cloud Storage. De là, vous pouvez ensuite les importer dans Recommendations AI.

Pour obtenir un exemple de format d'élément de produit JSON, consultez la section Format de données JSON d'élément de produit.

Pour obtenir de l'aide concernant l'importation de fichiers dans Cloud Storage, consultez la page Importer des objets.

curl

  1. Assurez-vous que le compte de service Recommendations AI est autorisé à lire et écrire dans le bucket.

    Le compte de service Recommendations AI est répertorié sur la page IAM de Cloud Console, sous le nom Compte de service Retail. Utilisez l'identifiant qui ressemble à une adresse e-mail (par exemple, service-525@gcp-sa-retail.iam.gserviceaccount.com) pour l'ajout du compte aux autorisations de votre bucket.

  2. Si vous importez votre catalogue pour la première fois ou si vous le réimportez après la suppression définitive, définissez les niveaux de produit à l'aide de la fonction Catalog.patch.

    • ingestionProductType : accepte les valeurs primary (par défaut) et variant.
    • merchantCenterProductIdField : accepte les valeurs offerId et itemGroupId. Si vous n'utilisez pas Merchant Center, vous n'avez pas besoin de définir ce champ.
    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
     --data '{
       "productLevelConfig": {
         "ingestionProductType": "PRODUCT-TYPE",
         "merchantCenterProductIdField": "PRODUCT-ID-FIELD"
       }
     }' \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog"
    
  3. Créez un fichier de données pour les paramètres d'entrée de l'importation. Utilisez l'objet GcsSource pour pointer vers votre bucket Cloud Storage.

    Vous pouvez fournir plusieurs fichiers ou un seul ; cet exemple utilise deux fichiers.

    • input-file : un ou plusieurs fichiers Cloud Storage contenant vos données de catalogue.
    • error-directory : répertoire Cloud Storage contenant des informations sur les erreurs d'importation.

    Les champs du fichier d'entrée doivent être au format gs://<bucket>/<path-to-file>/. Le répertoire d'erreur doit être au format gs://<bucket>/<folder>/. Si le répertoire d'erreur n'existe pas, Recommendations AI le crée. Le bucket doit déjà exister.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["input-file1", "input-file2"]
     }
    },
    "errorsConfig":{"gcsPrefix":"error-directory"}
    }
    
  4. Importez vos informations de catalogue dans Recommendations AI en envoyant une requête POST à la méthode REST Products:import, en indiquant le nom du fichier de données (ici, sous la forme input.json).

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
    -H "Content-Type: application/json; charset=utf-8" -d @./input.json"
    "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
    

    Le moyen le plus simple de vérifier l'état de votre opération d'importation consiste à utiliser Cloud Console. Pour en savoir plus, consultez la section Afficher l'état d'une opération d'intégration spécifique.

    Vous pouvez aussi vérifier l'état de manière automatisée avec l'API. Vous devriez recevoir un objet de réponse ressemblant à ceci :

    {
    "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "done": false
    }
    

    Le champ de nom est l'ID de l'objet d'opération. Vous demandez l'état de cet objet en remplaçant le champ de nom par la valeur renvoyée par la méthode d'importation jusqu'à ce que le champ done renvoie true :

    curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
    "https://retail.googleapis.com/v2/projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/[OPERATION_NAME]"
    

    Une fois l'opération terminée, l'objet renvoyé a une valeur done de true et inclut un objet Status semblable à l'exemple suivant :

    { "name": "projects/[PROJECT_ID]/locations/global/catalogs/default_catalog/operations/import-products-123456",
    "metadata": {
      "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata",
      "createTime": "2020-01-01T03:33:33.000001Z",
      "updateTime": "2020-01-01T03:34:33.000001Z",
      "successCount": "2",
      "failureCount": "1"
    },
    "done": true,
    "response": {
    "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse",
    },
    "errorsConfig": {
      "gcsPrefix": "gs://error-bucket/error-directory"
    }
    }
    

    Vous pouvez consulter les fichiers du répertoire d'erreurs dans Cloud Storage pour voir le type d'erreurs survenues lors de l'importation.

Importer des données de catalogue de manière intégrée

curl

Vous importez vos informations de catalogue dans Recommendations AI de manière intégrée en envoyant une requête POST à la méthode REST Products:import, et en utilisant l'objet productInlineSource pour spécifier les données de votre catalogue.

Pour obtenir un exemple de format d'élément de produit JSON, consultez la section Format de données JSON d'élément de produit.

  1. Créez le fichier JSON de votre produit et appelez-le ./data.json :

    {
    "inputConfig": {
    "productInlineSource": {
      "products": [
        {
          <product1>
        },
        {
          <product2>
        },
        ....
      ]
    }
    }
    }
    
  2. Appelez la méthode POST :

    curl -X POST \
     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
     -H "Content-Type: application/json; charset=utf-8" \
     --data @./data.json \
    "https://retail.googleapis.com/v2/projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products:import"
    

Format des données JSON de produit

Les entrées Product de votre fichier JSON doivent ressembler aux exemples suivants. Les sauts de ligne sont plus faciles à lire. vous devez indiquer un article entier sur une seule ligne. et chaque produit doit se trouver sur une ligne distincte.

Champs obligatoires minimum :

{
  "id": "1234",
  "categories": "Apparel & Accessories > Shoes",
  "title": "ABC sneakers"
}
{
  "id": "5839",
  "categories": "casual attire > t-shirts",
  "title": "Crew t-shirt"
}

Objet complet :

{
  "name": "projects/[PROJECT_NUMBER]/locations/global/catalogs/default_catalog/branches/0/products/1234",
  "id": "1234",
  "categories": "Apparel & Accessories > Shoes",
  "title": "ABC sneakers",
  "description": "Sneakers for the rest of us",
  "attributes": { "vendor": {"text": ["vendor123", "vendor456"]} },
  "language_code": "en",
  "tags": [ "black-friday" ],
  "priceInfo": {"currencyCode": "USD", "price":100, "originalPrice":200, "cost": 50},
  "availableTime": "2020-01-01T03:33:33.000001Z",
  "availableQuantity": "1",
  "uri":"http://foobar",
  "images": [{"uri": "http://foobar/img1", "height": 320, "width": 320 }]
}

Maintenir votre catalogue à jour

Recommendations AI s'appuie sur la disponibilité des informations produit à jour pour vous fournir les meilleures recommandations. Nous vous recommandons d'importer votre catalogue quotidiennement pour vous assurer qu'il reste bien à jour. Vous pouvez utiliser Google Cloud Scheduler pour planifier les importations.

Vous pouvez ne mettre à jour que les produits nouveaux ou modifiés, ou importer l'intégralité du catalogue. Si vous importez des produits qui figurent déjà dans votre catalogue, ils ne sont pas ajoutés à nouveau. Tous les produits modifiés sont mis à jour.

Pour mettre à jour un seul produit, consultez la section Mettre à jour les informations de catalogue.

Mise à jour groupée

Vous pouvez utiliser la méthode d'importation pour mettre à jour votre catalogue de manière groupée. Vous procédez de la même manière que pour l'importation initiale ; suivez la procédure décrite dans la section Importer des données de catalogue.

Surveiller l'état des importations

Pour garantir des recommandations de haute qualité, il est important de maintenir votre catalogue à jour. Vous devez surveiller les taux d'erreur d'importation et prendre des mesures, le cas échéant. Pour en savoir plus, consultez la section Configurer des alertes pour les problèmes d'importation de données.

Étape suivante