Importer l'historique des événements utilisateur

Cette page explique comment importer des données d'événements utilisateur passés de façon groupée. Vertex AI Search pour le commerce nécessite des données d'événements utilisateur pour l'entraînement.

Une fois que vous avez configuré l'enregistrement des événements en temps réel, l'enregistrement des données d'événements utilisateur nécessaires à l'entraînement de vos modèles peut prendre un temps considérable. Vous pouvez accélérer l'entraînement initial du modèle en important de façon groupée les données d'événements utilisateur passés. Avant cela, consultez les bonnes pratiques pour enregistrer des événements utilisateur et la section Avant de commencer de la présente page.

Les procédures d'importation de cette page s'appliquent à la fois aux recommandations et à la recherche. Une fois les données importées, les deux services peuvent utiliser ces événements. Vous n'avez donc pas besoin d'importer les mêmes données deux fois si vous utilisez les deux.

Vous pouvez :

Importer des événements depuis Cloud Storage

Ce tutoriel explique comment importer des événements utilisateur depuis Cloud Storage.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Importer des événements depuis BigQuery

Ce tutoriel explique comment importer des événements utilisateur depuis BigQuery.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Importer des événements de manière intégrée

Ce tutoriel explique comment importer des données d'événements utilisateur de manière intégrée.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Avant de commencer

Pour éviter les erreurs d'importation et vous assurer qu'il y a suffisamment de données pour générer de bons résultats, examinez les informations suivantes avant d'importer vos événements utilisateur.

Remarques concernant l'importation d'événements

Cette section décrit les méthodes pouvant être utilisées pour l'importation par lots de vos événements utilisateur historiques, les cas dans lesquels vous pouvez utiliser chaque méthode, ainsi que certaines de leurs limites.

Cloud Storage Description Importer des données au format JSON à partir de fichiers chargés dans un bucket Cloud Storage. Chaque fichier doit avoir une taille inférieure ou égale à 2 Go, et vous pouvez importer jusqu'à 100 fichiers à la fois. L'importation peut être effectuée à l'aide de la console Google Cloud ou de cURL. Utilise le format de données JSON Product, qui permet d'utiliser des attributs personnalisés.
Contexte d'utilisation Si vous avez besoin de charger des volumes de données importants en une seule étape.
Limites Si vos données se trouvent dans Google Analytics ou Merchant Center, elles ne peuvent être exportées que vers BigQuery et nécessitent donc une étape supplémentaire d'importation vers Cloud Storage.
BigQuery Description Importez des données à partir d'une table BigQuery précédemment chargée qui utilise le schéma Vertex AI Search pour le commerce. Cette opération peut être effectuée à l'aide de la console Google Cloud ou de cURL.
Contexte d'utilisation Si vous appliquez également des fonctions analytiques ou un prétraitement des données d'événement avant l'importation.
Limites Nécessite une étape supplémentaire pour créer une table BigQuery mappée au schéma Vertex AI Search pour le commerce. Si vous avez un volume élevé d'événements utilisateur, pensez également que BigQuery est une ressource moins coûteuse que Cloud Storage.
BigQuery avec Analytics 360 Description Importez des données préexistantes à partir d'Analytics 360 dans Vertex AI Search pour le commerce.
Contexte d'utilisation Si vous utilisez Analytics 360 et suivez les conversions pour les recommandations ou les recherches. Aucun mappage de schéma supplémentaire n'est requis.
Limites Seul un sous-ensemble d'attributs est disponible. Certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent donc pas être utilisées. Le suivi des impressions dans Google Analytics est obligatoire si vous prévoyez d'utiliser la recherche.
BigQuery avec Google Analytics 4 Description Importez des données préexistantes à partir de Google Analytics 4 dans Vertex AI Search pour le commerce.
Contexte d'utilisation Si vous utilisez Google Analytics 4 et suivez les conversions pour les recommandations ou les recherches. Aucun mappage de schéma supplémentaire n'est requis.
Limites Seul un sous-ensemble d'attributs est disponible. Certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent donc pas être utilisées. Si vous prévoyez d'utiliser la recherche, vous devez configurer des paires clé/valeur des paramètres d'événement pour le suivi. La clé recommandée est search_query.
Importation intégrée Description Importer à l'aide d'un appel à la méthode userEvents.import
Contexte d'utilisation Si vous souhaitez améliorer la confidentialité de l'ensemble des processus d'authentification sur le backend et être en mesure d'effectuer une importation backend.
Limites Généralement plus complexe qu'une importation Web.

Importer des événements utilisateur depuis Cloud Storage

Importez des événements utilisateur depuis Cloud Storage à l'aide de la console Google Cloud ou de la méthode userEvents.import.

Console

  1. Accédez à la page Données> de la console Search for Retail.

    Accéder à la page "Données"
  2. Cliquez sur Import (Importer) pour ouvrir le panneau Import Data (Importer des données).
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez Google Cloud Storage comme source de données.
  5. Choisissez Retail User Events Schema (Schéma des événements utilisateur Retail) comme schéma.
  6. Saisissez l'emplacement Cloud Storage de vos données.
  7. Cliquez sur Importer.

cURL

Utilisez la méthode userEvents.import pour importer vos événements utilisateur.

  1. Créez un fichier de données pour les paramètres d'entrée de l'importation. Utilisez l'objet GcsSource pour pointer vers votre bucket Cloud Storage.

    Vous pouvez fournir plusieurs fichiers ou un seul.

    • INPUT_FILE : un ou plusieurs fichiers Cloud Storage contenant vos données d'événements utilisateur. Pour obtenir des exemples de chaque format de type d'événement utilisateur, consultez À propos des événements utilisateur. Assurez-vous que chaque événement utilisateur figure sur une ligne unique, sans saut de ligne.
    • ERROR_DIRECTORY : répertoire Cloud Storage contenant des informations sur les erreurs d'importation.

    Les champs du fichier d'entrée doivent être au format gs://<bucket>/<path-to-file>/. Le répertoire d'erreur doit être au format gs://<bucket>/<folder>/. Si le répertoire d'erreurs n'existe pas, Vertex AI Search for Retail le crée. Le bucket doit déjà exister.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
    
  2. Importez les informations de votre catalogue en envoyant une requête POST à la méthode REST userEvents:import, en fournissant le nom du fichier de données.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'
    

Importer des événements utilisateur depuis BigQuery

Importez des événements utilisateur à partir de BigQuery à l'aide de la console Google Cloud ou de la méthode userEvents.import.

Configurer l'accès à BigQuery

Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search pour le commerce un rôle de propriétaire de données BigQuery pour votre ensemble de données BigQuery.

Importer vos événements utilisateur depuis BigQuery

Vous pouvez importer des événements 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import.

Console

  1. Accédez à la page Données> de la console Search for Retail.

    Accéder à la page "Données"
  2. Cliquez sur Import (Importer) pour ouvrir le panneau Import Data (Importer des données).
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez BigQuery comme source de données.
  5. Sélectionnez le schéma de données.

  6. Renseignez la table BigQuery dans laquelle se trouvent vos données.
  7. Facultatif: indiquez l'emplacement d'un bucket Cloud Storage dans votre projet comme emplacement temporaire pour vos données.
    Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si cette option est spécifiée, les buckets BigQuery et Cloud Storage doivent se trouver dans la même région.
  8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage dans votre projet en tant qu'emplacement temporaire pour vos données.

    Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si cette option est spécifiée, les buckets BigQuery et Cloud Storage doivent se trouver dans la même région.
  9. Cliquez sur Importer.

curl

Importez vos événements utilisateur en incluant les données associées dans votre appel à la méthode userEvents.import. Consultez la documentation de référence de l'API userEvents.import.

La valeur que vous spécifiez pour dataSchema dépend de ce que vous importez:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importer des événements utilisateur Analytics 360 avec BigQuery

Vous pouvez importer des événements utilisateur Analytics 360 si vous avez intégré Analytics 360 à BigQuery et que vous utilisez l'e-commerce amélioré.

Les procédures suivantes supposent que vous savez utiliser BigQuery et Analytics 360.

Avant de commencer

Avant de commencer les étapes suivantes, assurez-vous que :

Vérifier votre source de données

  1. Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.

    Assurez-vous que la table est nommée project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Pour en savoir plus sur le format et les noms des tableaux, consultez la documentation Google Analytics.

  2. Dans la console Google Cloud BigQuery, sélectionnez la table dans le panneau Explorateur pour la prévisualiser.

    Vérifiez les points suivants :

    1. La colonne clientId comporte une valeur valide, par exemple 123456789.123456789.

      Notez que cette valeur est différente de la valeur complète du cookie "_ga" (dont le format est similaire à GA1.3.123456789.123456789).

    2. La colonne hits.transaction.currencyCode contient un code de devise valide.

    3. Si vous envisagez d'importer des événements search, vérifiez qu'une colonne hits.page.searchKeyword ou hits.customVariable.searchQuery est présente.

      L'importation d'événements search est acceptée, mais les événements ne sont pas mappées à partir d'Analytics 360 de la même manière que les autres types d'événements, car Analytics 360 n'est pas compatible de manière native avec le type d'événement search. Lors de l'importation, les événements search sont créés à partir d'Analytics 360 en combinant les informations de la requête de recherche et, le cas échéant, l'impression du produit.

      La requête de recherche est dérivée de hits.page.searchKeyword, ou de hits.customVariables.customVarValue si hits.customVariables.customVarName est searchQuery. L'impression produit est issue de hits.product si hits.product.isImpressions est défini sur TRUE.

  3. Vérifiez la cohérence des ID d'article entre le catalogue importé et la table des événements utilisateur Analytics 360.

    À l'aide de n'importe quel ID produit de la colonne hits.product.productSKU de l'aperçu de la table BigQuery, utilisez la méthode product.get pour vous assurer que le même produit se trouve dans votre catalogue importé.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Importer vos événements Analytics 360

Vous pouvez importer des événements Google Analytics 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import.

Console

  1. Accédez à la page Données> de la console Search for Retail.

    Accéder à la page "Données"
  2. Cliquez sur Import (Importer) pour ouvrir le panneau Import Data (Importer des données).
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez BigQuery comme source de données.
  5. Sélectionnez le schéma de données.

  6. Renseignez la table BigQuery dans laquelle se trouvent vos données.
  7. Facultatif: indiquez l'emplacement d'un bucket Cloud Storage dans votre projet comme emplacement temporaire pour vos données.
    Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si cette option est spécifiée, les buckets BigQuery et Cloud Storage doivent se trouver dans la même région.
  8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage dans votre projet en tant qu'emplacement temporaire pour vos données.

    Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si cette option est spécifiée, les buckets BigQuery et Cloud Storage doivent se trouver dans la même région.
  9. Cliquez sur Importer.

REST

Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import.

Pour dataSchema, utilisez la valeur user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importer vos pages d'accueil Analytics 360 avec BigQuery

Dans Analytics 360, les événements de page vue ne se distinguent pas des autres événements de page vue. Cela signifie que les événements de type "page d'accueil" ne sont pas importés en tant qu'événements avec les autres types d'événements (tels que "Details-page-view") dans Importer vos événements Analytics 360.

La procédure suivante explique comment extraire les événements de type "Page d'accueil" de vos données Analytics 360 et les importer dans Vertex AI Search pour le commerce. Pour résumer, les vues des utilisateurs de la page d'accueil (identifiée par le chemin de la page d'accueil) sont extraites dans une nouvelle table BigQuery, puis les données de cette nouvelle table sont importées dans Vertex AI Search pour le commerce.

Pour importer des événements de type "page d'accueil" depuis Analytics 360 dans Vertex AI Search pour le commerce:

  1. Créez un ensemble de données BigQuery ou assurez-vous de disposer d'un ensemble de données BigQuery auquel ajouter une table.

    Cet ensemble de données peut se trouver dans votre projet Vertex AI Search pour le commerce ou dans le projet contenant vos données Analytics 360. Il s'agit de l'ensemble de données cible dans lequel vous allez copier les événements "home-page-view" d'Analytics 360.

  2. Créez une table BigQuery dans l'ensemble de données comme suit:

    1. Remplacez les variables dans le code SQL suivant comme suit.

      • target_project_id::projet dans lequel se trouve l'ensemble de données de l'étape 1.

      • target_dataset::nom de l'ensemble de données obtenu à l'étape 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
      
    2. Copiez l'exemple de code SQL.

    3. Ouvrez la page BigQuery dans la console Google Cloud.

      Accéder à la page "BigQuery"

    4. Si ce n'est pas déjà fait, sélectionnez le projet cible.

    5. Dans le volet Éditeur, collez l'exemple de code SQL.

    6. Cliquez sur Run (Exécuter) et attendez que l'exécution de la requête soit terminée.

    L'exécution de ce code crée une table au format target_project_id:target_dataset.ga_homepage_YYYYMMDD (par exemple, my-project:view_events.ga_homepage_20230115).

  3. Copiez les événements Analytics 360 "Page d'accueil" de votre tableau de données Analytics 360 dans le tableau créé à l'étape 2 précédente.

    1. Remplacez les variables dans l'exemple de code SQL suivant comme suit:

      • source_project_id::ID du projet contenant les données Analytics 360 dans une table BigQuery.

      • source_dataset::ensemble de données du projet source contenant les données Analytics 360 dans une table BigQuery.

      • source_table::table du projet source qui contient les données Analytics 360.

      • target_project_id::même ID du projet cible qu'à l'étape 2 précédente.

      • target_dataset::même ensemble de données cible qu'à l'étape 2 précédente.

      • path:chemin d'accès à la page d'accueil. Il s'agit généralement de / (par exemple, si la page d'accueil est example.com/). Toutefois, si la page d'accueil est semblable à examplepetstore.com/index.html, le chemin d'accès est /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
      
    2. Copiez l'exemple de code SQL.

    3. Ouvrez la page BigQuery dans la console Google Cloud.

      Accéder à la page "BigQuery"

    4. Si ce n'est pas déjà fait, sélectionnez le projet cible.

    5. Dans le volet Éditeur, collez l'exemple de code SQL.

    6. Cliquez sur Run (Exécuter) et attendez que l'exécution de la requête soit terminée.

  4. Suivez les instructions de la section Importer des événements utilisateur à partir de BigQuery pour importer les événements de type "page d'accueil" à partir de la table cible. Lors de la sélection du schéma, si vous importez les données à l'aide de la console, sélectionnez Retail User Events Schema. Si vous effectuez l'importation avec userEvents.import, spécifiez user_event pour la valeur dataSchema.

  5. Supprimez la table et l'ensemble de données que vous avez créés aux étapes 1 et 2.

Importer des événements utilisateur Google Analytics 4 avec BigQuery

Vous pouvez importer des événements utilisateur Google Analytics 4 si vous avez intégré Google Analytics 4 à BigQuery et que vous utilisez l'e-commerce Google Analytics.

Les procédures suivantes supposent que vous savez utiliser BigQuery et Google Analytics 4.

Avant de commencer

Avant de commencer les étapes suivantes, assurez-vous que :

Vérifier votre source de données

Pour vous assurer que vos données d'événement utilisateur sont prêtes pour l'importation, procédez comme suit.

Pour obtenir un tableau des champs Google Analytics 4 utilisés par Vertex AI Search pour le commerce et des champs Vertex AI Search auxquels ils sont mappés, consultez la section Champs d'événement utilisateur Google Analytics 4.

Pour tous les paramètres d'événement Google Analytics, consultez la documentation de référence sur les événements Google Analytics.

  1. Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.

    • L'ensemble de données doit être nommé analytics_PROPERTY_ID.
    • La table doit être nommée events_YYYYMMDD.

    Pour en savoir plus sur les noms et le format des tables, consultez la documentation Google Analytics.

  2. Dans la console Google Cloud de BigQuery, sélectionnez l'ensemble de données dans le panneau Explorateur et recherchez la table des événements utilisateur que vous prévoyez d'importer.

    Vérifiez les points suivants :

    1. La colonne event_params.key comporte une clé currency et la valeur de chaîne associée est un code de devise valide.

    2. Si vous envisagez d'importer des événements search, vérifiez que la colonne event.event_params.key comporte une clé search_term et une valeur associée.

      Vous pouvez importer des événements search, mais les événements search ne sont pas mappés à partir de Google Analytics 4 de la même manière que les autres types d'événements, car Google Analytics 4 n'est pas compatible de manière native avec le type d'événement Vertex AI Search search pour le commerce. Lors de l'importation, les événements search sont créés à partir de Google Analytics 4 en combinant les informations du paramètre view_item_list et search_term.

      Pour en savoir plus sur search dans Google Analytics 4, consultez search dans la documentation Google Analytics.

  3. Vérifiez la cohérence des ID d'article entre le catalogue importé et le tableau des événements utilisateur Google Analytics 4.

    Pour vous assurer qu'un produit de la table utilisateur Google Analytics 4 figure également dans votre catalogue importé, copiez un ID produit de la colonne event.items.item_id dans l'aperçu de la table BigQuery et utilisez la méthode product.get pour vérifier si cet ID produit figure dans le catalogue importé.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Configurer l'accès à BigQuery

Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search pour le commerce un rôle de propriétaire de données BigQuery pour votre ensemble de données BigQuery.

Importer vos événements Google Analytics 4

Vous pouvez importer des événements Google Analytics 4 à l'aide de la console Search for Retail ou de la méthode userEvents.import.

Importer des événements Google Analytics 4 à l'aide de la console

  1. Accédez à la page Données> de la console Search for Retail.

    Accéder à la page "Données"
  2. Cliquez sur Import (Importer) pour ouvrir le panneau Import Data (Importer des données).
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez BigQuery comme source de données.
  5. Sélectionnez le schéma de données.

  6. Renseignez la table BigQuery dans laquelle se trouvent vos données.
  7. Facultatif: indiquez l'emplacement d'un bucket Cloud Storage dans votre projet comme emplacement temporaire pour vos données.
    Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si cette option est spécifiée, les buckets BigQuery et Cloud Storage doivent se trouver dans la même région.
  8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage dans votre projet en tant qu'emplacement temporaire pour vos données.

    Si aucune valeur n'est spécifiée, un emplacement par défaut est utilisé. Si cette option est spécifiée, les buckets BigQuery et Cloud Storage doivent se trouver dans la même région.
  9. Cliquez sur Importer.

Importer des événements Google Analytics 4 à l'aide de l'API

Importez vos événements utilisateur en incluant les données associées dans votre appel à la méthode userEvents.import. Consultez la documentation de référence de l'API userEvents.import.

Pour dataSchema, utilisez la valeur user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importer des événements utilisateur de manière intégrée

Vous pouvez importer des événements utilisateur de manière intégrée en incluant les données correspondantes dans votre appel à la méthode userEvents.import.

Le moyen le plus simple consiste à placer vos données d'événements utilisateur dans un fichier JSON et à fournir ce fichier à cURL.

Pour connaître les formats des types d'événements utilisateur, consultez À propos des événements utilisateur.

curl

  1. Créez le fichier JSON :

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Appelez la méthode POST :

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Historique de données de catalogue

Vous pouvez également importer l'historique des données de catalogue qui apparaissent dans votre historique d'événements utilisateur. Ces données de catalogue historiques peuvent être utiles, car les informations passées sur le produit peuvent être utilisées pour enrichir les événements utilisateur, ce qui peut améliorer la précision du modèle.

Pour en savoir plus, consultez la page Importer l'historique des données de catalogue.

Afficher les événements importés

Affichez les métriques d'intégration des événements dans l'onglet Événements de la page Données de la console Search for Retail. Cette page présente tous les événements écrits ou importés au cours de l'année passée. Une fois l'ingestion de données réussie, l'affichage des métriques dans la console peut prendre jusqu'à une heure.

Accéder à la page "Données"

Étapes suivantes