Importer des événements utilisateur historiques

Cette page explique comment importer des données d'événements utilisateur passés de façon groupée. Les modèles Vertex AI Search pour le commerce ont besoin de données d'événements utilisateur pour l'entraînement.

Une fois que vous avez configuré l'enregistrement des événements en temps réel, l'enregistrement des données d'événements utilisateur nécessaires à l'entraînement de vos modèles peut prendre un temps considérable. Vous pouvez accélérer l'entraînement initial du modèle en important de façon groupée les données d'événements utilisateur passés. Avant cela, consultez les bonnes pratiques pour enregistrer des événements utilisateur et la section Avant de commencer de la présente page.

Les procédures d'importation présentées sur cette page s'appliquent à la fois aux recommandations et à la recherche. Une fois les données importées, les deux services peuvent utiliser ces événements. Vous n'avez donc pas besoin d'importer deux fois si vous utilisez les deux services.

Vous pouvez :

Importer des événements depuis Cloud Storage

Ce tutoriel explique comment importer des événements utilisateur depuis Cloud Storage.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Importer des événements depuis BigQuery

Ce tutoriel explique comment importer des événements utilisateur depuis BigQuery.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Tutoriel sur l'importation d'événements intégrés

Ce tutoriel explique comment importer des données d'événements utilisateur de manière intégrée.


Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :

Visite guidée


Avant de commencer

Pour éviter les erreurs d'importation et vous assurer que la quantité de données est suffisante pour générer de bons résultats, examinez les informations suivantes avant d'importer votre les événements utilisateur.

Remarques concernant l'importation d'événements

Cette section décrit les méthodes pouvant être utilisées pour l'importation par lot de votre historique d'événements utilisateur, les cas de figure dans lesquels vous pouvez les utiliser et certaines de leurs limitations.

Cloud Storage Description Importer des données au format JSON à partir de fichiers chargés dans un bucket Cloud Storage. Chaque fichier doit avoir une taille inférieure ou égale à 2 Go, et vous pouvez importer jusqu'à 100 fichiers à la fois. L'importation peut être effectuée à l'aide de la console Google Cloud ou cURL. Utilise le format de données JSON Product, qui permet d'utiliser des attributs personnalisés.
Contexte d'utilisation Si vous avez besoin de charger des volumes de données importants en une seule étape.
Limites Si vos données se trouvent dans Google Analytics ou Merchant Center, elles ne peuvent être exportées que vers BigQuery et nécessitent donc une étape supplémentaire d'importation vers Cloud Storage.
BigQuery Description Importer des données à partir d'une table BigQuery précédemment chargée qui utilise le schéma Vertex AI Search pour le commerce. Peuvent être réalisées à l'aide de la console Google Cloud ou cURL.
Contexte d'utilisation Si vous appliquez également des fonctions analytiques ou un prétraitement des données d'événement avant l'importation.
Limites Nécessite l'étape supplémentaire de la création d'une table BigQuery mappée sur le schéma Vertex AI Search for retail. Si vous avez un volume élevé d'événements utilisateur, pensez également que BigQuery est une ressource moins coûteuse que Cloud Storage.
BigQuery avec Analytics 360 Description Importer des données préexistantes depuis Analytics 360 dans Vertex AI Search pour le commerce.
Contexte d'utilisation Si vous utilisez Analytics 360 et que vous effectuez le suivi des conversions pour des recommandations ou des recherches. Aucun mappage de schéma supplémentaire n'est requis.
Limites Seul un sous-ensemble d'attributs est disponible. Par conséquent, certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent pas être utilisées. Le suivi des impressions dans Google Analytics est requis si vous prévoyez d'utiliser la recherche.
BigQuery avec Google Analytics 4 Description Importer des données préexistantes depuis Google Analytics 4 vers Vertex AI Search pour le commerce
Contexte d'utilisation Si vous utilisez Google Analytics 4 et suivez les conversions pour des recommandations ou des recherches. Aucun mappage de schéma supplémentaire n'est requis.
Limites Seul un sous-ensemble d'attributs est disponible. Par conséquent, certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent pas être utilisées. Si vous prévoyez d'utiliser la recherche, vous devez configurer des des paires clé/valeur de paramètres pour le suivi ; la clé recommandée est search_query
Importation intégrée Description Importer à l'aide d'un appel à la méthode userEvents.import
Contexte d'utilisation Si vous souhaitez améliorer la confidentialité de l'ensemble des processus d'authentification sur le backend et être en mesure d'effectuer une importation backend.
Limites Généralement plus complexe qu'une importation Web.

Importer des événements utilisateur depuis Cloud Storage

Importez des événements utilisateur à partir de Cloud Storage en utilisant la console Google Cloud ou la méthode userEvents.import.

Console

  1. Accédez à la page Données> dans la console de la recherche pour le commerce.

    Accéder à la page "Données"
  2. Cliquez sur Importer pour ouvrir le panneau Importer les données.
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez Google Cloud Storage comme source de données.
  5. Sélectionnez le schéma Retail User Events Schema (Schéma des événements utilisateur Retail).
  6. Saisissez l'emplacement Cloud Storage de vos données.
  7. Cliquez sur Importer.

cURL

Utilisez la méthode userEvents.import pour importer vos événements utilisateur.

  1. Créez un fichier de données pour les paramètres d'entrée de l'importation. Utilisez l'objet GcsSource pour pointer vers votre bucket Cloud Storage.

    Vous pouvez fournir plusieurs fichiers ou un seul.

    • INPUT_FILE : un ou plusieurs fichiers Cloud Storage contenant vos données d'événements utilisateur. Consultez À propos des événements utilisateur pour des exemples de chaque format de type d'événement utilisateur. Assurez-vous que chaque événement utilisateur figure sur une ligne unique, sans saut de ligne.
    • ERROR_DIRECTORY : répertoire Cloud Storage contenant des informations sur les erreurs d'importation.

    Les champs du fichier d'entrée doivent être au format gs://<bucket>/<path-to-file>/. Le répertoire d'erreur doit être au format gs://<bucket>/<folder>/. Si le répertoire d'erreurs n'existe pas, Vertex AI Search pour le commerce le crée. Le bucket doit déjà exister.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importez les informations de votre catalogue en envoyant une requête POST au REST userEvents:import , en fournissant le nom du fichier de données.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importer des événements utilisateur depuis BigQuery

Importer des événements utilisateur depuis BigQuery à l'aide de la console Google Cloud ou la méthode userEvents.import.

Configurer l'accès à BigQuery

Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search for retail le rôle Propriétaire de données BigQuery pour votre ensemble de données BigQuery.

Importer vos événements utilisateur depuis BigQuery

Vous pouvez importer des événements 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import.

Console

  1. Accédez à la page Données> dans la console de la recherche pour le commerce.

    Accéder à la page "Données"
  2. Cliquez sur Importer pour ouvrir le panneau Importer les données.
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez BigQuery comme source de données.
  5. Sélectionnez le schéma de données.

  6. Renseignez la table BigQuery dans laquelle se trouvent vos données.
  7. Facultatif : saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
    Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.
  8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.

    Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.
  9. Cliquez sur Importer.

curl

Importez vos événements utilisateur en incluant les données des événements de votre appel à la méthode userEvents.import. Consultez la documentation de référence de l'API userEvents.import.

La valeur que vous spécifiez pour dataSchema dépend de ce que vous importez :

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importer des événements utilisateur Analytics 360 avec BigQuery

Vous pouvez importer des événements utilisateur Analytics 360 si : intégré Analytics 360 à BigQuery et E-commerce amélioré.

Les procédures suivantes supposent que vous maîtrisez BigQuery et Analytics 360.

Avant de commencer

Avant de commencer les étapes suivantes, assurez-vous que :

Vérifier votre source de données

  1. Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.

    Assurez-vous que la table est nommée project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Consultez la documentation Google Analytics pour en savoir plus sur le format et le nommage du tableau.

  2. Dans la console Google Cloud pour BigQuery, sélectionnez la table dans le panneau Explorateur pour la prévisualiser.

    Vérifiez les points suivants :

    1. La colonne clientId possède une valeur valide (par exemple, 123456789.123456789).

      Notez que cette valeur est différente de la valeur complète du cookie "_ga" (dont le format est similaire à GA1.3.123456789.123456789).

    2. La colonne hits.transaction.currencyCode contient un code de devise valide.

    3. Si vous envisagez d'importer des événements search, vérifiez qu'une colonne hits.page.searchKeyword ou hits.customVariable.searchQuery est présente.

      L'importation d'événements search est acceptée, mais les événements ne sont pas mappées à partir d'Analytics 360 de la même manière que les autres types d'événements, car Analytics 360 n'est pas compatible de manière native avec le type d'événement search. Lors de l'importation, les événements search sont créés d'Analytics 360 en combinant les informations requête de recherche et, le cas échéant, l'impression du produit.

      La requête de recherche est dérivée de hits.page.searchKeyword, ou de hits.customVariables.customVarValue si hits.customVariables.customVarName est searchQuery. L'impression produit est issue de hits.product si hits.product.isImpressions est défini sur TRUE.

  3. Vérifiez la cohérence des ID d'article entre le catalogue importé et la table des événements utilisateur Analytics 360.

    À l'aide de n'importe quel ID produit de la colonne hits.product.productSKU de l'aperçu de la table BigQuery, utilisez la méthode product.get pour vous assurer que le même produit se trouve dans votre catalogue importé.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importer vos événements Analytics 360

Vous pouvez importer des événements Google Analytics 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import.

Console

  1. Accédez à la page Données> dans la console de la recherche pour le commerce.

    Accéder à la page "Données"
  2. Cliquez sur Importer pour ouvrir le panneau Importer les données.
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez BigQuery comme source de données.
  5. Sélectionnez le schéma de données.

  6. Renseignez la table BigQuery dans laquelle se trouvent vos données.
  7. Facultatif : saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
    Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.
  8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.

    Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.
  9. Cliquez sur Importer.

REST

Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import.

Pour dataSchema, utilisez la valeur user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importer vos pages d'accueil Analytics 360 avec BigQuery

Dans Analytics 360, les événements de page d'accueil vue ne sont pas distingués des autres événements de page vue. Cela signifie que les événements de page d'accueil consultés ne sont pas importés en tant qu'événements avec les autres types d'événements (par exemple, la page vue des détails) ; dans Importer vos événements Analytics 360.

La procédure suivante explique comment extraire des événements de vue de la page d'accueil à partir de vos données Analytics 360 et les importer dans Vertex AI Search for retail. En résumé, cela se fait en extrayant les vues de la page d'accueil des utilisateurs (identifiées par le chemin d'accès à la page d'accueil) dans une nouvelle table BigQuery, puis en important les données de cette nouvelle table dans la recherche Vertex AI pour le commerce.

Pour importer des événements de vue de la page d'accueil depuis Analytics 360 dans Vertex AI Search pour le commerce :

  1. Créez un ensemble de données BigQuery ou assurez-vous d'en avoir un disponible auquel vous pouvez ajouter une table.

    Cet ensemble de données peut se trouver dans votre projet Vertex AI Search pour le commerce ou dans le projet où vous avez vos données Analytics 360. Il s'agit de la cible ensemble de données dans lequel vous copierez l'ensemble de données Analytics 360 les événements de page d'accueil vue.

  2. Créez une table BigQuery dans l'ensemble de données comme suit :

    1. Remplacez les variables dans le code SQL suivant comme suit.

      • target_project_id::projet dans lequel l'ensemble de données de l'étape 1 est localisés.

      • target_dataset::nom de l'ensemble de données noté à l'étape 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copiez l'exemple de code SQL.

    3. Ouvrez la page BigQuery dans la console Google Cloud.

      Accéder à la page "BigQuery"

    4. Si ce n'est pas déjà fait, sélectionnez le projet cible.

    5. Dans le volet Éditeur, collez l'exemple de code SQL.

    6. Cliquez sur  Run (Exécuter) et attendez la fin de l'exécution de la requête.

    L'exécution de ce code crée une table au format target_project_id:target_dataset.ga_homepage_YYYYMMDD, par exemple my-project:view_events.ga_homepage_20230115

  3. Copiez les événements de vue de la page d'accueil Analytics 360 de votre table de données Analytics 360 dans la table créée à l'étape 2 précédente.

    1. Remplacez les variables dans l'exemple de code SQL suivant comme suit :

      • source_project_id::ID du projet contenant le Données Analytics 360 dans une table BigQuery tableau.

      • source_dataset : ensemble de données du projet source contenant les données Analytics 360 dans une table BigQuery.

      • source_table::table du projet source contenant les données Analytics 360.

      • target_project_id::même ID de projet cible que dans le l'étape 2 précédente.

      • target_dataset : même ensemble de données cible que dans l'étape 2 précédente.

      • path:chemin d'accès à la page d'accueil. Il s'agit généralement de /. (par exemple, si la page d'accueil est example.com/). Toutefois, si la page d'accueil est semblable à examplepetstore.com/index.html, le chemin d'accès est /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copiez l'exemple de code SQL.

    3. Ouvrez la page BigQuery dans la console Google Cloud.

      Accéder à la page "BigQuery"

    4. Si ce n'est pas déjà fait, sélectionnez le projet cible.

    5. Dans le volet Éditeur, collez l'exemple de code SQL.

    6. Cliquez sur  Run (Exécuter) et attendez la fin de l'exécution de la requête.

  4. Suivez les instructions de la section Importer des événements utilisateur depuis BigQuery pour importer les événements de vue de la page d'accueil à partir de la table cible. Lors de la sélection du schéma, si vous importez à l'aide de la console, sélectionnez Schéma d'événement utilisateur Retail. Si vous importez à l'aide de userEvents.import, spécifiez user_event pour la valeur dataSchema.

  5. Supprimez la table et l'ensemble de données que vous avez créés aux étapes 1 et 2.

Importer des événements utilisateur Google Analytics 4 avec BigQuery

Vous pouvez importer des événements utilisateur Google Analytics 4 si vous avez intégré Google Analytics 4 à BigQuery et que vous utilisez Google Analytics Ecommerce.

Les procédures suivantes supposent que vous maîtrisez BigQuery et Google Analytics 4.

Avant de commencer

Avant de commencer les étapes suivantes, assurez-vous que :

Vérifier votre source de données

Pour vous assurer que vos données d'événement utilisateur sont prêtes à être importées, procédez comme suit.

Pour une table des champs Google Analytics 4 que Vertex AI Search pour le commerce et à quels champs Vertex AI Search pour le commerce sont mappés, consultez Champs d'événement utilisateur dans Google Analytics 4.

Pour tous les paramètres d'événement Google Analytics, consultez la Documentation de référence sur les événements Google Analytics

  1. Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.

    • L'ensemble de données doit être nommé analytics_PROPERTY_ID.
    • La table doit être nommée events_YYYYMMDD.

    Pour plus d'informations sur les noms et le format des tables, consultez la Documentation Google Analytics

  2. Dans la console Google Cloud pour BigQuery, sélectionnez l'ensemble de données dans le panneau Explorer, puis recherchez la table des événements utilisateur que vous prévoyez d'importer.

    Vérifiez les points suivants :

    1. La colonne event_params.key comporte une clé currency, qui lui est associée La valeur de chaîne est un code de devise valide.

    2. Si vous envisagez d'importer des événements search, vérifiez que la colonne event.event_params.key comporte une clé search_term et une valeur associée.

      Vous pouvez importer des événements search, mais les événements search ne sont pas mappés depuis Google Analytics 4, tout comme les autres types d'événements car Google Analytics 4 n'est pas compatible de façon native Type d'événement search Vertex AI Search pour le commerce. Pendant l'importation, Les événements search sont créés à partir de Google Analytics 4 en combinant les informations view_item_list et le paramètre search_term.

      Pour en savoir plus sur search dans Google Analytics 4, consultez search dans la documentation Google Analytics.

  3. Vérifiez la cohérence des ID d'articles entre le catalogue importé et le Table des événements utilisateur Google Analytics 4.

    Pour s'assurer qu'un produit du tableau des utilisateurs Google Analytics 4 également dans votre catalogue importé, copiez un ID produit Colonne event.items.item_id dans l'aperçu de la table BigQuery et utilisez la méthode product.get pour vérifier figure dans le catalogue que vous avez importé.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Configurer l'accès à BigQuery

Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search for retail le rôle Propriétaire de données BigQuery pour votre ensemble de données BigQuery.

Importer vos événements Google Analytics 4

Vous pouvez importer des événements Google Analytics 4 à l'aide de la Recherchez la console Retail ou la méthode userEvents.import.

Importer des événements Google Analytics 4 à l'aide de la console

  1. Accédez à Données > de la console Search for Retail.

    Accéder à la page "Données"
  2. Cliquez sur Importer pour ouvrir le panneau Importer des données.
  3. Sélectionnez Événements utilisateur.
  4. Sélectionnez BigQuery comme source de données.
  5. Sélectionnez le schéma de données.

  6. Renseignez la table BigQuery dans laquelle se trouvent vos données.
  7. Facultatif : saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
    Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.
  8. Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.

    Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région.
  9. Cliquez sur Importer.

Importer des événements Google Analytics 4 à l'aide de l'API

Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import. Consultez le Documentation de référence de l'API userEvents.import

Pour dataSchema, utilisez la valeur user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importer des événements utilisateur intégrés

Vous pouvez importer des événements utilisateur de manière intégrée en incluant les données associées aux événements dans votre appel à la méthode userEvents.import.

Le moyen le plus simple consiste à placer vos données d'événements utilisateur dans un fichier JSON et à fournir ce fichier à cURL.

Pour connaître les formats des types d'événements utilisateur, consultez la section À propos des événements utilisateur.

curl

  1. Créez le fichier JSON :

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Appelez la méthode POST :

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Historique de données de catalogue

Vous pouvez également importer l'historique des données de catalogue qui apparaissent dans votre historique d'événements utilisateur. Cet historique des données de catalogue peut être utile, car les informations sur les produits passés peuvent être utilisées pour enrichir les événements utilisateur, ce qui peut améliorer la précision du modèle.

Pour en savoir plus, consultez la page Importer l'historique des données de catalogue.

Afficher les événements importés

Afficher les métriques d'intégration d'événements dans l'onglet Événements de la console Search for Retail Données. Cette page présente tous les événements écrits ou importés au cours de l'année précédente. Les métriques peuvent occuper à 24 heures après une ingestion de données réussie.

Accéder à la page "Données"

Étape suivante