Cette page explique comment importer des données d'événements utilisateur passés de façon groupée. Les modèles Vertex AI Search pour le commerce ont besoin de données d'événements utilisateur pour l'entraînement.
Une fois que vous avez configuré l'enregistrement des événements en temps réel, l'enregistrement des données d'événements utilisateur nécessaires à l'entraînement de vos modèles peut prendre un temps considérable. Vous pouvez accélérer l'entraînement initial du modèle en important de façon groupée les données d'événements utilisateur passés. Avant cela, consultez les bonnes pratiques pour enregistrer des événements utilisateur et la section Avant de commencer de la présente page.
Les procédures d'importation présentées sur cette page s'appliquent à la fois aux recommandations et à la recherche. Une fois les données importées, les deux services peuvent utiliser ces événements. Vous n'avez donc pas besoin d'importer deux fois si vous utilisez les deux services.
Vous pouvez :
- Importer des événements à partir de Cloud Storage.
- Importer des événements à partir de BigQuery.
- Importer des événements Google Analytics 360 à partir de BigQuery.
- Importez des événements Google Analytics 4 depuis BigQuery.
- Importer des événements de manière intégrée avec la méthode
userEvents.import
.
Importer des événements depuis Cloud Storage
Ce tutoriel explique comment importer des événements utilisateur depuis Cloud Storage.
Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :
Importer des événements depuis BigQuery
Ce tutoriel explique comment importer des événements utilisateur depuis BigQuery.
Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :
Tutoriel sur l'importation d'événements intégrés
Ce tutoriel explique comment importer des données d'événements utilisateur de manière intégrée.
Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :
Avant de commencer
Pour éviter les erreurs d'importation et vous assurer que la quantité de données est suffisante pour générer de bons résultats, examinez les informations suivantes avant d'importer votre les événements utilisateur.
Passez en revue les bonnes pratiques pour l'enregistrement des événements utilisateur.
La mise en forme des événements utilisateur varie en fonction du type d'événement utilisateur. Consultez la section Types d'événements utilisateur et exemple de schéma pour connaître le format à spécifier lors de la création de tables pour chaque type d'événement.
Les recommandations et les résultats de recherche ne sont pas les mêmes exigences minimales concernant les données. Assurez-vous que vos événements utilisateur répondent aux exigences du service que vous prévoyez d'utiliser :
Consultez Exigences et bonnes pratiques concernant les événements utilisateur pour les exigences de recherche et de recommandations.
Si vous utilisez des modèles de recommandation, consultez également la section Exigences relatives aux données des événements utilisateur, qui répertorie les exigences supplémentaires en fonction du type de modèle de recommandation et de l'objectif d'optimisation que vous prévoyez d'utiliser.
Remarques concernant l'importation d'événements
Cette section décrit les méthodes pouvant être utilisées pour l'importation par lot de votre historique d'événements utilisateur, les cas de figure dans lesquels vous pouvez les utiliser et certaines de leurs limitations.
Cloud Storage | Description |
Importer des données au format JSON à partir de fichiers chargés dans un bucket Cloud Storage. Chaque fichier doit avoir une taille inférieure ou égale à 2 Go, et vous pouvez importer jusqu'à 100 fichiers à la fois. L'importation peut être effectuée à l'aide de la console Google Cloud
ou cURL. Utilise le format de données JSON Product , qui permet d'utiliser des attributs personnalisés.
|
---|---|---|
Contexte d'utilisation | Si vous avez besoin de charger des volumes de données importants en une seule étape. | |
Limites | Si vos données se trouvent dans Google Analytics ou Merchant Center, elles ne peuvent être exportées que vers BigQuery et nécessitent donc une étape supplémentaire d'importation vers Cloud Storage. | |
BigQuery | Description | Importer des données à partir d'une table BigQuery précédemment chargée qui utilise le schéma Vertex AI Search pour le commerce. Peuvent être réalisées à l'aide de la console Google Cloud ou cURL. |
Contexte d'utilisation | Si vous appliquez également des fonctions analytiques ou un prétraitement des données d'événement avant l'importation. | |
Limites | Nécessite l'étape supplémentaire de la création d'une table BigQuery mappée sur le schéma Vertex AI Search for retail. Si vous avez un volume élevé d'événements utilisateur, pensez également que BigQuery est une ressource moins coûteuse que Cloud Storage. | |
BigQuery avec Analytics 360 | Description | Importer des données préexistantes depuis Analytics 360 dans Vertex AI Search pour le commerce. |
Contexte d'utilisation | Si vous utilisez Analytics 360 et que vous effectuez le suivi des conversions pour des recommandations ou des recherches. Aucun mappage de schéma supplémentaire n'est requis. | |
Limites | Seul un sous-ensemble d'attributs est disponible. Par conséquent, certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent pas être utilisées. Le suivi des impressions dans Google Analytics est requis si vous prévoyez d'utiliser la recherche. | |
BigQuery avec Google Analytics 4 | Description | Importer des données préexistantes depuis Google Analytics 4 vers Vertex AI Search pour le commerce |
Contexte d'utilisation | Si vous utilisez Google Analytics 4 et suivez les conversions pour des recommandations ou des recherches. Aucun mappage de schéma supplémentaire n'est requis. | |
Limites |
Seul un sous-ensemble d'attributs est disponible. Par conséquent, certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent pas être utilisées.
Si vous prévoyez d'utiliser la recherche, vous devez configurer des
des paires clé/valeur de paramètres pour le suivi ; la clé recommandée est
search_query
|
|
Importation intégrée | Description |
Importer à l'aide d'un appel à la méthode userEvents.import
|
Contexte d'utilisation | Si vous souhaitez améliorer la confidentialité de l'ensemble des processus d'authentification sur le backend et être en mesure d'effectuer une importation backend. | |
Limites | Généralement plus complexe qu'une importation Web. |
Importer des événements utilisateur depuis Cloud Storage
Importez des événements utilisateur à partir de Cloud Storage en utilisant la console Google Cloud ou la méthode userEvents.import
.
Console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez Google Cloud Storage comme source de données.
- Sélectionnez le schéma Retail User Events Schema (Schéma des événements utilisateur Retail).
- Saisissez l'emplacement Cloud Storage de vos données.
- Cliquez sur Importer.
cURL
Utilisez la méthode userEvents.import
pour importer vos événements utilisateur.
Créez un fichier de données pour les paramètres d'entrée de l'importation. Utilisez l'objet
GcsSource
pour pointer vers votre bucket Cloud Storage.Vous pouvez fournir plusieurs fichiers ou un seul.
- INPUT_FILE : un ou plusieurs fichiers Cloud Storage contenant vos données d'événements utilisateur. Consultez À propos des événements utilisateur pour des exemples de chaque format de type d'événement utilisateur. Assurez-vous que chaque événement utilisateur figure sur une ligne unique, sans saut de ligne.
- ERROR_DIRECTORY : répertoire Cloud Storage contenant des informations sur les erreurs d'importation.
Les champs du fichier d'entrée doivent être au format
gs://<bucket>/<path-to-file>/
. Le répertoire d'erreur doit être au formatgs://<bucket>/<folder>/
. Si le répertoire d'erreurs n'existe pas, Vertex AI Search pour le commerce le crée. Le bucket doit déjà exister.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importez les informations de votre catalogue en envoyant une requête
POST
au RESTuserEvents:import
, en fournissant le nom du fichier de données.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Importer des événements utilisateur depuis BigQuery
Importer des événements utilisateur depuis BigQuery à l'aide de la console Google Cloud
ou la méthode userEvents.import
.
Configurer l'accès à BigQuery
Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search for retail le rôle Propriétaire de données BigQuery pour votre ensemble de données BigQuery.
Importer vos événements utilisateur depuis BigQuery
Vous pouvez importer des événements 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import
.
Console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez BigQuery comme source de données.
-
Sélectionnez le schéma de données.
- Google Analytics 4: utilisez cette option pour les événements Google Analytics 4.
- Google Analytics 360: pour Google Analytics les événements à 360°, sauf si vous Importation des événements et des pages d'accueil vues uniquement depuis Google Analytics 360 (dans ce cas, utilisez le schéma des événements utilisateur Retail).
- Schéma des événements utilisateur Retail: permet d'importer des événements à partir d'autres sources. que Google Analytics. importer uniquement les événements de pages d'accueil vues depuis Google Analytics 360 ;
- Renseignez la table BigQuery dans laquelle se trouvent vos données.
- Facultatif : saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un
bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Cliquez sur Importer.
curl
Importez vos événements utilisateur en incluant les données des événements de votre appel
à la méthode userEvents.import
. Consultez la documentation de référence de l'API userEvents.import
.
La valeur que vous spécifiez pour dataSchema
dépend de ce que vous importez :
user_event_ga4
: à utiliser pour les événements Google Analytics 4.user_event_ga360
: à utiliser pour les événements Google Analytics 360, sauf si vous n'importez que des vues de la page d'accueil à partir de Google Analytics 360 (dans ce cas, utilisezuser_event
).user_event
: permet d'importer des événements à partir de sources autres que Google Analytics et pour importation des événements uniquement des vues de page d'accueil de Google Analytics 360.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Importer des événements utilisateur Analytics 360 avec BigQuery
Vous pouvez importer des événements utilisateur Analytics 360 si : intégré Analytics 360 à BigQuery et E-commerce amélioré.
Les procédures suivantes supposent que vous maîtrisez BigQuery et Analytics 360.
Avant de commencer
Avant de commencer les étapes suivantes, assurez-vous que :
- Vous utilisez la fonction d'e-commerce amélioré.
- Vous avez associé BigQuery à Analytics 360.
Vérifier votre source de données
Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.
Assurez-vous que la table est nommée
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
.Consultez la documentation Google Analytics pour en savoir plus sur le format et le nommage du tableau.
Dans la console Google Cloud pour BigQuery, sélectionnez la table dans le panneau Explorateur pour la prévisualiser.
Vérifiez les points suivants :
La colonne
clientId
possède une valeur valide (par exemple,123456789.123456789
).Notez que cette valeur est différente de la valeur complète du cookie "_ga" (dont le format est similaire à
GA1.3.123456789.123456789
).La colonne
hits.transaction.currencyCode
contient un code de devise valide.Si vous envisagez d'importer des événements
search
, vérifiez qu'une colonnehits.page.searchKeyword
ouhits.customVariable.searchQuery
est présente.L'importation d'événements
search
est acceptée, mais les événements ne sont pas mappées à partir d'Analytics 360 de la même manière que les autres types d'événements, car Analytics 360 n'est pas compatible de manière native avec le type d'événementsearch
. Lors de l'importation, les événementssearch
sont créés d'Analytics 360 en combinant les informations requête de recherche et, le cas échéant, l'impression du produit.La requête de recherche est dérivée de
hits.page.searchKeyword
, ou dehits.customVariables.customVarValue
sihits.customVariables.customVarName
estsearchQuery
. L'impression produit est issue dehits.product
sihits.product.isImpressions
est défini surTRUE
.
Vérifiez la cohérence des ID d'article entre le catalogue importé et la table des événements utilisateur Analytics 360.
À l'aide de n'importe quel ID produit de la colonne
hits.product.productSKU
de l'aperçu de la table BigQuery, utilisez la méthodeproduct.get
pour vous assurer que le même produit se trouve dans votre catalogue importé.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Importer vos événements Analytics 360
Vous pouvez importer des événements Google Analytics 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import
.
Console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez BigQuery comme source de données.
-
Sélectionnez le schéma de données.
- Google Analytics 4 : à utiliser pour les événements Google Analytics 4.
- Google Analytics 360: pour Google Analytics les événements à 360°, sauf si vous Importation des événements et des pages d'accueil vues uniquement depuis Google Analytics 360 (dans ce cas, utilisez le schéma des événements utilisateur Retail).
- Schéma des événements utilisateur Retail: permet d'importer des événements à partir d'autres sources. que Google Analytics. importer uniquement les événements de pages d'accueil vues depuis Google Analytics 360 ;
- Renseignez la table BigQuery dans laquelle se trouvent vos données.
- Facultatif : saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un
bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Cliquez sur Importer.
REST
Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import
.
Pour dataSchema
, utilisez la valeur user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Importer vos pages d'accueil Analytics 360 avec BigQuery
Dans Analytics 360, les événements de page d'accueil vue ne sont pas distingués des autres événements de page vue. Cela signifie que les événements de page d'accueil consultés ne sont pas importés en tant qu'événements avec les autres types d'événements (par exemple, la page vue des détails) ; dans Importer vos événements Analytics 360.
La procédure suivante explique comment extraire des événements de vue de la page d'accueil à partir de vos données Analytics 360 et les importer dans Vertex AI Search for retail. En résumé, cela se fait en extrayant les vues de la page d'accueil des utilisateurs (identifiées par le chemin d'accès à la page d'accueil) dans une nouvelle table BigQuery, puis en important les données de cette nouvelle table dans la recherche Vertex AI pour le commerce.
Pour importer des événements de vue de la page d'accueil depuis Analytics 360 dans Vertex AI Search pour le commerce :
Créez un ensemble de données BigQuery ou assurez-vous d'en avoir un disponible auquel vous pouvez ajouter une table.
Cet ensemble de données peut se trouver dans votre projet Vertex AI Search pour le commerce ou dans le projet où vous avez vos données Analytics 360. Il s'agit de la cible ensemble de données dans lequel vous copierez l'ensemble de données Analytics 360 les événements de page d'accueil vue.
Créez une table BigQuery dans l'ensemble de données comme suit :
Remplacez les variables dans le code SQL suivant comme suit.
target_project_id::projet dans lequel l'ensemble de données de l'étape 1 est localisés.
target_dataset::nom de l'ensemble de données noté à l'étape 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Copiez l'exemple de code SQL.
Ouvrez la page BigQuery dans la console Google Cloud.
Si ce n'est pas déjà fait, sélectionnez le projet cible.
Dans le volet Éditeur, collez l'exemple de code SQL.
Cliquez sur
Run (Exécuter) et attendez la fin de l'exécution de la requête.
L'exécution de ce code crée une table au format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
, par exemplemy-project:view_events.ga_homepage_20230115
Copiez les événements de vue de la page d'accueil Analytics 360 de votre table de données Analytics 360 dans la table créée à l'étape 2 précédente.
Remplacez les variables dans l'exemple de code SQL suivant comme suit :
source_project_id::ID du projet contenant le Données Analytics 360 dans une table BigQuery tableau.
source_dataset : ensemble de données du projet source contenant les données Analytics 360 dans une table BigQuery.
source_table::table du projet source contenant les données Analytics 360.
target_project_id::même ID de projet cible que dans le l'étape 2 précédente.
target_dataset : même ensemble de données cible que dans l'étape 2 précédente.
path:chemin d'accès à la page d'accueil. Il s'agit généralement de
/
. (par exemple, si la page d'accueil estexample.com/
). Toutefois, si la page d'accueil est semblable àexamplepetstore.com/index.html
, le chemin d'accès est/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Copiez l'exemple de code SQL.
Ouvrez la page BigQuery dans la console Google Cloud.
Si ce n'est pas déjà fait, sélectionnez le projet cible.
Dans le volet Éditeur, collez l'exemple de code SQL.
Cliquez sur
Run (Exécuter) et attendez la fin de l'exécution de la requête.
Suivez les instructions de la section Importer des événements utilisateur depuis BigQuery pour importer les événements de vue de la page d'accueil à partir de la table cible. Lors de la sélection du schéma, si vous importez à l'aide de la console, sélectionnez Schéma d'événement utilisateur Retail. Si vous importez à l'aide de
userEvents.import
, spécifiezuser_event
pour la valeurdataSchema
.Supprimez la table et l'ensemble de données que vous avez créés aux étapes 1 et 2.
Importer des événements utilisateur Google Analytics 4 avec BigQuery
Vous pouvez importer des événements utilisateur Google Analytics 4 si vous avez intégré Google Analytics 4 à BigQuery et que vous utilisez Google Analytics Ecommerce.
Les procédures suivantes supposent que vous maîtrisez BigQuery et Google Analytics 4.
Avant de commencer
Avant de commencer les étapes suivantes, assurez-vous que :
- Vous utilisez l'e-commerce Google Analytics.
- Vous avez associé BigQuery à Google Analytics 4.
Vérifier votre source de données
Pour vous assurer que vos données d'événement utilisateur sont prêtes à être importées, procédez comme suit.
Pour une table des champs Google Analytics 4 que Vertex AI Search pour le commerce et à quels champs Vertex AI Search pour le commerce sont mappés, consultez Champs d'événement utilisateur dans Google Analytics 4.
Pour tous les paramètres d'événement Google Analytics, consultez la Documentation de référence sur les événements Google Analytics
Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.
- L'ensemble de données doit être nommé
analytics_PROPERTY_ID
. - La table doit être nommée
events_YYYYMMDD
.
Pour plus d'informations sur les noms et le format des tables, consultez la Documentation Google Analytics
- L'ensemble de données doit être nommé
Dans la console Google Cloud pour BigQuery, sélectionnez l'ensemble de données dans le panneau Explorer, puis recherchez la table des événements utilisateur que vous prévoyez d'importer.
Vérifiez les points suivants :
La colonne
event_params.key
comporte une clécurrency
, qui lui est associée La valeur de chaîne est un code de devise valide.Si vous envisagez d'importer des événements
search
, vérifiez que la colonneevent.event_params.key
comporte une clésearch_term
et une valeur associée.Vous pouvez importer des événements
search
, mais les événementssearch
ne sont pas mappés depuis Google Analytics 4, tout comme les autres types d'événements car Google Analytics 4 n'est pas compatible de façon native Type d'événementsearch
Vertex AI Search pour le commerce. Pendant l'importation, Les événementssearch
sont créés à partir de Google Analytics 4 en combinant les informationsview_item_list
et le paramètresearch_term
.Pour en savoir plus sur
search
dans Google Analytics 4, consultezsearch
dans la documentation Google Analytics.
Vérifiez la cohérence des ID d'articles entre le catalogue importé et le Table des événements utilisateur Google Analytics 4.
Pour s'assurer qu'un produit du tableau des utilisateurs Google Analytics 4 également dans votre catalogue importé, copiez un ID produit Colonne
event.items.item_id
dans l'aperçu de la table BigQuery et utilisez la méthodeproduct.get
pour vérifier figure dans le catalogue que vous avez importé.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Configurer l'accès à BigQuery
Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search for retail le rôle Propriétaire de données BigQuery pour votre ensemble de données BigQuery.
Importer vos événements Google Analytics 4
Vous pouvez importer des événements Google Analytics 4 à l'aide de la
Recherchez la console Retail ou la méthode userEvents.import
.
Importer des événements Google Analytics 4 à l'aide de la console
-
Accédez à Données > de la console Search for Retail.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer des données.
- Sélectionnez Événements utilisateur.
- Sélectionnez BigQuery comme source de données.
-
Sélectionnez le schéma de données.
- Google Analytics 4 : à utiliser pour les événements Google Analytics 4.
- Google Analytics 360 : à utiliser pour les événements Google Analytics 360, sauf si vous importez uniquement des événements "vues de la page d'accueil" à partir de Google Analytics 360 (dans ce cas, utilisez le schéma des événements utilisateur dans le commerce).
- Schéma des événements utilisateur dans le commerce : à utiliser pour importer des événements à partir d'autres sources que Google Analytics et pour importer uniquement des événements de vue de la page d'accueil à partir de Google Analytics 360.
- Renseignez la table BigQuery dans laquelle se trouvent vos données.
- Facultatif : saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un
bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Cliquez sur Importer.
Importer des événements Google Analytics 4 à l'aide de l'API
Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import
. Consultez le
Documentation de référence de l'API userEvents.import
Pour dataSchema
, utilisez la valeur user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Importer des événements utilisateur intégrés
Vous pouvez importer des événements utilisateur de manière intégrée en incluant les données associées aux événements dans votre appel à la méthode userEvents.import
.
Le moyen le plus simple consiste à placer vos données d'événements utilisateur dans un fichier JSON et à fournir ce fichier à cURL.
Pour connaître les formats des types d'événements utilisateur, consultez la section À propos des événements utilisateur.
curl
Créez le fichier JSON :
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Appelez la méthode POST :
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Historique de données de catalogue
Vous pouvez également importer l'historique des données de catalogue qui apparaissent dans votre historique d'événements utilisateur. Cet historique des données de catalogue peut être utile, car les informations sur les produits passés peuvent être utilisées pour enrichir les événements utilisateur, ce qui peut améliorer la précision du modèle.
Pour en savoir plus, consultez la page Importer l'historique des données de catalogue.
Afficher les événements importés
Afficher les métriques d'intégration d'événements dans l'onglet Événements de la console Search for Retail Données. Cette page présente tous les événements écrits ou importés au cours de l'année précédente. Les métriques peuvent occuper à 24 heures après une ingestion de données réussie.