Auf dieser Seite wird gezeigt, wie Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Vertex AI Search für Einzelhandelsmodelle benötigt Nutzerereignisdaten für das Training.
Nachdem Sie die Echtzeitereigniserfassung eingerichtet haben, kann es einige Zeit dauern, bis genügend Nutzerereignisdaten aufgezeichnet wurden, um Ihre Modelle zu trainieren. Sie können das erste Modelltraining beschleunigen, indem Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Informieren Sie sich dazu über die Best Practices zum Aufzeichnen von Nutzerereignissen und lesen Sie den Abschnitt Hinweis auf dieser Seite.
Die Importverfahren auf dieser Seite gelten sowohl für Empfehlungen als auch für die Suche. Nachdem Sie Daten importiert haben, können beide Dienste diese Ereignisse verwenden, sodass Sie dieselben Daten nicht zweimal importieren müssen, wenn Sie beide Dienste verwenden.
Sie können:
- Ereignisse aus Cloud Storage importieren.
- Ereignisse aus BigQuery importieren.
- Importieren Sie Google Analytics 360-Ereignisse aus BigQuery.
- Google Analytics 4-Ereignisse aus BigQuery importieren
- Mit der Methode
userEvents.import
können Sie Ereignisse inline importieren.
Anleitung zum Importieren von Ereignissen aus Cloud Storage
In dieser Anleitung wird gezeigt, wie Sie Nutzerereignisse aus Cloud Storage importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Anleitung zum Importieren von Ereignissen aus BigQuery
In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisse aus BigQuery importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Anleitung zum Inline-Importieren von Ereignissen
In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisdaten inline importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Hinweise
Lesen Sie die folgenden Informationen, bevor Sie Nutzerereignisse importieren, um Importfehler zu vermeiden und dafür zu sorgen, dass genügend Daten vorhanden sind, um gute Ergebnisse zu generieren.
Sehen Sie sich die Best Practices zum Aufzeichnen von Nutzerereignissen an.
Das Format des Nutzerereignisses hängt vom Typ des Nutzerereignisses ab. Das Format, das beim Erstellen von Tabellen für jeden Ereignistyp angegeben werden muss, finden Sie unter Nutzerereignistypen und Beispielschema.
Empfehlungen und die Suche andere Mindestdatenanforderungen haben. Achten Sie darauf, dass Ihre Nutzerereignisse die Anforderungen des Dienstes erfüllen, den Sie verwenden möchten:
Weitere Informationen zu Anforderungen an Such- und Empfehlungen finden Sie unter Anforderungen an Nutzerereignisse und Best Practices.
Wenn Sie Empfehlungsmodelle verwenden, finden Sie unter Anforderungen an Nutzerereignisdaten weitere Anforderungen, die vom Empfehlungsmodelltyp und dem Optimierungsziel abhängen, das Sie verwenden möchten.
Überlegungen zum Ereignisimport
In diesem Abschnitt werden die Methoden beschrieben, die Sie für den Batch-Import Ihrer bisherigen Nutzerereignisse verwenden können, wann die einzelnen Methoden verwendet werden können und welche Einschränkungen es gibt.
Cloud Storage | Beschreibung |
Importieren Sie Daten im JSON-Format aus Dateien, die in einen Cloud Storage-Bucket geladen wurden. Jede Datei kann maximal 2 GB groß sein und es können bis zu 100 Dateien gleichzeitig importiert werden. Der Import kann über die Google Cloud Console oder cURL erfolgen. Verwendet das JSON-Datenformat Product , das benutzerdefinierte Attribute zulässt.
|
---|---|---|
Wann er genutzt wird | Wenn Sie in einem einzigen Schritt größere Datenmengen laden müssen. | |
Beschränkungen | Wenn sich Ihre Daten in Google Analytics oder Merchant Center befinden, können sie nur nach BigQuery exportiert werden und erfordern dann den zusätzlichen Schritt, sie dann in Cloud Storage zu importieren. | |
BigQuery | Beschreibung | Importieren Sie Daten aus einer zuvor geladenen BigQuery-Tabelle, die das Schema von Vertex AI Search für den Einzelhandel verwendet. Kann mit der Google Cloud Console oder cURL ausgeführt werden. |
Wann er genutzt wird | Wenn Sie auch Analysedaten verwenden oder Ereignisdaten vor dem Import vorverarbeiten. | |
Beschränkungen | Erfordert den zusätzlichen Schritt zum Erstellen einer BigQuery-Tabelle, die dem Schema von Vertex AI Search für den Einzelhandel zugeordnet ist. Beachten Sie auch, dass bei einer großen Anzahl an Nutzerereignissen BigQuery mehr Kosten verursacht als Cloud Storage. | |
BigQuery mit Analytics 360 | Beschreibung | Importieren Sie vorhandene Daten aus Analytics 360 in Vertex AI Search für den Einzelhandel. |
Wann er genutzt wird | Sie verwenden Analytics 360 und erfassen Conversions für Empfehlungen oder Suchanfragen. Es ist keine zusätzliche Schemazuordnung erforderlich. | |
Beschränkungen | Da nur ein Teil der Attribute verfügbar ist, können einige erweiterte Features von Vertex AI Search für den Einzelhandel nicht verwendet werden. Wenn Sie die Suche verwenden möchten, müssen Sie Impressionen in Google Analytics erfassen. | |
BigQuery mit Google Analytics 4 | Beschreibung | Importieren Sie vorhandene Daten aus Google Analytics 4 in Vertex AI Search für den Einzelhandel. |
Wann er genutzt wird | Wenn Sie Google Analytics 4 verwenden und Conversions für Empfehlungen oder Suchanfragen erfassen. Es ist keine zusätzliche Schemazuordnung erforderlich. | |
Beschränkungen |
Da nur ein Teil der Attribute verfügbar ist, können einige erweiterte Features von Vertex AI Search für den Einzelhandel nicht verwendet werden.
Wenn Sie die Suche verwenden möchten, müssen Sie Schlüssel/Wert-Paare für Ereignisparameter für das Tracking einrichten. Der empfohlene Schlüssel ist search_query .
|
|
Inline-Import | Beschreibung |
Importieren Sie mit einem Aufruf der Methode userEvents.import .
|
Wann er genutzt wird | Wenn Sie den erhöhten Datenschutz durch eine durchgehende Authentifizierung auf dem Backend haben und in der Lage sein möchten, einen Backend-Import auszuführen. | |
Beschränkungen | In der Regel ist dies komplizierter als ein Webimport. |
Nutzerereignisse aus Cloud Storage importieren
Importieren Sie Nutzerereignisse aus Cloud Storage mit der Google Cloud Console oder der Methode userEvents.import
.
Console
-
Rufe in der Search for Retail-Konsole die Seite Daten> auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um den Bereich Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie Google Cloud Storage als Datenquelle aus.
- Wählen Sie Retail User Events Schema als Schema aus.
- Geben Sie den Cloud Storage-Speicherort Ihrer Daten ein.
- Klicken Sie auf Import (Importieren).
cURL
Mit der Methode userEvents.import
können Sie Ihre Nutzerereignisse importieren.
Erstellen Sie eine Datendatei für die Eingabeparameter für den Import. Verwenden Sie das Objekt
GcsSource
, um auf Ihren Cloud Storage-Bucket zu verweisen.Sie können mehrere Dateien oder nur eine bereitstellen.
- INPUT_FILE: Eine oder mehrere Dateien in Cloud Storage, die Ihre Nutzerereignisdaten enthalten. Beispiele für jedes Nutzerereignistypformat finden Sie unter Nutzerereignisse. Jedes Nutzerereignis muss sich in einer eigenen Zeile ohne Zeilenumbruch befinden.
- ERROR_DIRECTORY: Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import.
Die Felder der Eingabedatei müssen das Format
gs://<bucket>/<path-to-file>/
haben. Das Fehlerverzeichnis muss das Formatgs://<bucket>/<folder>/
haben. Wenn das Fehlerverzeichnis nicht vorhanden ist, wird es von Vertex AI Search for Retail erstellt. Der Bucket muss bereits vorhanden sein.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importieren Sie die Kataloginformationen. Stellen Sie dazu eine
POST
-Anfrage an die REST-MethodeuserEvents:import
und geben Sie den Namen der Datendatei an.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Nutzerereignisse aus BigQuery importieren
Importieren Sie Nutzerereignisse aus BigQuery mit der Google Cloud Console oder der Methode userEvents.import
.
BigQuery-Zugriff einrichten
Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Retail-Dienstkonto die Rolle BigQuery-Dateninhaber für Ihr BigQuery-Dataset zuzuweisen.
Nutzerereignisse aus BigQuery importieren
Sie können 360-Ereignisse mit der Search for Retail-Konsole oder der Methode userEvents.import
importieren.
Console
-
Rufe in der Search for Retail-Konsole die Seite Daten> auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um den Bereich Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Wird für Google Analytics 4-Ereignisse verwendet.
- Google Analytics 360: Wird für Google Analytics 360-Ereignisse verwendet, es sei denn, Sie importieren nur Ereignisse auf der Startseite von Google Analytics 360. Verwenden Sie in diesem Fall das Schema für Nutzerereignisse für den Einzelhandel.
- Schema für Nutzerereignisse für Einzelhändler: Wird zum Importieren von Ereignissen aus anderen Quellen als Google Analytics und zum Importieren von Ereignissen, die nur Startseitenaufrufe aus Google Analytics 360 betreffen, verwendet.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn nicht angegeben, wird ein Standardspeicherort verwendet. Wenn angegeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Optional: Geben Sie unter Erweiterte Optionen einblenden den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn angegeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Import (Importieren).
curl
Importieren Sie Ihre Nutzerereignisse. Nehmen Sie dazu die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
auf. Weitere Informationen finden Sie in der API-Referenz zu userEvents.import
.
Der Wert, den Sie für dataSchema
angeben, hängt davon ab, was Sie importieren:
user_event_ga4
: Wird für Google Analytics 4-Ereignisse verwendet.user_event_ga360
: Wird für Google Analytics 360-Ereignisse verwendet, es sei denn, Sie importieren nur Startseitenansichten aus Google Analytics 360 (in diesem Falluser_event
).user_event
: Wird zum Importieren von Ereignissen aus anderen Quellen als Google Analytics und zum Importieren von Ereignissen auf Startseitenaufrufe aus Google Analytics 360 verwendet.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Analytics 360-Nutzerereignisse mit BigQuery importieren
Sie können Analytics 360-Nutzerereignisse importieren, wenn Sie Analytics 360 in BigQuery eingebunden haben und erweiterte E-Commerce-Berichte verwenden.
Bei den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Analytics 360 vertraut sind.
Hinweise
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden erweiterte E-Commerce-Berichte.
- Sie haben BigQuery mit Analytics 360 verknüpft.
Datenquelle prüfen
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
Achten Sie darauf, dass die Tabelle den Namen
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
hat.Weitere Informationen zum Tabellenformat und zur Benennung finden Sie in der Google Analytics-Dokumentation.
Wählen Sie in der BigQuery Google Cloud Console die Tabelle im Bereich Explorer aus, um eine Vorschau der Tabelle anzuzeigen.
Prüfen Sie, ob:
Die Spalte
clientId
enthält einen gültigen Wert, z. B.123456789.123456789
.Beachten Sie, dass sich dieser Wert vom vollständigen _ga-Cookiewert unterscheidet, der ein Format wie
GA1.3.123456789.123456789
hat.die Spalte
hits.transaction.currencyCode
einen gültigen Währungscode hat.Wenn Sie
search
-Ereignisse importieren möchten, prüfen Sie, ob eine Spaltehits.page.searchKeyword
oderhits.customVariable.searchQuery
vorhanden ist.Der Import von
search
-Ereignissen wird unterstützt, aber sie werden von Analytics 360 nicht auf dieselbe Weise zugeordnet wie andere Ereignistypen, da Analytics 360 den Ereignistypsearch
nicht von Haus aus unterstützt. Während des Imports werdensearch
-Ereignisse aus Analytics 360 erstellt, indem Informationen aus der Suchanfrage und, falls vorhanden, der Produktimpression kombiniert werden.Die Suchanfrage wird entweder von
hits.page.searchKeyword
oder vonhits.customVariables.customVarValue
abgeleitet, wenn fürhits.customVariables.customVarName
der WertsearchQuery
gilt. Die Produktimpression wird aushits.product
übernommen, wenn fürhits.product.isImpressions
der WertTRUE
gilt.
Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Analytics 360-Nutzerereignistabelle.
Verwenden Sie die Produkt-ID aus der Spalte
hits.product.productSKU
in der BigQuery-Tabellenvorschau und verwenden Sie die Methodeproduct.get
, um sicherzustellen, dass sich das gleiche Produkt in Ihrem hochgeladenen Katalog befindet.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Analytics 360-Ereignisse importieren
Sie können Google Analytics 360-Ereignisse mit der Search for Retail-Konsole oder der Methode userEvents.import
importieren.
Console
-
Rufe in der Search for Retail-Konsole die Seite Daten> auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um den Bereich Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Wird für Google Analytics 4-Ereignisse verwendet.
- Google Analytics 360: Wird für Google Analytics 360-Ereignisse verwendet, es sei denn, Sie importieren nur Ereignisse auf der Startseite von Google Analytics 360. Verwenden Sie in diesem Fall das Schema für Nutzerereignisse für den Einzelhandel.
- Schema für Nutzerereignisse für Einzelhändler: Wird zum Importieren von Ereignissen aus anderen Quellen als Google Analytics und zum Importieren von Ereignissen, die nur Startseitenaufrufe aus Google Analytics 360 betreffen, verwendet.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn nicht angegeben, wird ein Standardspeicherort verwendet. Wenn angegeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Optional: Geben Sie unter Erweiterte Optionen einblenden den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn angegeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Import (Importieren).
REST
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen.
Verwenden Sie für dataSchema
den Wert user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Aufrufe der Analytics 360-Startseite mit BigQuery importieren
In Analytics 360 werden Ereignisse vom Typ „Startseite“ nicht von anderen Seitenaufrufereignissen unterschieden. Das bedeutet, dass Ereignisse vom Typ „Startseitenaufruf“ nicht als Ereignisse mit den anderen Ereignistypen (z. B. „Detailseitenansicht“) im Abschnitt Analytics 360-Ereignisse importieren importiert werden.
Im folgenden Verfahren wird erläutert, wie Sie Ereignisse vom Typ „Startseitenansicht“ aus Ihren Analytics 360-Daten extrahieren und in Vertex AI Search für den Einzelhandel importieren. Dies geschieht, indem die Ansichten der Nutzer (durch den Startseitenpfad identifiziert) von Nutzern in eine neue BigQuery-Tabelle extrahiert und dann Daten aus dieser neuen Tabelle in Vertex AI Search für den Einzelhandel importiert werden.
So importieren Sie Startseitenaufrufe aus Analytics 360 in Vertex AI Search für den Einzelhandel:
Erstellen Sie ein BigQuery-Dataset oder achten Sie darauf, dass ein BigQuery-Dataset verfügbar ist, dem Sie eine Tabelle hinzufügen können.
Dieses Dataset kann sich in Ihrem Projekt in Vertex AI Search für den Einzelhandel oder in dem Projekt befinden, in dem Sie Ihre Analytics 360-Daten haben. Dies ist das Ziel-Dataset, in das Sie die Analytics 360-Ereignisse vom Typ „home-page-view“ kopieren.
Erstellen Sie wie folgt eine BigQuery-Tabelle im Dataset:
Ersetzen Sie die Variablen im folgenden SQL-Code wie folgt.
target_project_id::Das Projekt, in dem sich das Dataset aus Schritt 1 befindet.
target_dataset::Dataset-Name aus Schritt 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.
Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.
Durch die Ausführung dieses Codes wird eine Tabelle im Format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
erstellt, z. B.my-project:view_events.ga_homepage_20230115
.Kopieren Sie die Analytics 360-Ereignisse auf der Startseite aus der Analytics 360-Datentabelle in die Tabelle, die im vorherigen Schritt 2 erstellt wurde.
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
source_project_id::Die ID des Projekts, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.
source_dataset::Das Dataset im Quellprojekt, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.
source_table::Die Tabelle im Quellprojekt, die die Analytics 360-Daten enthält.
target_project_id::Dieselbe Zielprojekt-ID wie im vorherigen Schritt 2.
target_dataset::Dasselbe Ziel-Dataset wie im vorherigen Schritt 2.
path:Dies ist der Pfad zur Startseite. In der Regel ist dies
/
, z. B. wenn die Startseiteexample.com/
ist. Wenn die Startseite jedochexamplepetstore.com/index.html
lautet, lautet der Pfad/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.
Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.
Folgen Sie der Anleitung unter Nutzerereignisse aus BigQuery importieren, um die Startseitenansicht-Ereignisse aus der Zieltabelle zu importieren. Wählen Sie bei der Schemaauswahl beim Importieren über die Console Retail User Events Schema aus. Wenn Sie mit
userEvents.import
importieren, geben Sieuser_event
alsdataSchema
-Wert an.Löschen Sie die Tabelle und das Dataset, die Sie in den Schritten 1 und 2 erstellt haben.
Google Analytics 4-Nutzerereignisse mit BigQuery importieren
Sie können Google Analytics 4-Nutzerereignisse importieren, wenn Sie Google Analytics 4 in BigQuery eingebunden haben und Google Analytics-E-Commerce verwenden.
Bei den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Google Analytics 4 vertraut sind.
Hinweise
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden E-Commerce von Google Analytics.
- Sie haben BigQuery mit Google Analytics 4 verknüpft.
Datenquelle prüfen
So bereiten Sie Ihre Nutzerereignisdaten für den Import vor:
Eine Tabelle der Google Analytics 4-Felder, die von Vertex AI Search für den Einzelhandel verwendet werden, und den Vertex AI Search für Einzelhandelsfelder, denen sie zugeordnet sind, finden Sie unter Google Analytics 4-Nutzerereignisfelder.
Informationen zu allen Google Analytics-Ereignisparametern finden Sie in der Referenzdokumentation zu Google Analytics-Ereignissen.
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
- Das Dataset sollte den Namen
analytics_PROPERTY_ID
haben. - Die Tabelle sollte den Namen
events_YYYYMMDD
haben.
Informationen zu Tabellennamen und -format finden Sie in der Google Analytics-Dokumentation.
- Das Dataset sollte den Namen
Wählen Sie in der BigQuery Google Cloud Console das Dataset im Bereich Explorer aus und suchen Sie die Tabelle mit den Nutzerereignissen, die Sie importieren möchten.
Prüfen Sie, ob:
Die Spalte
event_params.key
hat einencurrency
-Schlüssel und der zugehörige Stringwert ist ein gültiger Währungscode.Wenn Sie
search
-Ereignisse importieren möchten, muss die Spalteevent.event_params.key
einensearch_term
-Schlüssel und einen zugehörigen Wert enthalten.Das Importieren von
search
-Ereignissen wird unterstützt.search
-Ereignisse werden jedoch nicht auf die gleiche Weise wie andere Ereignistypen aus Google Analytics 4 zugeordnet, da Google Analytics 4 den Ereignistypsearch
von Vertex AI Search für den Einzelhandel nicht nativ unterstützt. Beim Import werdensearch
-Ereignisse aus Google Analytics 4 erstellt, indem Informationen ausview_item_list
undsearch_term
kombiniert werden.Informationen zu
search
in Google Analytics 4 finden Sie in der Google Analytics-Dokumentation untersearch
.
Die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Google Analytics 4-Nutzerereignistabelle prüfen.
Damit sich ein Produkt aus der Google Analytics 4-Nutzertabelle auch im hochgeladenen Katalog befindet, kopieren Sie eine Produkt-ID aus der Spalte
event.items.item_id
in der BigQuery-Tabellenvorschau und prüfen Sie mit der Methodeproduct.get
, ob sich diese Produkt-ID im hochgeladenen Katalog befindet.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
BigQuery-Zugriff einrichten
Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Retail-Dienstkonto die Rolle BigQuery-Dateninhaber für Ihr BigQuery-Dataset zuzuweisen.
Google Analytics 4-Ereignisse importieren
Sie können Google Analytics 4-Ereignisse mit der Search for Retail-Konsole oder der Methode userEvents.import
importieren.
Google Analytics 4-Ereignisse mit der Console importieren
-
Rufe in der Search for Retail-Konsole die Seite Daten> auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um den Bereich Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Wird für Google Analytics 4-Ereignisse verwendet.
- Google Analytics 360: Wird für Google Analytics 360-Ereignisse verwendet, es sei denn, Sie importieren nur Ereignisse auf der Startseite von Google Analytics 360. Verwenden Sie in diesem Fall das Schema für Nutzerereignisse für den Einzelhandel.
- Schema für Nutzerereignisse für Einzelhändler: Wird zum Importieren von Ereignissen aus anderen Quellen als Google Analytics und zum Importieren von Ereignissen, die nur Startseitenaufrufe aus Google Analytics 360 betreffen, verwendet.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn nicht angegeben, wird ein Standardspeicherort verwendet. Wenn angegeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Optional: Geben Sie unter Erweiterte Optionen einblenden den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn angegeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Import (Importieren).
Google Analytics 4-Ereignisse mit der API importieren
Importieren Sie Ihre Nutzerereignisse. Nehmen Sie dazu die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
auf. Weitere Informationen finden Sie in der API-Referenz zu userEvents.import
.
Verwenden Sie für dataSchema
den Wert user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Nutzerereignisse inline importieren
Sie können Nutzerereignisse inline importieren. Dazu nehmen Sie die Daten für die Ereignisse in Ihren Aufruf der Methode userEvents.import
auf.
Der einfachste Weg dafür ist, Ihre Nutzerereignisdaten in eine JSON-Datei einzufügen und diese in cURL bereitzustellen.
Die Formate der Nutzerereignistypen finden Sie unter Nutzerereignisse.
curl
Erstellen Sie die JSON-Datei:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Rufen Sie die Methode POST auf:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Historische Katalogdaten
Sie können auch die Verlaufskatalogdaten importieren, die in Ihren Verlaufsnutzerereignissen angezeigt werden. Diese historischen Katalogdaten können hilfreich sein, weil frühere Produktinformationen verwendet werden können, um die Nutzerereignisse anzureichern und damit die Modellgenauigkeit zu verbessern.
Weitere Informationen finden Sie unter Historische Katalogdaten importieren.
Importierte Ereignisse ansehen
Sehen Sie sich auf der Seite Daten der Search for Retail-Konsole auf dem Tab Ereignisse die Messwerte für die Ereignisintegration an. Auf dieser Seite werden alle Ereignisse angezeigt, die im letzten Jahr geschrieben oder importiert wurden. Nach erfolgreicher Datenaufnahme kann es bis zu einer Stunde dauern, bis Messwerte in der Console angezeigt werden.