Auf dieser Seite wird gezeigt, wie Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Vertex AI Search for Retail-Modelle benötigen Nutzerereignisdaten für das Training.
Nachdem Sie die Echtzeitereigniserfassung eingerichtet haben, kann es einige Zeit dauern, bis genügend Nutzerereignisdaten aufgezeichnet wurden, um Ihre Modelle zu trainieren. Sie können das erste Modelltraining beschleunigen, indem Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Informieren Sie sich dazu über die Best Practices zum Aufzeichnen von Nutzerereignissen und lesen Sie den Abschnitt Hinweis auf dieser Seite.
Die Importverfahren auf dieser Seite gelten für beide Empfehlungen und suchen. Nach dem Datenimport können beide Dienste diese Ereignisse verwenden. Sie müssen also nicht dieselben Daten zweimal, wenn Sie beide Dienste nutzen.
Sie haben folgende Möglichkeiten:
- Ereignisse aus Cloud Storage importieren.
- Ereignisse aus BigQuery importieren.
- Importieren Sie Google Analytics 360-Ereignisse aus BigQuery.
- Google Analytics 4-Ereignisse aus BigQuery importieren
- Mit der Methode
userEvents.import
können Sie Ereignisse inline importieren.
Anleitung zum Importieren von Ereignissen aus Cloud Storage
In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisse aus Cloud Storage importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Anleitung zum Importieren von Ereignissen aus BigQuery
In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisse aus BigQuery importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Anleitung zum Importieren von Ereignissen
In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisdaten inline importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Hinweise
Um Importfehler zu vermeiden und dafür zu sorgen, dass genügend Daten vorhanden sind überprüfen Sie die folgenden Informationen, bevor Sie Ihre Nutzerereignisse.
Sehen Sie sich die Best Practices zum Aufzeichnen von Nutzerereignissen an.
Das Format des Nutzerereignisses hängt vom Typ des Nutzerereignisses ab. Das Format, das beim Erstellen von Tabellen für jeden Ereignistyp angegeben werden muss, finden Sie unter Nutzerereignistypen und Beispielschema.
Für Empfehlungen und die Suche gelten unterschiedliche Datenanforderungen. Achten Sie darauf, dass Ihre Nutzerereignisse die Anforderungen des Dienstes erfüllen, den Sie verwenden möchten:
Anforderungen und Best Practices für Nutzerereignisse für Anforderungen an Such- und Empfehlungsfunktionen.
Wenn Sie Empfehlungsmodelle verwenden, lesen Sie auch Anforderungen an Nutzerereignisdaten, die zusätzliche Anforderungen, die vom Typ des Empfehlungsmodells und der Optimierung abhängen Ziel haben, das Sie verwenden möchten.
Überlegungen zum Ereignisimport
In diesem Abschnitt werden die Methoden, die für den Batch-Import Ihrer historischen Nutzerereignisse verwendet werden können, sowie einige der zugehörigen Methoden und Einschränkungen erläutert.
Cloud Storage | Beschreibung |
Importieren Sie Daten im JSON-Format aus Dateien, die in einen Cloud Storage-Bucket geladen wurden. Jede Datei kann maximal 2 GB groß sein und es können bis zu 100 Dateien gleichzeitig importiert werden. Der Import kann mit der Google Cloud Console oder mit cURL erfolgen. Verwendet das JSON-Datenformat Product , das benutzerdefinierte Attribute zulässt.
|
---|---|---|
Wann er genutzt wird | Wenn Sie in einem einzigen Schritt größere Datenmengen laden müssen. | |
Beschränkungen | Wenn sich Ihre Daten in Google Analytics oder Merchant Center befinden, können sie nur nach BigQuery exportiert werden und erfordern dann den zusätzlichen Schritt, sie dann in Cloud Storage zu importieren. | |
BigQuery | Beschreibung | Importieren Sie Daten aus einer zuvor geladenen BigQuery-Tabelle, die das Vertex AI Search for Retail-Schema verwendet. Kann ausgeführt werden mit Google Cloud Console oder cURL. |
Wann er genutzt wird | Wenn Sie auch Analysedaten verwenden oder Ereignisdaten vor dem Import vorverarbeiten. | |
Beschränkungen | Erfordert den zusätzlichen Schritt, eine BigQuery-Tabelle zu erstellen, die dem Vertex AI Search for Retail-Schema zugeordnet ist. Beachten Sie auch, dass bei einer großen Anzahl an Nutzerereignissen BigQuery mehr Kosten verursacht als Cloud Storage. | |
BigQuery mit Analytics 360 | Beschreibung | Importieren Sie bereits vorhandene Daten aus Analytics 360 in Vertex AI Search für den Einzelhandel. |
Wann er genutzt wird | Wenn Sie Analytics 360 verwenden und Empfehlungen oder Suchanfragen. Es ist keine zusätzliche Schemazuordnung erforderlich. | |
Beschränkungen | Es ist nur eine Teilmenge von Attributen verfügbar, sodass einige erweiterte Vertex AI Search for Retail-Features nicht verwendet werden können. Wenn Sie die Google Suche verwenden möchten, ist das Tracking von Impressionen in Google Analytics erforderlich. | |
BigQuery mit Google Analytics 4 | Beschreibung | Vorhandene Daten aus Google Analytics 4 in Vertex AI Search for Retail. |
Wann er genutzt wird | Wenn Sie Google Analytics 4 verwenden und Conversions für Empfehlungen oder Suchanfragen verfolgen. Es ist keine zusätzliche Schemazuordnung erforderlich. | |
Beschränkungen |
Es ist nur eine Teilmenge von Attributen verfügbar, sodass einige erweiterte Vertex AI Search for Retail-Features nicht verwendet werden können.
Wenn Sie die Suche verwenden möchten, müssen Sie Schlüssel/Wert-Paare für Ereignisparameter zum Tracking einrichten. Der empfohlene Schlüssel ist search_query .
|
|
Inline-Import | Beschreibung |
Importieren Sie mit einem Aufruf der Methode userEvents.import .
|
Wann er genutzt wird | Wenn Sie den erhöhten Datenschutz durch eine durchgehende Authentifizierung auf dem Backend haben und in der Lage sein möchten, einen Backend-Import auszuführen. | |
Beschränkungen | In der Regel ist dies komplizierter als ein Webimport. |
Nutzerereignisse aus Cloud Storage importieren
Sie können Nutzerereignisse aus Cloud Storage mit der Google Cloud Console oder mit der Methode userEvents.import
importieren.
Console
-
Gehen Sie zu Daten > in der Search for Retail-Konsole.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um den Bereich Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie Google Cloud Storage als Datenquelle aus.
- Wählen Sie als Schema Schema für Nutzerereignisse im Einzelhandel aus.
- Geben Sie den Cloud Storage-Speicherort Ihrer Daten ein.
- Klicken Sie auf Importieren.
cURL
Mit der Methode userEvents.import
können Sie Ihre Nutzerereignisse importieren.
Erstellen Sie eine Datendatei für die Eingabeparameter für den Import. Verwenden Sie das Objekt
GcsSource
, um auf Ihren Cloud Storage-Bucket zu verweisen.Sie können mehrere Dateien oder nur eine bereitstellen.
- INPUT_FILE: Eine oder mehrere Dateien in Cloud Storage, die Ihre Nutzerereignisdaten enthalten. Weitere Informationen finden Sie unter Nutzerereignisse für Beispiele für jedes Format von Nutzerereignistypen. Jedes Nutzerereignis muss sich in einer eigenen Zeile ohne Zeilenumbruch befinden.
- ERROR_DIRECTORY: Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import.
Die Felder der Eingabedatei müssen das Format
gs://<bucket>/<path-to-file>/
haben. Das Fehlerverzeichnis muss das Formatgs://<bucket>/<folder>/
haben. Wenn das Fehlerverzeichnis nicht vorhanden ist, wird Vertex AI Search for Retail erstellt. Der Bucket muss bereits vorhanden sein.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Kataloginformationen importieren durch
POST
-Anfrage an die RESTuserEvents:import
stellen unter Angabe des Namens der Datendatei.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Nutzerereignisse aus BigQuery importieren
Sie können Nutzerereignisse aus BigQuery mit der Google Cloud Console oder mit der Methode userEvents.import
importieren.
BigQuery-Zugriff einrichten
Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Retail-Dienstkonto die Rolle BigQuery-Dateninhaber für Ihr BigQuery-Dataset zuzuweisen.
Nutzerereignisse aus BigQuery importieren
Sie können 360-Ereignisse mithilfe der
Suchen Sie nach der Retail-Konsole oder der Methode userEvents.import
.
Console
-
Gehen Sie zu Daten > in der Search for Retail-Konsole.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Für Google Analytics 4-Ereignisse.
- Google Analytics 360: Für Google Analytics verwenden 360°-Ereignisse, es sei denn, Sie Nur Ereignisse vom Typ „Startseitenaufrufe“ aus Google Analytics 360 importieren Verwenden Sie in diesem Fall das Schema für Einzelhandelsnutzerereignisse.
- Einzelhandel-Nutzerereignisschema: Wird zum Importieren von Ereignissen aus anderen Quellen verwendet als bei Google Analytics. Es werden nur Ereignisse auf Startseitenaufrufe aus Google Analytics 360 importiert.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in das Feld
Ihr Projekt als temporären Speicherort für Ihre Daten an.
Wenn Sie nichts angeben, wird als Standardspeicherort verwendet. Wenn angegeben, müssen BigQuery und Cloud Storage-Bucket in derselben Region. - Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Buckets in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Importieren.
curl
Nutzerereignisse importieren, indem Sie die Daten für die Ereignisse in den Anruf einbeziehen
mit der Methode userEvents.import
verknüpfen. Weitere Informationen finden Sie in der userEvents.import
API-Referenz.
Welchen Wert Sie für dataSchema
angeben, hängt davon ab, was Sie importieren:
user_event_ga4
: Für Google Analytics 4-Ereignisse verwenden.user_event_ga360
: Für Google Analytics 360-Ereignisse verwenden. es sei denn, Sie nur Startseiten-Ansichten aus Google Analytics 360 (Verwenden Sie in diesem Falluser_event
.)user_event
: zum Importieren von Ereignissen aus anderen Quellen als Google Analytics und für nur Ereignisse, aus denen Aufrufe der Startseite importiert werden, Google Analytics 360
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Analytics 360-Nutzerereignisse mit BigQuery importieren
Analytics 360-Nutzerereignisse können importiert werden, Analytics 360 in BigQuery integriert erweiterte E-Commerce-Berichte.
Bei den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Analytics 360
Hinweise
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden erweiterte E-Commerce-Berichte.
- Sie haben BigQuery mit Analytics 360 verknüpft.
Datenquelle prüfen
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
Achten Sie darauf, dass die Tabelle den Namen
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
hat.Weitere Informationen finden Sie in der Google Analytics-Dokumentation. das Format und die Benennung der Tabelle.
Wählen Sie in der Google Cloud Console von BigQuery im Bereich Explorer die Tabelle aus, um deren Vorschau aufzurufen.
Prüfen Sie, ob:
Die Spalte
clientId
enthält einen gültigen Wert, z. B.123456789.123456789
.Beachten Sie, dass sich dieser Wert vom vollständigen _ga-Cookiewert unterscheidet, der ein Format wie
GA1.3.123456789.123456789
hat.die Spalte
hits.transaction.currencyCode
einen gültigen Währungscode hat.Wenn Sie
search
-Ereignisse importieren möchten, prüfen Sie, ob eine Spaltehits.page.searchKeyword
oderhits.customVariable.searchQuery
vorhanden ist.Der Import von
search
-Ereignissen wird unterstützt, aber sie werden von Analytics 360 nicht auf dieselbe Weise zugeordnet wie andere Ereignistypen, da Analytics 360 den Ereignistypsearch
nicht von Haus aus unterstützt. Während des Imports werdensearch
-Ereignisse aus Analytics 360 erstellt, indem Informationen aus der Suchanfrage und, falls vorhanden, aus Produktimpressionen kombiniert werden.Die Suchanfrage wird entweder von
hits.page.searchKeyword
oder vonhits.customVariables.customVarValue
abgeleitet, wenn fürhits.customVariables.customVarName
der WertsearchQuery
gilt. Die Produktimpression wird aushits.product
übernommen, wenn fürhits.product.isImpressions
der WertTRUE
gilt.
Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Analytics 360-Nutzerereignistabelle.
Verwenden Sie die Produkt-ID aus der Spalte
hits.product.productSKU
in der BigQuery-Tabellenvorschau und verwenden Sie die Methodeproduct.get
, um sicherzustellen, dass sich das gleiche Produkt in Ihrem hochgeladenen Katalog befindet.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Analytics 360-Ereignisse importieren
Sie können Google Analytics 360-Ereignisse mit der
Suchen Sie nach der Retail-Konsole oder der Methode userEvents.import
.
Console
-
Gehen Sie zu Daten > in der Search for Retail-Konsole.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Verwenden Sie diese Option für Google Analytics 4-Ereignisse.
- Google Analytics 360: Für Google Analytics verwenden 360°-Ereignisse, es sei denn, Sie Nur Ereignisse vom Typ „Startseitenaufrufe“ aus Google Analytics 360 importieren Verwenden Sie in diesem Fall das Schema für Einzelhandelsnutzerereignisse.
- Schema für Nutzerereignisse im Einzelhandel: Verwenden Sie dieses Schema, um Ereignisse aus anderen Quellen als Google Analytics und nur Ereignisse vom Typ „Startseitenaufrufe“ aus Google Analytics 360 zu importieren.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in das Feld
Ihr Projekt als temporären Speicherort für Ihre Daten an.
Wenn Sie nichts angeben, wird als Standardspeicherort verwendet. Wenn angegeben, müssen BigQuery und Cloud Storage-Bucket in derselben Region. - Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Buckets in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Importieren.
REST
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen.
Verwenden Sie für dataSchema
den Wert user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Analytics 360-Startseitenaufrufe mit BigQuery importieren
Ereignisse vom Typ „Startseitenaufruf“ sind in Analytics 360 von anderen Seitenaufrufereignissen unterschieden werden. Das bedeutet, dass Ereignisse vom Typ „startseitenaufruf“ nicht wie die anderen Ereignistypen (z. B. „detailseitenaufruf“) unter Google Analytics 360-Ereignisse importieren importiert werden.
Im Folgenden wird erläutert, wie Sie Startseitenaufruf-Ereignisse aus Analytics 360-Daten in Analytics 360-Daten Vertex AI Search for Retail. Kurz gesagt: Hierzu werden die Blick auf das Zuhause (durch den Startseitenpfad gekennzeichnet) in eine neue BigQuery-Tabelle und dann Daten aus dieser neuen Tabelle in Vertex AI Search for Retail zu importieren.
Wenn Sie Ereignisse vom Typ „Startseitenaufrufe“ aus Analytics 360 in Vertex AI Search für den Einzelhandel:
Erstellen Sie ein BigQuery-Dataset oder stellen Sie sicher, dass Sie eine BigQuery-Dataset, dem Sie eine Tabelle hinzufügen können.
Dieses Dataset kann sich in Ihrem Vertex AI Search for Retail-Projekt oder in dem Projekt befinden, haben Sie Ihre Analytics 360-Daten. Dies ist der Zieldatensatz, in den Sie die Analytics 360-Ereignisse vom Typ „Startseitenaufruf“ kopieren.
Erstellen Sie eine BigQuery-Tabelle im Dataset wie folgt:
Ersetzen Sie die Variablen im folgenden SQL-Code so:
target_project_id::Das Projekt, zu dem das Dataset aus Schritt 1 gehört. befindet.
target_dataset: Der Name des Datasets aus Schritt 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.
Wenn Sie diesen Code ausführen, wird eine Tabelle im Format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
erstellt, z. B.my-project:view_events.ga_homepage_20230115
.Kopieren Sie die Analytics 360-Ereignisse vom Typ „Startseitenaufruf“ aus der Analytics 360-Datentabelle in die Tabelle ein, die im vorherigen Schritt 2.
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
source_project_id::Die ID des Projekts, das den Analytics 360-Daten in BigQuery .
source_dataset: Das Dataset im Quellprojekt, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.
source_table::Die Tabelle im Quellprojekt, die die Datei die Analytics 360-Daten.
target_project_id::Dieselbe Zielprojekt-ID wie im vorherigen Schritt 2.
target_dataset::dasselbe Ziel-Dataset wie im vorherigen Schritt 2.
path:Pfad zur Startseite. Normalerweise ist dies
/
– für Beispiel:example.com/
ist die Startseite. Wenn die Startseite jedoch entsprichtexamplepetstore.com/index.html
, der Pfad ist/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.
Folgen Sie der Anleitung unter Nutzerereignisse aus BigQuery importieren, um Ereignisse zu importieren. Homepage-view-Ereignisse aus der Zieltabelle. Wenn Sie die Konsole zum Importieren verwenden, wählen Sie bei der Schemaauswahl Schema für Nutzerereignisse in Retail aus. Wenn Sie
userEvents.import
zum Importieren verwenden, geben Sieuser_event
für dendataSchema
-Wert an.Löschen Sie die Tabelle und das Dataset, die Sie in den Schritten 1 und 2 erstellt haben.
Google Analytics 4-Nutzerereignisse mit BigQuery importieren
Sie können Google Analytics 4-Nutzerereignisse importieren, wenn Sie Google Analytics 4 in BigQuery integriert haben und Google Analytics-E-Commerce-Berichte verwenden.
In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Google Analytics 4 vertraut sind.
Hinweise
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden Google Analytics E-Commerce.
- Sie haben BigQuery mit Google Analytics 4 verknüpft.
Datenquelle prüfen
Führen Sie die folgenden Schritte aus, um Ihre Nutzerereignisdaten für den Import vorzubereiten.
Eine Tabelle mit Google Analytics 4-Feldern, die in Vertex AI Search for Retail verwendet werden, und den zugehörigen Vertex AI Search for Retail-Feldern, finden Sie unter Google Analytics 4-Felder für Nutzerereignisse.
Eine Liste aller Google Analytics-Ereignisparameter finden Sie in der Referenzdokumentation zu Google Analytics-Ereignissen.
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
- Das Dataset sollte den Namen
analytics_PROPERTY_ID
haben. - Die Tabelle sollte den Namen
events_YYYYMMDD
haben.
Informationen zu Tabellennamen und -format finden Sie in der Google Analytics-Dokumentation.
- Das Dataset sollte den Namen
Im BigQuery Google Cloud Console Wählen Sie das Dataset im Bereich Explorer aus und suchen Sie die Tabelle „Nutzer“ die Sie importieren möchten.
Prüfen Sie, ob:
die Spalte
event_params.key
einen Schlüsselcurrency
hat und der zugehörige Stringwert ein gültiger Währungscode ist.Wenn Sie
search
-Ereignisse importieren möchten, prüfen Sie, ob die Spalteevent.event_params.key
einensearch_term
-Schlüssel und einen zugehörigen Wert hat.Das Importieren von
search
-Ereignissen wird unterstützt, abersearch
-Ereignisse können nicht zugeordnet werden Google Analytics 4 genau wie andere Ereignistypen da Google Analytics 4 die Vertex AI Search for Retailsearch
-Ereignistyp. Während des Importssearch
-Ereignisse bestehen aus in Google Analytics 4, indem Informationen aus derview_item_list
und den Parametersearch_term
.Informationen zu
search
in Google Analytics 4 finden Sie untersearch
.
Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und dem Google Analytics 4-Nutzerereignistabelle.
Um sicherzugehen, dass ein Produkt in der Google Analytics 4-Nutzertabelle kopieren Sie eine Produkt-ID aus dem Spalte
event.items.item_id
in der BigQuery-Tabellenvorschau und prüfen Sie mit der Methodeproduct.get
, ob diese Produkt-ID in Ihrem hochgeladenen Katalog.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
BigQuery-Zugriff einrichten
Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Retail-Dienstkonto die Rolle BigQuery-Dateninhaber für Ihr BigQuery-Dataset zuzuweisen.
Google Analytics 4-Ereignisse importieren
Sie können Google Analytics 4-Ereignisse über die Search Console für Einzelhandel oder die Methode userEvents.import
importieren.
Google Analytics 4-Ereignisse über die Console importieren
-
Gehen Sie zu Daten > in der Search for Retail-Konsole.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Verwenden Sie diese Option für Google Analytics 4-Ereignisse.
- Google Analytics 360: Verwenden Sie dieses Schema für Google Analytics 360-Ereignisse, es sei denn, Sie importieren nur Ereignisse vom Typ „Startseitenaufrufe“ aus Google Analytics 360. Verwenden Sie in diesem Fall das Schema für Ereignisse von Einzelhändlern.
- Schema für Nutzerereignisse im Einzelhandel: Verwenden Sie dieses Schema, um Ereignisse aus anderen Quellen als Google Analytics und nur Ereignisse vom Typ „Startseitenaufrufe“ aus Google Analytics 360 zu importieren.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in das Feld
Ihr Projekt als temporären Speicherort für Ihre Daten an.
Wenn Sie nichts angeben, wird als Standardspeicherort verwendet. Wenn angegeben, müssen BigQuery und Cloud Storage-Bucket in derselben Region. - Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Buckets in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Importieren.
Google Analytics 4-Ereignisse über die API importieren
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen. Weitere Informationen finden Sie in der
userEvents.import
API-Referenz
Verwenden Sie für dataSchema
den Wert user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Nutzerereignisse inline importieren
Sie importieren Nutzerereignisse inline, indem Sie die Daten für die Ereignisse in Ihren Aufruf der Methode userEvents.import
aufnehmen.
Der einfachste Weg dafür ist, Ihre Nutzerereignisdaten in eine JSON-Datei einzufügen und diese in cURL bereitzustellen.
Informationen zu den Formaten der Nutzerereignistypen finden Sie unter Nutzerereignisse.
curl
Erstellen Sie die JSON-Datei:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Rufen Sie die Methode POST auf:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Historische Katalogdaten
Sie können auch die Verlaufskatalogdaten importieren, die in Ihren Verlaufsnutzerereignissen angezeigt werden. Diese vergangenen Katalogdaten können hilfreich sein, da frühere Produktinformationen zur Anreicherung der Nutzerereignisse verwendet werden können, was die Modellgenauigkeit möglicherweise noch verbessert.
Weitere Informationen finden Sie unter Historische Katalogdaten importieren.
Importierte Ereignisse ansehen
Messwerte zur Ereignisintegration finden Sie in der Retail-Konsole auf der Seite Daten auf dem Tab Ereignisse. Auf dieser Seite werden alle Ereignisse angezeigt, die im letzten Jahr geschrieben oder importiert wurden. Messwerte können bis zu bis 24 Stunden nach erfolgreicher Datenaufnahme angezeigt werden.