Wenn Sie ein neues Modell oder eine Empfehlung erstellen möchten, benötigt dieses Modell Nutzerereignisdaten für das Training. Die Datenmenge, die für das Training benötigt wird, hängt vom Empfehlungstyp und dem Optimierungsziel ab. Weitere Informationen zu den Anforderungen für Nutzerereignisse
Nachdem Sie die Echtzeitereigniserfassung eingerichtet haben, kann es einige Zeit dauern, bis genügend Nutzerereignisdaten aufgezeichnet wurden, um Ihre Modelle zu trainieren. Sie können das erste Modelltraining beschleunigen, indem Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Lesen Sie vorher die Best Practices zum Aufzeichnen von Nutzerereignissen.
Sie können:
- Ereignisse aus Cloud Storage importieren
- Mit der Methode
userEvents.import
können Sie Ereignisse inline importieren. - Ereignisse aus BigQuery importieren
- Importieren Sie Google Analytics 360-Ereignisse aus BigQuery.
Nutzerereignisse aus Cloud Storage importieren
Erstellen Sie eine Datei mit JSON-Daten, um Nutzerereignisse aus Cloud Storage zu importieren.
Stellen Sie sicher, dass Ihre JSON-Datei:
- gemäß ihrem Nutzerereignistyp formatiert ist. Beispiele für jedes Format von Nutzerereignistypen finden Sie unter Nutzerereignisse.
- ein ganzes Nutzerereignis in einer einzelnen Zeile bereitstellt, ohne Zeilenumbrüche.
- jedes Nutzerereignis in einer eigenen Zeile auflistet.
Nutzerereignisse inline importieren
curl
Sie importieren Nutzerereignisse inline, indem Sie die Daten für die Ereignisse in Ihren Aufruf der Methode userEvents.import
aufnehmen.
Der einfachste Weg dafür ist, Ihre Nutzerereignisdaten in eine JSON-Datei einzufügen und diese in cURL bereitzustellen.
Informationen zu den Formaten der Nutzerereignistypen finden Sie unter Nutzerereignisse.
Erstellen Sie die JSON-Datei:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Rufen Sie die Methode POST auf:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Nutzerereignisse aus BigQuery importieren
Importieren Sie Nutzerereignisse aus BigQuery mit der Methode userEvents.import
.
Ihre Nutzerereignisse müssen sich in BigQuery-Tabellen befinden, die für die Aufnahme durch Recommendations AI korrekt formatiert sind. Das Tabellenschema variiert je nach Nutzerereignistyp. Das JSON-Schema finden Sie unter Nutzerereignistypen und Beispielschema. Dieses Schema wird beim Erstellen von BigQuery-Tabellen für jeden Ereignistyp angegeben.
Verwenden Sie beim Importieren Ihrer Ereignisse den Wert user_event
für dataSchema
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET-ID",
"tableId": "TABLE-ID",
"dataSchema": "user_event"
}
}
}'
Wenn Ihr BigQuery-Dataset zu einem anderen Projekt als Ihrem Recommendations AI-Projekt gehört, folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Recommendations AI-Dienstkonto die Rolle BigQuery-Datenbearbeiter für Ihr BigQuery-Projekt zu verleihen. Ändern Sie die Importanfrage, um die BigQuery-Projekt-ID anzugeben:
"bigQuerySource": {
"projectId": "BQ_PROJECT_ID",
}
Google Analytics 360-Nutzerereignisse mit BigQuery importieren
Sie können Google Analytics 360-Nutzerereignisse importieren, wenn Sie Google Analytics 360 in BigQuery integriert haben und erweiterte E-Commerce-Berichte verwenden.
In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Google Analytics 360 vertraut sind.
Hinweis
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden erweiterte E-Commerce-Berichte.
- Sie haben BigQuery mit Analytics 360 verknüpft.
Datenquelle prüfen
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
Die Tabelle muss das Format
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
haben.Weitere Informationen zum Tabellenformat finden Sie in der Google Analytics-Dokumentation.
Wählen Sie in der BigQuery-Google Cloud Console die Tabelle aus den Ressourcen aus, um sich eine Vorschau der Tabelle anzeigen zu lassen. Prüfen Sie dabei Folgendes:
die Spalte
clientId
einen gültigen Wert hat (z. B.123456789.123456789
).Beachten Sie, dass sich dieser Wert vom vollständigen _ga-Cookiewert unterscheidet, der ein Format wie
GA1.3.123456789.123456789
hat.die Spalte
hits.transaction.currencyCode
einen gültigen Währungscode hat.
Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Analytics 360-Nutzerereignistabelle.
Verwenden Sie die Produkt-ID aus der Spalte
hits.product.productSKU
in der BigQuery-Tabellenvorschau und verwenden Sie die Methodeproduct.get
, um sicherzustellen, dass sich das gleiche Produkt in Ihrem hochgeladenen Katalog befindet.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Google Analytics 360-Ereignisse importieren
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen.
Verwenden Sie für dataSchema
den Wert user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Wenn Ihr BigQuery-Dataset zu einem anderen Projekt als Ihrem Recommendations AI-Projekt gehört, folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Recommendations AI-Dienstkonto die Rolle BigQuery-Datenbearbeiter für Ihr BigQuery-Projekt zu verleihen. Ändern Sie die Importanfrage, um die BigQuery-Projekt-ID anzugeben:
"bigQuerySource": {
"projectId": "GA360_BQ_PROJECT_ID",
}