Auf dieser Seite wird beschrieben, wie Sie Daten zu Einzelhandelsprodukten und Nutzerereignissen in BigQuery hochladen. Nachdem sich Ihre Daten in BigQuery befinden, können Sie damit Verkaufsprognosen mit Vertex AI erstellen und die Daten in vordefinierten Looker-Dashboards ansehen.
Wenn sich Ihre Einzelhandelsdaten bereits in Produkt- und Nutzerereignistabellen in BigQuery befinden, können Sie diese Seite überspringen und direkt zu Dashboards mit wichtigen Leistungskennzahlen abrufen und Umsatzprognosen aus Einzelhandelsdaten erstellen springen. Weitere Informationen zum Format finden Sie unter Produktschema und Nutzerereignisse.
Hinweise
Bevor Sie Ihre Einzelhandelsdaten nach BigQuery exportieren können, müssen Sie die Schritte unter Vorbereitung ausführen. Dazu gehört auch der Import Ihrer Kataloginformationen und Nutzerereignisse.
Weitere Informationen zum Importieren finden Sie unter:
- Kataloginformationen importieren
- Nutzerereignisse in Echtzeit aufzeichnen
- Bisherige Nutzerereignisse importieren
Dataset in BigQuery erstellen
Sie müssen ein oder zwei Datasets in BigQuery erstellen, um Ihre Produkt- und Nutzerereignisdaten zu speichern. Sie können einen Datensatz für beide Datentypen verwenden oder zwei Datensätze erstellen, einen für jeden Datentyp.
Sie müssen die Datasets in demselben Projekt erstellen, in dem Sie Vertex AI Search for Retail implementiert haben.
Wenn Sie BigQuery in Ihrem Projekt noch nicht verwendet haben, aktivieren Sie die BigQuery API und prüfen Sie, ob Sie die IAM-Rolle haben, mit der Sie Datasets und Tabellen erstellen können.
Weitere Informationen finden Sie in der BigQuery-Dokumentation unter Vorab und Zugriffssteuerung mit IAM.
Erstellen Sie ein Dataset in BigQuery in der Multiregion USA (mehrere Regionen in den USA). Nennen Sie es beispielsweise
retail_data
. Wenn Sie das Dataset in einer anderen Region erstellen, schlägt der Export Ihrer Daten nach BigQuery fehl.Weitere Informationen zum Erstellen eines Datasets finden Sie in der BigQuery-Dokumentation unter Datasets erstellen.
In diesem Datensatz werden die von Ihnen exportierten Datentabellen gespeichert. Im Folgenden wird beschrieben, wie Sie Daten exportieren.
Optional: Wenn Sie Ihre Nutzerereignisdaten in einem separaten Datensatz von Ihren Produktdaten speichern möchten, erstellen Sie einen zweiten Datensatz. Benennen Sie ihn beispielsweise
retail_user_event_data
.
Vertex AI Search for Retail-Katalog in eine BigQuery-Tabelle exportieren
Verwenden Sie die Methode ExportProducts
, um Ihren Retail-Katalog in eine BigQuery-Tabelle zu exportieren.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Die ID des Vertex AI Search for Retail API-Projekts, in dem Sie das BigQuery-Dataset erstellt haben.
-
BRANCH_ID: Die ID des Katalogzweigs. Verwenden Sie
default_branch
, um Daten aus dem Standardzweig abzurufen. Weitere Informationen finden Sie unter Katalogzweige. -
DATASET_ID: Der Name des Datasets, das Sie unter
Dataset in BigQuery erstellen erstellt haben. Verwenden Sie z. B.
retail_data
oderretail_product_data
. Das Dataset muss sich im selben Projekt befinden. Fügen Sie die Projekt-ID hier nicht in das FelddatasetId
ein. -
TABLE_ID_PREFIX: Ein Präfix für die Tabellen-ID. Dieses Präfix darf kein leerer String sein. Um den Tabellennamen zu vervollständigen, wird das Suffix
retail_products
hinzugefügt. Wenn das Präfix beispielsweisetest
lautet, heißt die Tabelletest_retail_products
.
JSON-Text der Anfrage:
{ "outputConfig": { "bigqueryDestination": { "datasetId": "DATASET_ID", "tableIdPrefix": "TABLE_ID_PREFIX", "tableType": "view" } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/operations/17986570020347019923", "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2alpha.ExportProductsResponse", "outputResult": { "bigqueryResult": [ { "datasetId": "DATASET_ID", "tableId": "TABLE_ID_PREFIX_retail_products" } ] } } }
Nutzerereignisse in eine BigQuery-Tabelle exportieren
Verwenden Sie die Methode userEvents.export
, um Ihre Nutzerereignisse aus dem Einzelhandel in eine BigQuery-Tabelle zu exportieren:
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Die ID des Vertex AI Search for Retail API-Projekts, in dem Sie das BigQuery-Dataset erstellt haben.
-
DATASET_ID: Der Name des Datasets, das Sie unter Dataset in BigQuery erstellen erstellt haben. Verwenden Sie z. B.
retail_data
oderretail_product_data
. -
TABLE_ID_PREFIX: Ein Präfix für die Tabellen-ID. Dieses Präfix darf kein leerer String sein. Um den Tabellennamen zu vervollständigen, wird das Suffix
retail_products
hinzugefügt. Wenn das Präfix beispielsweisetest
lautet, heißt die Tabelletest_retail_products
.
JSON-Text der Anfrage:
{ "outputConfig": { "bigqueryDestination": { "datasetId": "DATASET_ID", "tableIdPrefix": "TABLE_ID_PREFIX", "tableType": "view" } } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten in etwa folgende JSON-Antwort erhalten:
{ "name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/operations/17203443067109586170", "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2alpha.ExportUserEventsResponse", "outputResult": { "bigqueryResult": [ { "datasetId": "DATASET_ID", "tableId": "TABLE_ID_PREFIX_retail_user_events" } ] } } }
Exportierte Daten
Hier finden Sie einige Informationen zu den Einzelhandelsdaten, die Sie in BigQuery-Tabellen exportieren:
Die Daten, die in BigQuery-Tabellen in Ihrem Projekt exportiert werden, sind autorisierte Ansichten, keine materialisierten Ansichten.
Sie können die Daten in diesen Tabellen nicht ändern oder aktualisieren.
Die Produkte werden stündlich aktualisiert.
Nutzerereignisse werden nahezu in Echtzeit aktualisiert.
Exportierte Nutzerereignisdaten
Im Folgenden finden Sie Informationen zu den Produktinformationen, die in den exportierten Nutzerereignisdaten enthalten sind.
Produktpreisinformationen
Wie Produktpreisinformationen von der userEvents.export
-Methode zurückgegeben werden, hängt von Folgendem ab:
Sie haben bei der Datenaufnahme Preisinformationen in Ihre Nutzerereignisdaten aufgenommen. Wenn Sie die Methode
userEvents.export
aufrufen, ist der mit einem Nutzerereignis zurückgegebene Preis der Preis des Produkts zum Zeitpunkt des Ereignisses.Sie haben keine Preisinformationen in Ihren Nutzerereignisdaten angegeben, aber bei der Datenaufnahme Preisinformationen in Ihre Produktdaten aufgenommen. Wenn Sie die Methode
userEvents.export
aufrufen, ist der mit einem Nutzerereignis zurückgegebene Preis nicht unbedingt der Preis des Produkts zum Zeitpunkt des Ereignisses. Das ist der Preis, der zum Zeitpunkt der Datenaufnahme in Ihren Produktdaten enthalten war.Sie haben keine Preisinformationen in Ihren Nutzerereignisdaten angegeben und es sind auch keine Preisinformationen in Ihren Produktdaten verfügbar. Wenn Sie die Methode
userEvents.export
aufrufen, wird mit Nutzerereignissen kein Preis zurückgegeben.
Sonstige Produktinformationen
Alle Produktinformationen (außer Preis) werden zum Zeitpunkt des Aufrufs der Methode userEvents.export
mit den Informationen zu Nutzerereignissen zusammengeführt. Produktwerte können sich zwischen dem Zeitpunkt des Nutzerereignisses und dem Zeitpunkt ändern, zu dem Sie userEvents.export
aufrufen. Aus diesem Grund können sich die nicht preisbezogenen Produktwerte, die in der Tabelle „Nutzerereignis“ zurückgegeben werden, von den Produktwerten zum Zeitpunkt des Nutzerereignisses unterscheiden.
Optional: Prüfen, ob sich die neuen Tabellen in BigQuery befinden
Nachdem Sie Ihre Produktdaten und Nutzerereignisdaten nach BigQuery exportiert haben, prüfen Sie, ob neue Tabellen vorhanden sind.
Rufen Sie in BigQuery das oder die Datasets auf, die Sie unter Dataset in BigQuery erstellen erstellt haben.
Öffnen Sie die Datensätze und prüfen Sie, ob die beiden exportierten Tabellen angezeigt werden. Suchen Sie beispielsweise nach Tabellen mit Namen, die auf
retail_products
undretail_user_events
enden.