Auf der Seite finden Sie eine Anleitung zum Abrufen von Prognosen von Vertex AI, die auf nach BigQuery exportierten Einzelhandelsdaten basieren. Wir bieten mehrere SQL-Codeblöcke, die Sie bei der Transformation von Einzelhandelsprodukten und -nutzern unterstützen. in ein Format konvertieren, das Vertex AI verwenden kann. Auf diese Codeblöcke folgen Verfahren für die Vertex AI-Konsole, um ein Dataset zu erstellen, ein Modell zu trainieren und dann eine Prognose zu erstellen.
Hinweise
Bevor Sie mit Ihren Einzelhandelsdaten Umsatzprognosen erstellen können, müssen Sie Folgendes tun:
Laden Sie Ihre Einzelhandelsdaten mit Vertex AI Search for Retail hoch. Weitere Informationen finden Sie hier:
Exportieren Sie Ihre Einzelhandelsdaten aus Vertex AI Search for Retail nach BigQuery. So haben Sie eine Produkttabelle und Ereignistabelle in BigQuery, die Sie im folgenden Beispiel verwenden können: Verfahren. Weitere Informationen finden Sie unter Daten in BigQuery exportieren.
Wenn Ihre Produkt- und Nutzerereignisdaten bereits Mit BigQuery im Format „Vertex AI Search for Retail“ können Sie um anhand dieser Daten Umsatzprognosen zu erstellen. In diesem Fall müssen Sie Ihre Einzelhandelsdaten nicht hochladen und nach BigQuery exportieren. Weitere Informationen zum Format finden Sie unter Produktschema und Nutzereignisse.
Sie benötigen die IAM-Rolle
roles/aiplatform.user
, um die Schritte über die Vertex AI Console ausführen zu können.
Aggregierte Verkaufstabelle erstellen
Mit dem SQL-Code in diesem Abschnitt wird die Tabelle mit Nutzerereignissen in eine aggregierte Verkaufstabelle umgewandelt. Das bedeutet, dass für jedes Produkt in der Nutzerereignistabelle, mindestens einmal verkauft wurde, wird die Verkaufsmenge für das Produkt wöchentliche Periode. Außerdem führt der SQL-Code Folgendes aus:
Bei allen Produkten in der Nutzerereignistabelle, wenn Zeitstempel fehlen dem ersten Verkauf des Produkts in der Tabelle und dem letzten Produkt in der Tabelle haben, wird für jeden der fehlenden Zeitstempel ein neuer Zeile mit 0 Verkäufen. Dadurch sollen Lücken in der Verkaufshistorie geschlossen werden.
Wenn sich in der Tabelle mit Nutzerereignissen kein Produkt mit mindestens 20 Zeitstempeln befindet, wird ein Produkt aus der Tabelle zufällig ausgewählt und mit genügend Zeilen (jeweils ohne Verkäufe) aufgefüllt, um 20 Zeitstempel zu erreichen. Damit möchten wir die Vertex AI-Anforderung von mindestens 20 Zeitstempeln erfüllen. wenn Sie ein Modell trainieren.
So erstellen Sie eine aggregierte Verkaufstabelle:
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte:
MONDAY
,TUESDAY
,WEDNESDAY
,THURSDAY
,FRIDAY
,SATURDAY
,SUNDAY
rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs der Tabelle mit Nutzerereignissen, die Sie in BigQuery exportiert haben. Das Format ist
project_id.dataset_id.table_id
.rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs der Produkttabelle, die Sie in BigQuery exportiert haben. Das Format ist
project_id.dataset_id.table_id
.aggregated_sales_table: Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue aggregierte Verkaufstabelle. Gleiche Projekt-ID als Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Dataset. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format ist
project_id.dataset_id.table_id
.
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Projekt aus, das Ihr Produkt enthält, falls es noch nicht ausgewählt ist. und Nutzerereignistabellen.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.
Die neue Tabelle mit den aggregierten Umsätzen wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen aggregated_sales_table festgelegt haben.
Produkttabelle verarbeiten
Der SQL-Code in diesem Abschnitt wirkt sich auf die Produkttabelle aus, in die Sie exportiert haben. BigQuery, das Entfernen der wiederkehrenden Felder und der Strukturfelder und Aufheben der Verschachtelung price_info-Feld in seine untergeordneten Felder ein. Dies ist erforderlich, da Vertex AI keine Listen oder verschachtelten Strukturen akzeptiert. Das Ergebnis ist die Tabelle „Verarbeitete Produkte“.
So verarbeiten Sie die Produkttabelle:
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie in BigQuery exportiert haben. Das Format ist
project_id.dataset_id.table_id
.processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue verarbeitete Produkttabelle Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Dataset. Tabellen-ID angeben, aber nicht die ID einer vorhandenen Tabelle verwenden es sei denn, Sie möchten sie überschreiben. Das Format ist
project_id.dataset_id.table_id
.
CREATE OR REPLACE TABLE `PROCESSED_PRODUCT_TABLE` AS SELECT * EXCEPT (id, attributes, price_info, rating, expire_time, available_time, fulfillment_info, images, audience, color_info, promotions, publish_time, retrievable_fields, categories, brands, conditions, sizes, collection_member_ids, tags, materials, patterns), id as sku, price_info.price as price_info_price, price_info.currency_code as price_info_currency_code, price_info.cost as price_info_cost, FROM `RDM_PRODUCT_TABLE`
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.
Die neue Tabelle mit verarbeiteten Produkten wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen processed_product_table festgelegt haben.
Ereignisvorhersagetabelle erstellen
Mit dem SQL-Code in diesem Abschnitt wird jede Artikelnummer extrahiert, die mindestens einmal in der Tabelle „Nutzer-Ereignisse“ verkauft wurde. Mit dem Code wird eine Ereignisvorhersagetabelle erstellt, die alle extrahierten SKUs für alle Zeitstempel in der Zukunft. Die Zukunft Zeitstempel sind ein Array aufeinanderfolgender wöchentlicher Zeitstempel, Woche in der Tabelle mit Nutzerereignissen + 1 Woche und endet mit der letzten Woche des Nutzers Ereignistabelle + future_length-Wochen. Sie legen den Wert für future_length fest auf die Anzahl der Wochen in die Zukunft, die das Modell vorhersagen soll. Jede Zeile in der Tabelle mit den Ereignisvorhersagen kann eindeutig durch eine SKU und einen Zeitstempel identifiziert werden.
So erstellen Sie eine Tabelle mit Ereignisvorhersagen:
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte:
MONDAY
,TUESDAY
,WEDNESDAY
,THURSDAY
,FRIDAY
,SATURDAY
,SUNDAY
rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs für den Nutzer Ereignistabelle, die Sie nach BigQuery exportiert haben. Das Format ist
project_id.dataset_id.table_id
events_prediction_table Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Tabelle für die Ereignisvorhersage. Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Dataset. Tabellen-ID angeben, aber nicht die ID einer vorhandenen Tabelle verwenden es sei denn, Sie möchten sie überschreiben. Das Format ist
project_id.dataset_id.table_id
rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie in BigQuery exportiert haben. Das Format ist
project_id.dataset_id.table_id
future_length festgelegt. Anzahl der Wochen nach der letzten Woche in der Zukunft die das Modell vorhersagt.
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie auf um die Ausführung der Abfrage zu beenden.
Die neue Tabelle für die Ereignisvorhersage wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen events_prediction_table festgelegt haben.
Vertex AI-Trainingstabelle erstellen
Über den SQL-Code in diesem Abschnitt wird die Tabelle „Aggregierte Verkäufe“ mit den Produkttabelle. Das Ergebnis ist eine Vertex AI-Trainingstabelle, Vertex AI verwendet das Modelltraining.
So erstellen Sie eine Vertex AI-Trainingstabelle:
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
vertex_ai_training_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Trainingstabelle von Vertex AI. Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Datasets. Tabellen-ID angeben, jedoch nicht die ID einer vorhandenen es sei denn, Sie möchten sie überschreiben. Das Format ist
project_id.dataset_id.table_id
.aggregated_sales_table: Die Projekt-, Dataset- und Tabellen-IDs in BigQuery der aggregierten Verkaufstabelle, die Sie unter Aggregierte Verkaufstabelle erstellen erstellt haben.
processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.
CREATE OR REPLACE TABLE `VERTEX_AI_TRAINING_TABLE` AS SELECT t1.*, t2.* EXCEPT(sku) FROM `AGGREGATED_SALES_TABLE` AS t1 LEFT JOIN `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie auf um die Ausführung der Abfrage zu beenden.
Die neue Vertex AI-Trainingstabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_training_table festgelegt haben.
Vertex AI-Vorhersagetabelle erstellen
Mit dem SQL-Code in diesem Abschnitt wird die Tabelle mit der Ereignisvorhersage an den aggregierte Verkaufstabelle und führt diese dann mit der Tabelle mit den verarbeiteten Produkten zusammen. Die ist die Vertex AI-Vorhersagetabelle, die zum Erstellen eines Prognose
So erstellen Sie eine Vertex AI-Vorhersagetabelle:
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
vertex_ai_prediction_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Vorhersagetabelle. Verwenden Sie dieselbe Projekt-ID und Dataset-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID einer vorhandenen Tabelle nur, wenn Sie sie überschreiben möchten. Das Format dafür ist
project_id.dataset_id.table_id
.aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die aggregierte Verkaufstabelle, die Sie im Erstellen Sie eine aggregierte Verkaufstabelle.
processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.
events_prediction_table Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Ereignisvorhersagetabelle, die Sie erstellt haben in Ereignisvorhersagetabelle erstellen.
CREATE OR REPLACE TABLE `VERTEX_AI_PREDICTION_TABLE` AS WITH append_predict_to_history AS ( SELECT add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity, last_day_of_week, quantity, search_quantity, sku FROM `AGGREGATED_SALES_TABLE` UNION ALL SELECT NULL AS add_to_cart_quantity, NULL AS category_page_view_quantity, NULL AS detail_page_view_quantity, last_day_of_week, NULL AS quantity, NULL AS search_quantity, sku FROM `EVENTS_PREDICTION_TABLE` ) SELECT t1.*, t2.* EXCEPT(sku) FROM append_predict_to_history AS t1 LEFT JOIN `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite "BigQuery".
Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie auf um die Ausführung der Abfrage zu beenden.
Ihre neue Vertex AI-Vorhersagetabelle wird an den Ort geschrieben, der BigQuery, das Sie mit vertex_ai_prediction_table festlegen .
Vertex AI-Dataset erstellen
In diesem Abschnitt erfahren Sie, wie Sie ein Vertex AI-Dataset erstellen, mit dem Sie ein Prognosemodell trainieren können. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Dataset zum Trainieren von Prognosemodellen erstellen.
So erstellen Sie ein Vertex AI-Dataset:
Gehen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ zum Dataset-Seite.
Klicken Sie auf Erstellen, um die Seite Dataset erstellen zu öffnen.
Geben Sie im Feld Dataset-Name einen Namen für das neue Dataset ein.
Wählen Sie den Tab Tabellarisch aus.
Wählen Sie das Prognoseziel aus.
Wählen Sie in der Liste Region die Region aus, die Sie beim Erstellen eines Datasets verwendet haben, um Ihre Einzelhandelsdaten nach BigQuery zu exportieren. Wenn Sie us ausgewählt haben, haben Sie beim Erstellen des BigQuery-Datasets eine beliebige Region in den USA auswählen. Wenn Sie beim Erstellen Ihres BigQuery-Datasets eu ausgewählt haben, können Sie auch eine beliebige Region in der Europäischen Union auswählen. Weitere Informationen finden Sie unter Daten exportieren. in BigQuery importieren.
Klicken Sie auf Erstellen, um ein leeres Dataset zu erstellen, und gehen Sie zum Tab Quelle.
Wählen Sie Tabelle oder Ansicht aus BigQuery auswählen aus.
Geben Sie unter Tabelle oder Ansicht aus BigQuery auswählen die Projekt-, Dataset- und Tabellen-IDs für die Vertex AI-Trainingstabelle ein, die Sie unter Vertex AI-Trainingstabelle erstellen erstellt haben. Das Format ist
project_id.dataset_id.table_id
.Klicken Sie auf Weiter.
Die Datenquelle ist Ihrem Dataset zugeordnet.
Wählen Sie auf dem Tab Analysieren in der Spalte Serienkennzeichnung die Option sku aus. Liste und last_day_of_week in der Liste Timestamp column (Zeitstempelspalte)
Klicken Sie auf Neues Modell trainieren, um zur Seite Neues Modell trainieren zu gelangen. Für Eine Anleitung zum Trainieren Ihres Modells finden Sie unter Prognosemodell trainieren.
Prognosemodell trainieren
In diesem Abschnitt erfahren Sie, wie Sie ein Prognosemodell mit dem Dataset trainieren, das Sie unter Vertex AI-Dataset erstellen erstellt haben. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Prognosemodell trainieren.
Hinweise
Bevor Sie ein Prognosemodell trainieren können, müssen Sie eine Vertex AI erstellen Dataset.
Modell trainieren
Wählen Sie auf der Seite Trainingsmethode die Trainingsmethode für das Modell aus. Für Informationen zu Trainingsmethoden finden Sie unter Modell trainieren in der Vertex AI-Dokumentation.
Klicken Sie auf Weiter.
Konfigurieren Sie auf der Seite Modelldetails Folgendes:
Wählen Sie Neues Modell trainieren aus, falls sie nicht bereits ausgewählt ist.
Geben Sie einen Namen für das neue Modell ein.
Wählen Sie in der Liste Ziel die Option Menge (INTEGER) aus.
Wählen Sie in der Liste Detaillierungsgrad der Daten die Option Wöchentlich aus.
Geben Sie das Kontextfenster und den Prognosezeitraum ein.
Der Prognosezeitraum bestimmt, wie weit das Modell den Zielwert für jede Zeile mit Vorhersagedaten prognostiziert. Der Prognosezeitraum wird in Einheiten der Datengranularität angegeben.
Das Kontextfenster legt fest, wie weit das Modell während des Trainings (und für Prognosen) zurückblickt. Mit anderen Worten, der Parameter für jeden Trainingsdatenpunkt Kontextfenster bestimmen, wie weit das Modell in der Vergangenheit Muster zu erkennen. Wenn Sie kein Kontextfenster angeben, wird standardmäßig der Wert verwendet, der für den Prognosezeitraum angegeben ist. Das Kontextfenster wird in Einheiten von Datengranularität angegeben.
Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Überlegungen zum Festlegen des Kontextfensters und des Prognosezeitraums.
Klicken Sie auf Weiter.
Konfigurieren Sie auf der Seite Trainingsoptionen Folgendes: Wenn der Drop-down-Pfeil für
ausgegraut ist oder nicht vorhanden ist, kann der Wert nicht geändert werden.Wählen Sie unter Spaltenname einen Transformationswert für die Spalten aus. wie folgt auflisten:
Wenn der Wert für BigQuery-Typ Float, Integer oder Numerisch ist, legen Sie den Wert für Transformation auf Numerisch fest.
Wenn der Wert für BigQuery type entweder String oder Boolean, legen Sie den Wert für Transformation auf Categorical fest.
Wenn der Wert für BigQuery type Date ist, legen Sie den Wert für Transformation-Wert in Timestamp.
Wählen Sie unter Spaltenname einen Wert für den Elementtyp für die Spalten aus. wie folgt auflisten:
Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Covariate für Feature-Typ fest.
Legen Sie für die übrigen Spalten, die geändert werden können, den Featuretyp auf Attribut fest.
Wählen Sie für die Spalten in der Liste Spaltentyp den Wert Bei Prognose verfügbar aus:
Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Verfügbarkeit bei der Prognose auf Nicht verfügbar fest.
Legen Sie für die übrigen Spalten, die geändert werden können, den Wert Verfügbar für den Elementtyp fest.
Klicken Sie auf Weiter.
Geben Sie auf der Seite Computing und Preise die maximale Anzahl an Stunden ein, in denen Ihr Modell trainiert werden soll. Mit dieser Einstellung können Sie das Training begrenzen Kosten. Die tatsächlich benötigte Zeit kann aber länger sein als dieser Wert, da auch noch andere Vorgänge am Erstellen eines neuen Modells beteiligt sind. Weitere Informationen zum zum Trainieren hochwertiger Modelle erforderlich ist, siehe Modell in der Dokumentation zu Vertex AI.
Klicken Sie auf Training starten.
Das Modelltraining kann viele Stunden dauern, je nach Größe und Komplexität Ihrer Daten und Ihres Trainingsbudgets, sofern Sie eines angegeben haben. Du kannst diese Seite schließen und später zurückkehren. Sie erhalten eine E-Mail, wenn Ihr Modell abgeschlossen haben. Wie Sie den Fortschritt des Modelltrainings im Blick behalten, erfahren Sie unter Fortschritt des Trainings im Blick behalten.
Fortschritt des Trainings überwachen
Rufen Sie in der Google Cloud Console im Bereich „Vertex AI“ die Seite Training auf.
Wählen Sie den Tab Training Pipelines aus, falls er noch nicht ausgewählt ist. Das Modell, das Sie trainieren, sollte in der Liste aufgeführt sein. Das Training ist abgeschlossen, wenn sich der Status von Training in Abgeschlossen ändert.
Prognose erstellen
Auf dieser Seite erfahren Sie, wie Sie eine Prognose mit dem Prognosemodell erstellen, das Sie unter Prognosemodell trainieren trainiert haben.
Hinweise
Bevor Sie eine Prognose erstellen können, müssen Sie ein Prognosemodell trainieren.
Batchvorhersageanfrage an das Modell stellen
Rufen Sie in der Google Cloud Console im Abschnitt Vertex AI die Seite Batchvorhersagen auf.
Klicken Sie auf Erstellen, um das Fenster Neue Batchvorhersage zu öffnen, und führen Sie die folgenden Schritte aus:
Geben Sie einen Namen für die Batchvorhersage ein.
Wählen Sie in der Liste Modellname das Modell aus, das Sie in Train a Prognosemodells.
Wählen Sie in der Liste Version die Version des Modells aus.
Unter Quelle auswählen:
Wählen Sie BigQuery-Tabelle aus, falls sie nicht bereits ausgewählt ist.
Projekt-, Dataset- und Tabellen-IDs in BigQuery eingeben für die Vertex AI-Vorhersagetabelle, die Sie im Schritt Erstellen eine Vertex AI-Vorhersage Tabelle. Das Format ist
project_id.dataset_id.table_id
Unter Batchvorhersage – Ausgabe:
Wählen Sie in der Liste Ausgabeformat die Option BigQuery-Tabelle aus.
Projekt- und Dataset-IDs in BigQuery für den Batch eingeben die Sie erstellen. Verwenden Sie dieselbe Projekt-ID und dieselbe Datensatz-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Das Format ist
project_id.dataset_id.
.
Klicken Sie auf Erstellen. Die Seite Batchvorhersagen wird angezeigt.
Die Vorhersage ist abgeschlossen, wenn sich der Status von Pending (Ausstehend) in Fertig: Sie erhalten auch eine E-Mail, wenn Ihre Batchvorhersage abgeschlossen. Die Ausgabe Ihrer Batchvorhersageanfrage wird im Dataset im angegebenen BigQuery-Projekt zurückgegeben. Die Name Ihrer neuen Ausgabetabelle ist „ Predictions_“. angehängt mit dem Zeitstempel für den Start des Vorhersagejobs. Weitere Informationen zum Abrufen und Interpretieren von Prognoseergebnissen finden Sie in der Vertex AI-Dokumentation unter Batch-Vorhersageergebnisse abrufen und Prognoseergebnisse interpretieren.