Umsatzprognosen aus E-Commerce-Daten erstellen

Auf dieser Seite finden Sie eine Anleitung zum Abrufen von Vorhersagen aus Vertex AI auf Grundlage von in BigQuery exportierten Einzelhandelsdaten. Wir stellen mehrere SQL-Codeblöcke zur Verfügung, mit denen Sie Einzelhandelsprodukt- und Nutzerereignisdaten in ein Format umwandeln können, das von Vertex AI verwendet werden kann. Auf diese Codeblöcke folgen Anleitungen für die Vertex AI-Konsole zum Erstellen eines Datasets, zum Trainieren eines Modells und zum Generieren einer Prognose.

Hinweise

Bevor Sie mit Ihren Einzelhandelsdaten Umsatzprognosen erstellen können, müssen Sie Folgendes tun:

  • Ihre Einzelhandelsdaten wurden mit Vertex AI Search for Commerce hochgeladen. Weitere Informationen finden Sie hier:

  • Exportieren Sie Ihre Einzelhandelsdaten aus Vertex AI Search for Commerce nach BigQuery. Sie haben dann eine Produkttabelle und eine Tabelle mit Nutzerereignissen in BigQuery, die Sie in den folgenden Verfahren verwenden können. Weitere Informationen finden Sie unter Daten in BigQuery exportieren.

    Wenn Ihre Produkt- und Nutzerereignisdaten bereits in BigQuery im Format von Vertex AI Search for Commerce vorhanden sind, können Sie diese Daten verwenden, um Umsatzprognosen aus Einzelhandelsdaten zu erstellen. In diesem Fall müssen Sie Ihre Einzelhandelsdaten nicht hochladen und nach BigQuery exportieren. Weitere Informationen zum Format finden Sie unter Produktschema und Nutzerereignisse.

  • Achten Sie darauf, dass Ihnen die IAM-Rolle roles/aiplatform.user zugewiesen wurde, damit Sie die Verfahren mit der Vertex AI-Konsole ausführen können.

Aggregierte Umsatztabelle erstellen

Mit dem SQL-Code in diesem Abschnitt wird die Nutzerereignistabelle in eine aggregierte Umsatztabelle umgewandelt. Das bedeutet, dass für jedes Produkt in der Tabelle mit Nutzerereignissen, das mindestens einmal verkauft wurde, die Verkaufsmenge für das Produkt über einen wöchentlichen Zeitraum hinweg aggregiert wird. Außerdem führt der SQL-Code Folgendes aus:

  • Wenn in der Nutzerereignistabelle für ein Produkt Zeitstempel zwischen dem ersten Verkauf des Produkts in der Tabelle und dem letzten Verkauf eines beliebigen Produkts in der Tabelle fehlen, wird für jeden fehlenden Zeitstempel eine neue Zeile mit null Verkäufen eingefügt. So werden Lücken im Verkaufsverlauf vermieden.

  • Wenn in der Tabelle mit Nutzerereignissen nicht mindestens ein Produkt mit mindestens 20 Zeitstempeln vorhanden ist, wird ein Produkt aus der Tabelle zufällig ausgewählt und mit genügend Zeilen (jeweils mit null Verkäufen) aufgefüllt, um 20 Zeitstempel zu erreichen. Dies ist erforderlich, um die Vertex AI-Anforderung zu erfüllen, dass beim Trainieren eines Modells mindestens 20 Zeitstempel vorhanden sein müssen.

So erstellen Sie eine aggregierte Umsatztabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte: MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY, SUNDAY.

    • rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs der Tabelle mit Nutzerereignissen, die Sie in BigQuery exportiert haben. Das Format dafür ist project_id.dataset_id.table_id.

    • rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs der Produkttabelle, die Sie in BigQuery exportiert haben. Das Format dafür ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue aggregierte Umsatztabelle. Verwenden Sie dieselbe Projekt-ID wie für die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format dafür ist project_id.dataset_id.table_id.

  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit Ihren Produkt- und Nutzerereignistabellen aus, falls es noch nicht ausgewählt ist.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf  Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.

Die neue aggregierte Umsatztabelle wird in BigQuery an den Speicherort geschrieben, den Sie mit der Variablen aggregated_sales_table festgelegt haben.

Produkttabelle verarbeiten

Der SQL-Code in diesem Abschnitt bezieht sich auf die Produkttabelle, die Sie in BigQuery exportiert haben. Er entfernt die wiederholten Felder und Strukturfelder und entpackt das Feld price_info in seine untergeordneten Felder. Dies ist erforderlich, da Vertex AI keine Listen oder verschachtelten Strukturen akzeptiert. Das Ergebnis ist die verarbeitete Produkttabelle.

So verarbeiten Sie die Produkttabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie in BigQuery exportiert haben. Das Format dafür ist project_id.dataset_id.table_id.

    • processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue verarbeitete Produkttabelle. Verwenden Sie dieselbe Projekt-ID wie für die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format dafür ist project_id.dataset_id.table_id.

    CREATE OR REPLACE TABLE `PROCESSED_PRODUCT_TABLE` AS
    SELECT * EXCEPT (id, attributes, price_info, rating, expire_time,
    available_time, fulfillment_info, images, audience, color_info, promotions,
    publish_time, retrievable_fields, categories, brands, conditions, sizes,
    collection_member_ids, tags, materials, patterns),
    id as sku,
    price_info.price as price_info_price,
    price_info.currency_code as price_info_currency_code,
    price_info.cost as price_info_cost,
    FROM `RDM_PRODUCT_TABLE`
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit Ihren Produkt- und Nutzerereignistabellen aus, falls es noch nicht ausgewählt ist.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf  Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.

Die neue verarbeitete Produkttabelle wird in BigQuery an den Speicherort geschrieben, den Sie mit der Variablen processed_product_table festgelegt haben.

Tabelle mit Ereignisvorhersagen erstellen

Mit dem SQL-Code in diesem Abschnitt wird jede Artikelnummer extrahiert, die mindestens einmal in der Tabelle mit Nutzerereignissen verkauft wurde. Mit dem Code wird eine Tabelle mit Ereignisvorhersagen erstellt, die alle extrahierten Artikelnummern für alle zukünftigen Zeitstempel enthält. Die zukünftigen Zeitstempel sind ein Array fortlaufender wöchentlicher Zeitstempel, die mit der letzten Woche in der Nutzerereignistabelle + 1 Woche beginnen und mit der letzten Woche in der Nutzerereignistabelle + future_length Wochen enden. Sie legen den Wert future_length auf die Anzahl der Wochen in der Zukunft fest, für die das Modell Vorhersagen treffen soll. Jede Zeile in der Tabelle mit Ereignisvorhersagen kann eindeutig durch eine Artikelnummer und einen Zeitstempel identifiziert werden.

So erstellen Sie eine Tabelle mit Ereignisvorhersagen:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte: MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY, SUNDAY.

    • rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs für die Tabelle mit Nutzerereignissen, die Sie in BigQuery exportiert haben. Das Format dafür ist project_id.dataset_id.table_id.

    • events_prediction_table Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Tabelle mit Vorhersagen zu Ereignissen. Verwenden Sie dieselbe Projekt-ID wie für die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format dafür ist project_id.dataset_id.table_id.

    • rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie in BigQuery exportiert haben. Das Format dafür ist project_id.dataset_id.table_id.

    • future_length. Die Anzahl der Wochen in der Zukunft nach der letzten Woche in der Nutzerereignistabelle, die das Modell vorhersagt.

  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit Ihren Produkt- und Nutzerereignistabellen aus, falls es noch nicht ausgewählt ist.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf  Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.

Die neue Tabelle mit Ereignisvorhersagen wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen events_prediction_table festgelegt haben.

Vertex AI-Trainingstabelle erstellen

Im SQL-Code in diesem Abschnitt wird die aggregierte Umsatztabelle mit der verarbeiteten Produkttabelle zusammengeführt. Das Ergebnis ist eine Vertex AI-Trainingstabelle, die von Vertex AI zum Trainieren des Modells verwendet wird.

So erstellen Sie eine Vertex AI-Trainingstabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • vertex_ai_training_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Trainingstabelle. Verwenden Sie dieselbe Projekt-ID wie für die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format dafür ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery der aggregierten Verkaufstabelle, die Sie unter Aggregierte Verkaufstabelle erstellen erstellt haben.

    • processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.

    CREATE OR REPLACE TABLE `VERTEX_AI_TRAINING_TABLE` AS
    SELECT t1.*, t2.* EXCEPT(sku) FROM `AGGREGATED_SALES_TABLE` AS t1
    LEFT
    JOIN `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit Ihren Produkt- und Nutzerereignistabellen aus, falls es noch nicht ausgewählt ist.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf  Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.

Die neue Vertex AI-Trainingstabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_training_table festgelegt haben.

Vertex AI-Vorhersagetabelle erstellen

Mit dem SQL-Code in diesem Abschnitt wird die Tabelle mit den Ereignisvorhersagen an die aggregierte Umsatztabelle angehängt und dann mit der verarbeiteten Produkttabelle verknüpft. Das Ergebnis ist die Vertex AI-Vorhersagetabelle, die zum Erstellen einer Prognose verwendet wird.

So erstellen Sie eine Vertex AI-Vorhersagetabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • vertex_ai_prediction_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Vorhersagetabelle. Verwenden Sie dieselbe Projekt-ID und Dataset-ID wie für die Produkt- und Nutzerereignistabellen. Verwenden Sie nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format dafür ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die aggregierte Umsatztabelle, die Sie unter Aggregierte Umsatztabelle erstellen erstellt haben.

    • processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.

    • events_prediction_table Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Tabelle mit Ereignisvorhersagen, die Sie unter Tabelle mit Ereignisvorhersagen erstellen erstellt haben.

    CREATE OR REPLACE TABLE `VERTEX_AI_PREDICTION_TABLE` AS
    WITH append_predict_to_history AS (
      SELECT add_to_cart_quantity, category_page_view_quantity,
      detail_page_view_quantity, last_day_of_week, quantity, search_quantity, sku
      FROM `AGGREGATED_SALES_TABLE` UNION ALL SELECT NULL AS
      add_to_cart_quantity, NULL AS category_page_view_quantity, NULL AS
      detail_page_view_quantity, last_day_of_week, NULL AS quantity, NULL AS
      search_quantity, sku FROM `EVENTS_PREDICTION_TABLE`
    )
    SELECT t1.*, t2.* EXCEPT(sku) FROM append_predict_to_history AS t1 LEFT JOIN
    `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit Ihren Produkt- und Nutzerereignistabellen aus, falls es noch nicht ausgewählt ist.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf  Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.

Ihre neue Vertex AI-Vorhersagetabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_prediction_table festgelegt haben.

Vertex AI-Dataset erstellen

In diesem Abschnitt erfahren Sie, wie Sie ein Vertex AI-Dataset erstellen, mit dem Sie ein Prognosemodell trainieren können. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Dataset zum Trainieren von Prognosemodellen erstellen.

So erstellen Sie ein Vertex AI-Dataset:

  1. Rufen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ die Seite Dataset auf.

    Zur Seite „Datasets“

  2. Klicken Sie auf Erstellen, um die Seite Dataset erstellen zu öffnen.

  3. Geben Sie im Feld Dataset-Name einen Namen für das neue Dataset ein.

  4. Wählen Sie den Tab Tabellarisch aus.

  5. Wählen Sie das Prognoseziel aus.

  6. Wählen Sie in der Liste Region die Region aus, die Sie beim Erstellen eines Datasets zum Exportieren Ihrer Einzelhandelsdaten nach BigQuery verwendet haben. Wenn Sie beim Erstellen Ihres BigQuery-Datasets us ausgewählt haben, können Sie eine beliebige Region in den USA auswählen. Wenn Sie beim Erstellen Ihres BigQuery-Datasets eu ausgewählt haben, können Sie eine beliebige Region in der Europäischen Union auswählen. Weitere Informationen finden Sie unter Daten in BigQuery exportieren.

  7. Klicken Sie auf Erstellen, um ein leeres Dataset zu erstellen, und gehen Sie zum Tab Quelle.

  8. Wählen Sie Tabelle oder Ansicht aus BigQuery auswählen aus.

  9. Geben Sie unter Select a table or view from BigQuery (Tabelle oder Ansicht aus BigQuery auswählen) die Projekt-, Dataset- und Tabellen-IDs für die Vertex AI-Trainingstabelle ein, die Sie in Vertex AI-Trainingstabelle erstellen erstellt haben. Das Format ist project_id.dataset_id.table_id.

  10. Klicken Sie auf Weiter.

    Die Datenquelle ist Ihrem Dataset zugeordnet.

  11. Wählen Sie auf dem Tab Analysieren in der Liste Spalte mit Serien-ID die Option sku und in der Liste Zeitstempelspalte die Option last_day_of_week aus.

  12. Klicken Sie auf Neues Modell trainieren, um zur Seite Neues Modell trainieren zu gelangen. Eine Anleitung zum Trainieren Ihres Modells finden Sie unter Prognosemodell trainieren.

Prognosemodell trainieren

In diesem Abschnitt erfahren Sie, wie Sie ein Prognosemodell mit dem Dataset trainieren, das Sie in Vertex AI-Dataset erstellen erstellt haben. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Prognosemodell trainieren.

Hinweise

Bevor Sie ein Prognosemodell trainieren können, müssen Sie ein Vertex AI-Dataset erstellen.

Modell trainieren

  1. Wählen Sie auf der Seite Trainingsmethode die Modelltrainingsmethode aus. Informationen zu Trainingsmethoden finden Sie in der Vertex AI-Dokumentation unter Modell trainieren.

    Klicken Sie auf Weiter.

  2. Konfigurieren Sie auf der Seite Modelldetails Folgendes:

    1. Wählen Sie Neues Modell trainieren aus, falls diese Option nicht bereits ausgewählt ist.

    2. Geben Sie einen Namen für das neue Modell ein.

    3. Wählen Sie in der Liste Zielspalte die Option Menge (INTEGER) aus.

    4. Wählen Sie in der Liste Detaillierungsgrad der Daten die Option Wöchentlich aus.

    5. Geben Sie das Kontextfenster und den Prognosezeitraum ein.

      Der Prognosezeitraum bestimmt, wie weit das Modell den Zielwert für jede Zeile mit Vorhersagedaten prognostiziert. Der Prognosezeitraum wird in Einheiten von Datengranularität angegeben.

      Das Kontextfenster legt fest, wie weit das Modell während des Trainings (und für Prognosen) zurückblickt. Mit anderen Worten: Für jeden Trainingsdatenpunkt bestimmt das Kontextfenster, wie weit das Modell nach Vorhersagemustern sucht. Wenn Sie kein Kontextfenster angeben, wird standardmäßig der Wert verwendet, der für den Prognosezeitraum angegeben ist. Das Kontextfenster wird in Einheiten von Datengranularität angegeben.

      Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Überlegungen zum Festlegen des Kontextfensters und des Prognosezeitraums.

    6. Klicken Sie auf Weiter.

  3. Konfigurieren Sie auf der Seite Trainingsoptionen Folgendes. Wenn ein Drop-down-Pfeil  grau ist oder kein Drop-down-Pfeil vorhanden ist, kann der entsprechende Wert nicht geändert werden.

    1. Wählen Sie für die Spalten in der Liste Spaltenname einen Transformationswert aus:

      • Wenn der Wert für BigQuery-Typ Float, Integer oder Numeric ist, legen Sie den Wert für Transformation auf Numeric fest.

      • Wenn der Wert für BigQuery-Typ String oder Boolean ist, legen Sie den Wert für Transformation auf Kategorisch fest.

      • Wenn der Wert für BigQuery-Typ Date ist, legen Sie den Wert für Transformation auf Timestamp fest.

    2. Wählen Sie für die Spalten in der Liste Spaltenname einen Wert für Funktionstyp aus:

      • Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Feature type auf Covariate fest.

      • Legen Sie für die verbleibenden Spalten, die geändert werden können, den Featuretyp auf Attribut fest.

    3. Wählen Sie für die Spalten in der Liste Spaltentyp einen Wert für Bei Prognose verfügbar aus:

      • Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Verfügbarkeit bei der Prognose auf Nicht verfügbar fest.

      • Legen Sie für die verbleibenden Spalten, die geändert werden können, den Wert Feature type (Funktionstyp) auf Available (Verfügbar) fest.

    4. Klicken Sie auf Weiter.

  4. Geben Sie auf der Seite Computing und Preise die maximale Anzahl an Stunden ein, in denen Ihr Modell trainiert werden soll. Mit dieser Einstellung können Sie die Trainingskosten begrenzen. Die tatsächlich benötigte Zeit kann aber länger sein als dieser Wert, da auch noch andere Vorgänge am Erstellen eines neuen Modells beteiligt sind. Informationen zur Zeit, die zum Trainieren hochwertiger Modelle erforderlich sein kann, finden Sie in der Vertex AI-Dokumentation unter Modell trainieren.

  5. Klicken Sie auf Training starten.

    Das Modelltraining kann viele Stunden dauern, je nach Größe und Komplexität Ihrer Daten und Ihres Trainingsbudgets, sofern Sie eines angegeben haben. Sie können diesen Tab schließen und später zurückkehren. Wenn das Training für Ihr Modell abgeschlossen ist, erhalten Sie eine E-Mail. Wenn Sie den Fortschritt des Modelltrainings überwachen möchten, lesen Sie den Abschnitt Fortschritt des Trainings überwachen.

Fortschritt des Trainings überwachen

  1. Wechseln Sie in der Google Cloud Console im Bereich „Vertex AI“ zur Seite Training.

    Zur Seite „Training“

  2. Wählen Sie den Tab Trainingspipelines aus, falls er noch nicht ausgewählt ist. Das Modell, das Sie trainieren, sollte in der Liste aufgeführt sein. Das Training ist abgeschlossen, wenn sich der Status von Training in Finished ändert.

Prognose erstellen

Auf dieser Seite erfahren Sie, wie Sie eine Prognose mit dem Prognosemodell erstellen, das Sie unter Prognosemodell trainieren trainiert haben.

Hinweise

Bevor Sie eine Prognose erstellen können, müssen Sie ein Prognosemodell trainieren.

Batchvorhersageanfrage an das Modell stellen

  1. Rufen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ die Seite Batchvorhersagen auf.

    Zur Seite "Batchvorhersagen"

  2. Klicken Sie auf Erstellen, um das Fenster Neue Batchvorhersage zu öffnen, und führen Sie die folgenden Schritte aus:

    1. Geben Sie einen Namen für die Batchvorhersage ein.

    2. Wählen Sie in der Liste Modellname das Modell aus, das Sie in Prognosemodell trainieren trainiert haben.

    3. Wählen Sie in der Liste Version die Version des Modells aus.

    4. Unter Quelle auswählen:

      1. Wählen Sie BigQuery-Tabelle aus, falls diese Option nicht bereits ausgewählt ist.

      2. Geben Sie die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Vertex AI-Vorhersagetabelle ein, die Sie unter Vertex AI-Vorhersagetabelle erstellen erstellt haben. Das Format dafür ist project_id.dataset_id.table_id.

    5. Unter Ausgabe der Batchvorhersage:

      1. Wählen Sie in der Liste Ausgabeformat die Option BigQuery-Tabelle aus.

      2. Geben Sie in BigQuery die Projekt- und Dataset-IDs für die Batchvorhersage-Ausgabetabelle ein, die Sie erstellen. Verwenden Sie dieselbe Projekt-ID und Dataset-ID, die Sie auch für die Produkt- und Nutzerereignistabellen verwendet haben. Das Format ist project_id.dataset_id..

    6. Klicken Sie auf Erstellen. Die Seite Batchvorhersagen wird angezeigt.

      Die Vorhersage ist abgeschlossen, wenn sich der Status von Ausstehend in Abgeschlossen ändert. Sie erhalten auch eine E-Mail, wenn die Batchvorhersage abgeschlossen ist. Die Ausgabe Ihrer Batchvorhersageanfrage wird im Dataset im angegebenen BigQuery-Projekt zurückgegeben. Der Name der neuen Ausgabetabelle ist „predictions_“, gefolgt vom Zeitstempel des Beginns des Vorhersagejobs. Weitere Informationen zum Abrufen und Interpretieren von Vorhersageergebnissen finden Sie in der Vertex AI-Dokumentation unter Batchvorhersageergebnisse abrufen und Vorhersageergebnisse interpretieren.