Umsatzprognosen aus Einzelhandelsdaten generieren

Auf dieser Seite finden Sie eine Anleitung zum Abrufen von Vorhersagen aus Vertex AI, die auf in BigQuery exportierten Einzelhandelsdaten basieren. Wir stellen mehrere SQL-Codeblöcke zur Verfügung, mit denen Sie Einzelhandelsprodukt- und Nutzerereignisdaten in ein Format umwandeln können, das von Vertex AI verwendet werden kann. Auf diese Codeblöcke folgen Verfahren für die Vertex AI-Konsole, mit denen ein Dataset erstellt, ein Modell trainiert und dann eine Prognose generiert wird.

Hinweise

Bevor Sie mit Ihren Einzelhandelsdaten Umsatzprognosen erstellen können, müssen Sie:

  • Laden Sie Ihre Einzelhandelsdaten mit Vertex AI Search für den Einzelhandel hoch. Weitere Informationen finden Sie hier:

  • Exportieren Sie Ihre Einzelhandelsdaten aus Vertex AI Search für den Einzelhandel in BigQuery. Daraufhin erhalten Sie eine Produkttabelle und eine Nutzerereignistabelle in BigQuery, die Sie in den folgenden Verfahren verwenden können. Weitere Informationen finden Sie unter Daten in BigQuery exportieren.

    Wenn sich Ihre Produkt- und Nutzerereignisdaten bereits in BigQuery befinden, können Sie diese Daten auch in Vertex AI Search für den Einzelhandel verwenden, um anhand von Einzelhandelsdaten Umsatzprognosen zu generieren. In diesem Fall müssen Sie Ihre Einzelhandelsdaten nicht hochladen und nach BigQuery exportieren. Weitere Informationen zum Format finden Sie unter Produktschema und Informationen zu Nutzerereignissen.

  • Achten Sie darauf, dass Ihnen die IAM-Rolle roles/aiplatform.user gewährt wurde, damit Sie die Verfahren über die Vertex AI-Konsole ausführen können.

Tabelle mit zusammengefassten Verkäufen erstellen

Der SQL-Code in diesem Abschnitt wandelt die Nutzerereignistabelle in eine Tabelle mit zusammengefassten Verkäufen um. Das bedeutet, dass für jedes Produkt in der Nutzerereignistabelle, das mindestens einmal verkauft wurde, die Verkaufsmenge für das Produkt über einen wöchentlichen Zeitraum aggregiert wird. Darüber hinaus führt der SQL-Code folgende Schritte aus:

  • Wenn bei einem Produkt in der Nutzerereignistabelle Zeitstempel zwischen dem ersten Verkauf des Produkts in der Tabelle und dem letzten Verkauf eines Produkts in der Tabelle fehlen, wird jedem der fehlenden Zeitstempel eine neue Zeile ohne Verkäufe hinzugefügt. So lassen sich Lücken im Verkaufsverlauf beseitigen.

  • Wenn in der Nutzerereignistabelle nicht mindestens ein Produkt mit mindestens 20 Zeitstempeln vorhanden ist, wird ein Produkt aus der Tabelle zufällig ausgewählt und mit genügend Zeilen (jeweils ohne Umsatz) aufgefüllt, um 20 Zeitstempel zu erreichen. Dies entspricht der Anforderung von Vertex AI, mindestens 20 Zeitstempel für das Training eines Modells zu haben.

So erstellen Sie eine Tabelle mit zusammengefassten Verkäufen:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte: MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY, SUNDAY.

    • rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs der Nutzerereignistabelle, die Sie nach BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • rdm_product_table: Die Projekt-, Dataset- und Tabellen-IDs der Produkttabelle, die Sie nach BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Tabelle mit zusammengefassten Verkäufen. Verwenden Sie dieselbe Projekt-ID wie die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, aber verwenden Sie die ID einer vorhandenen Tabelle nur dann, wenn Sie sie überschreiben möchten. Das Format ist project_id.dataset_id.table_id.

  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite „BigQuery“

  4. Wählen Sie das Projekt aus, das Ihre Produkt- und Nutzerereignistabellen enthält, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Tabelle mit den zusammengefassten Verkäufen wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen aggregated_sales_table festgelegt haben.

Die Produkttabelle verarbeiten

Der SQL-Code in diesem Abschnitt bezieht sich auf die Produkttabelle, die Sie nach BigQuery exportiert haben. Dabei werden die wiederkehrenden Felder und Strukturfelder entfernt und die Verschachtelung des Felds price_info in seine untergeordneten Felder aufgelöst. Dies ist erforderlich, da Vertex AI keine Listen oder verschachtelten Strukturen akzeptiert. Das Ergebnis ist die verarbeitete Produkttabelle.

So verarbeiten Sie die Produkttabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • rdm_product_table: Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie nach BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • processed_product_table sein. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue verarbeitete Produkttabelle. Verwenden Sie dieselbe Projekt-ID wie die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, aber verwenden Sie die ID einer vorhandenen Tabelle nur dann, wenn Sie sie überschreiben möchten. Das Format ist project_id.dataset_id.table_id.

    CREATE OR REPLACE TABLE `PROCESSED_PRODUCT_TABLE` AS
    SELECT * EXCEPT (id, attributes, price_info, rating, expire_time,
    available_time, fulfillment_info, images, audience, color_info, promotions,
    publish_time, retrievable_fields, categories, brands, conditions, sizes,
    collection_member_ids, tags, materials, patterns),
    id as sku,
    price_info.price as price_info_price,
    price_info.currency_code as price_info_currency_code,
    price_info.cost as price_info_cost,
    FROM `RDM_PRODUCT_TABLE`
    
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite „BigQuery“

  4. Wählen Sie das Projekt aus, das Ihre Produkt- und Nutzerereignistabellen enthält, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neu verarbeitete Produkttabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen processed_product_table festgelegt haben.

Tabelle für Ereignisvorhersagen erstellen

Mit dem SQL-Code in diesem Abschnitt wird jede SKU extrahiert, die mindestens einmal in der Nutzerereignistabelle verkauft wurde. Mit dem Code wird eine Ereignisvorhersagetabelle erstellt, die alle extrahierten Artikelnummern für alle Zeitstempel in der Zukunft enthält. Die zukünftigen Zeitstempel sind ein Array kontinuierlicher wöchentlicher Zeitstempel, beginnend mit der letzten Woche in der Nutzerereignistabelle + einer Woche bis zur letzten Woche in der Nutzerereignistabelle + future_length Wochen. Sie legen den Wert future_length auf die Anzahl der Wochen in der Zukunft fest, die das Modell vorhersagen soll. Jede Zeile in der Ereignisvorhersagetabelle kann eindeutig durch eine SKU und einen Zeitstempel identifiziert werden.

So erstellen Sie eine Tabelle für die Vorhersage von Ereignissen:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte: MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY, SUNDAY.

    • rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs für die Nutzerereignistabelle, die Sie nach BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • events_prediction_table ein. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Tabelle zur Ereignisvorhersage. Verwenden Sie dieselbe Projekt-ID wie die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, aber verwenden Sie die ID einer vorhandenen Tabelle nur dann, wenn Sie sie überschreiben möchten. Das Format ist project_id.dataset_id.table_id.

    • rdm_product_table: Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie nach BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • future_length zurück. Die Anzahl der Wochen in der Zukunft nach der letzten Woche in der Nutzerereignistabelle, die das Modell vorhersagt.

  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite „BigQuery“

  4. Wählen Sie das Projekt aus, das Ihre Produkt- und Nutzerereignistabellen enthält, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Tabelle für Ereignisvorhersagen wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen events_prediction_table festgelegt haben.

Vertex AI-Trainingstabelle erstellen

Der SQL-Code in diesem Abschnitt führt die Tabelle mit den aggregierten Verkäufen mit der verarbeiteten Produkttabelle zusammen. Das Ergebnis ist eine Vertex AI-Trainingstabelle, die Vertex AI für das Modelltraining verwendet.

So erstellen Sie eine Vertex AI-Trainingstabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • vertex_ai_training_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Trainingstabelle. Verwenden Sie dieselbe Projekt-ID wie in den Produkt- und Nutzerereignistabellen. Verwenden Sie die ID eines vorhandenen Datasets. Geben Sie eine Tabellen-ID an, aber verwenden Sie die ID einer vorhandenen Tabelle nur, wenn Sie sie überschreiben möchten. Das Format ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery der Tabelle mit zusammengefassten Verkäufen, die Sie unter Tabelle mit zusammengefassten Verkäufen erstellen erstellt haben.

    • processed_product_table sein. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.

    CREATE OR REPLACE TABLE `VERTEX_AI_TRAINING_TABLE` AS
    SELECT t1.*, t2.* EXCEPT(sku) FROM `AGGREGATED_SALES_TABLE` AS t1
    LEFT
    JOIN `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
    
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite „BigQuery“

  4. Wählen Sie das Projekt aus, das Ihre Produkt- und Nutzerereignistabellen enthält, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Vertex AI-Trainingstabelle wird in den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_training_table festgelegt haben.

Vertex AI-Vorhersagetabelle erstellen

Mit dem SQL-Code in diesem Abschnitt wird die Ereignisvorhersagetabelle an die aggregierte Verkaufstabelle angehängt und dann mit der verarbeiteten Produkttabelle verknüpft. Das Ergebnis ist die Vertex AI-Vorhersagetabelle, mit der eine Prognose erstellt wird.

So erstellen Sie eine Vertex AI-Vorhersagetabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • vertex_ai_prediction_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Vorhersagetabelle. Verwenden Sie dieselbe Projekt-ID und Dataset-ID wie für die Produkt- und Nutzerereignistabellen. Verwenden Sie die ID einer vorhandenen Tabelle nur dann, wenn Sie sie überschreiben möchten. Das Format dafür ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Tabelle mit zusammengefassten Verkäufen, die Sie unter Tabelle mit zusammengefassten Verkäufen erstellen erstellt haben.

    • processed_product_table sein. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.

    • events_prediction_table ein. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Ereignisvorhersagetabelle, die Sie unter Tabelle zur Vorhersage von Ereignissen erstellen erstellt haben.

    CREATE OR REPLACE TABLE `VERTEX_AI_PREDICTION_TABLE` AS
    WITH append_predict_to_history AS (
      SELECT add_to_cart_quantity, category_page_view_quantity,
      detail_page_view_quantity, last_day_of_week, quantity, search_quantity, sku
      FROM `AGGREGATED_SALES_TABLE` UNION ALL SELECT NULL AS
      add_to_cart_quantity, NULL AS category_page_view_quantity, NULL AS
      detail_page_view_quantity, last_day_of_week, NULL AS quantity, NULL AS
      search_quantity, sku FROM `EVENTS_PREDICTION_TABLE`
    )
    SELECT t1.*, t2.* EXCEPT(sku) FROM append_predict_to_history AS t1 LEFT JOIN
    `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
    
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite „BigQuery“

  4. Wählen Sie das Projekt aus, das Ihre Produkt- und Nutzerereignistabellen enthält, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel im Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Vertex AI-Vorhersagetabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_prediction_table festgelegt haben.

Vertex AI-Dataset erstellen

In diesem Abschnitt erfahren Sie, wie Sie ein Vertex AI-Dataset erstellen, mit dem Sie ein Prognosemodell trainieren können. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Dataset zum Trainieren von Prognosemodellen erstellen.

So erstellen Sie ein Vertex AI-Dataset:

  1. Rufen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ die Seite Dataset auf.

    Zur Seite „Datasets“

  2. Klicken Sie auf Erstellen, um die Seite Dataset erstellen zu öffnen.

  3. Geben Sie im Feld Dataset-Name einen Namen für das neue Dataset ein.

  4. Wählen Sie den Tab Tabellarisch aus.

  5. Wählen Sie das Prognoseziel aus.

  6. Wählen Sie in der Liste Region die Region aus, die Sie beim Erstellen eines Datasets zum Exportieren Ihrer Einzelhandelsdaten nach BigQuery verwendet haben. Wenn Sie beim Erstellen Ihres BigQuery-Datasets us ausgewählt haben, können Sie eine beliebige Region in den USA auswählen. Wenn Sie beim Erstellen Ihres BigQuery-Datasets eu ausgewählt haben, können Sie ebenfalls eine beliebige Region in der Europäischen Union auswählen. Weitere Informationen finden Sie unter Daten in BigQuery exportieren.

  7. Klicken Sie auf Erstellen, um ein leeres Dataset zu erstellen, und wechseln Sie zum Tab Quelle.

  8. Wählen Sie Tabelle oder Ansicht aus BigQuery auswählen aus.

  9. Geben Sie unter Tabelle oder Ansicht aus BigQuery auswählen die Projekt-, Dataset- und Tabellen-IDs für die Vertex AI-Trainingstabelle ein, die Sie unter Vertex AI-Trainingstabelle erstellen erstellt haben. Das Format ist project_id.dataset_id.table_id.

  10. Klicken Sie auf Weiter.

    Die Datenquelle ist Ihrem Dataset zugeordnet.

  11. Wählen Sie auf dem Tab Analysieren in der Liste Spalte „Reihenkennzeichnung“ die Option sku und in der Liste Zeitstempelspalte den Eintrag last_day_of_week aus.

  12. Klicken Sie auf Neues Modell trainieren, um zur Seite Neues Modell trainieren zu gelangen. Eine Anleitung zum Trainieren Ihres Modells finden Sie unter Prognosemodell trainieren.

Prognosemodell trainieren

In diesem Abschnitt erfahren Sie, wie Sie ein Prognosemodell mit dem Dataset trainieren, das Sie im Schritt Vertex AI-Dataset erstellen erstellt haben. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Prognosemodell trainieren.

Hinweise

Bevor Sie ein Prognosemodell trainieren können, müssen Sie ein Vertex AI-Dataset erstellen.

Modell trainieren

  1. Wählen Sie auf der Seite Trainingsmethode die Modelltrainingsmethode aus. Informationen zu Trainingsmethoden finden Sie in der Vertex AI-Dokumentation unter Modell trainieren.

    Klicken Sie auf Weiter.

  2. Konfigurieren Sie auf der Seite Modelldetails Folgendes:

    1. Wählen Sie Neues Modell trainieren aus, falls diese Option noch nicht ausgewählt ist.

    2. Geben Sie einen Namen für das neue Modell ein.

    3. Wählen Sie in der Liste Zielspalte die Option quantity (INTEGER) aus.

    4. Wählen Sie in der Liste Datengranularität die Option Wöchentlich aus.

    5. Geben Sie das Kontextfenster und den Prognosezeitraum ein.

      Der Prognosezeitraum bestimmt, wie weit das Modell den Zielwert für jede Zeile mit Vorhersagedaten prognostiziert. Der Prognosezeitraum wird in Datengranularität angegeben.

      Das Kontextfenster legt fest, wie weit das Modell während des Trainings (und für Prognosen) zurückblicken soll. Mit anderen Worten, für jeden Trainingsdatenpunkt bestimmt das Kontextfenster, wie weit das Modell in der Vergangenheit nach Vorhersagemustern sucht. Wenn Sie kein Kontextfenster angeben, wird standardmäßig der Wert für Prognosezeitraum verwendet. Das Kontextfenster wird in der Datengranularität angegeben.

      Weitere Informationen finden Sie unter Überlegungen zum Festlegen des Kontextfensters und des Prognosezeitraums in der Vertex AI-Dokumentation.

    6. Klicken Sie auf Weiter.

  3. Konfigurieren Sie auf der Seite Trainingsoptionen die folgenden Einstellungen. Wenn ein Drop-down-Pfeil für grau ist oder kein Drop-down-Pfeil vorhanden ist, kann dieser Wert nicht geändert werden.

    1. Wählen Sie so einen Transformationswert für die Spalten in der Liste Spaltenname aus:

      • Wenn der Wert des BigQuery-Typs Float, Integer oder Numeric ist, legen Sie den Wert für Transformation auf Numeric fest.

      • Wenn der Wert des BigQuery-Typs String oder Boolesch ist, legen Sie den Wert für Transformation auf Categorical fest.

      • Wenn der Wert des BigQuery-Typs Date ist, legen Sie den Wert für Transformation auf Zeitstempel fest.

    2. Wählen Sie so einen Wert für den Featuretyp für die Spalten in der Liste Spaltenname aus:

      • Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Feature type auf Covariate fest.

      • Legen Sie für die übrigen Spalten, die geändert werden können, den Elementtyp auf Attribut fest.

    3. Wählen Sie für die Spalten in der Liste Spaltentyp einen Wert für Bei Prognose verfügbar aus:

      • Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Verfügbarkeit bei Prognose auf Nicht verfügbar fest.

      • Setzen Sie bei den übrigen Spalten, die geändert werden können, den Wert für Feature-Typ auf Verfügbar.

    4. Klicken Sie auf Weiter.

  4. Geben Sie auf der Seite Computing und Preise die maximale Anzahl von Stunden ein, für die Ihr Modell trainiert werden soll. Mit dieser Einstellung können Sie die Trainingskosten begrenzen. Die tatsächlich verstrichene Zeit kann länger sein als dieser Wert, da an der Erstellung eines neuen Modells andere Vorgänge beteiligt sind. Informationen zur Zeit, die zum Trainieren von qualitativ hochwertigen Modellen benötigt wird, finden Sie in der Vertex AI-Dokumentation unter Modell trainieren.

  5. Klicken Sie auf Training starten.

    Das Modelltraining kann je nach Größe und Komplexität Ihrer Daten und Ihrem Trainingsbudget, sofern Sie eins angegeben haben, viele Stunden dauern. Sie können diesen Tab schließen und später wieder aufrufen. Sie erhalten eine E-Mail, wenn Ihr Modell das Training abgeschlossen hat. Informationen zum Überwachen des Fortschritts des Modelltrainings finden Sie unter Fortschritt des Modelltrainings überwachen.

Fortschritt des Trainings im Blick behalten

  1. Rufen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ die Seite Training auf.

    Zur Seite „Training“

  2. Wählen Sie den Tab Trainingspipelines aus, falls er noch nicht ausgewählt ist. Das Modell, das Sie trainieren, sollte in der Liste enthalten sein. Das Training ist beendet, wenn sich der Status von Training zu Finished ändert.

Prognose erstellen

Auf dieser Seite wird beschrieben, wie Sie eine Prognose mit dem Prognosemodell erstellen, das Sie unter Prognosemodell trainieren trainiert haben.

Hinweise

Bevor Sie eine Prognose erstellen können, müssen Sie ein Prognosemodell trainieren.

Batchvorhersageanfrage an das Modell stellen

  1. Rufen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ die Seite Batchvorhersagen auf.

    Zur Seite "Batchvorhersagen"

  2. Klicken Sie auf Erstellen, um das Fenster Neue Batchvorhersage zu öffnen, und führen Sie die folgenden Schritte aus:

    1. Geben Sie einen Namen für die Batchvorhersage ein.

    2. Wählen Sie in der Liste Modellname das Modell aus, das Sie unter Prognosemodell trainieren trainiert haben.

    3. Wählen Sie in der Liste Version die Version des Modells aus.

    4. Unter Quelle auswählen:

      1. Wählen Sie BigQuery-Tabelle aus, falls diese noch nicht ausgewählt ist.

      2. Geben Sie die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Vertex AI-Vorhersagetabelle ein, die Sie unter Vertex AI-Vorhersagetabelle erstellen erstellt haben. Das Format ist project_id.dataset_id.table_id.

    5. Gehen Sie unter Batchvorhersageausgabe so vor:

      1. Wählen Sie in der Liste Ausgabeformat die Option BigQuery-Tabelle aus.

      2. Geben Sie Projekt- und Dataset-IDs in BigQuery für die Ausgabetabelle der Batchvorhersage ein, die Sie erstellen. Verwenden Sie dieselbe Projekt-ID und Dataset-ID wie für die Produkt- und Nutzerereignistabellen. Das Format ist project_id.dataset_id..

    6. Klicken Sie auf Erstellen. Die Seite Batchvorhersagen wird angezeigt.

      Die Vorhersage ist abgeschlossen, wenn sich der Status von Pending auf Finished ändert. Sie erhalten auch eine E-Mail, wenn die Batchvorhersage abgeschlossen ist. Die Ausgabe der Batchvorhersageanfrage wird im Dataset des von Ihnen angegebenen BigQuery-Projekts zurückgegeben. Der Name der neuen Ausgabetabelle lautet "Predicts_", gefolgt vom Zeitstempel, der angibt, wann der Vorhersagejob gestartet wurde. Weitere Informationen zum Abrufen und Interpretieren der Prognoseergebnisse finden Sie in der Vertex AI-Dokumentation unter Ergebnisse von Batchvorhersagen abrufen und Prognoseergebnisse interpretieren.