Umsatzprognosen aus Einzelhandelsdaten erstellen

Auf der Seite finden Sie eine Anleitung zum Abrufen von Prognosen von Vertex AI auf der Grundlage von in BigQuery exportierten Einzelhandelsdaten. Wir stellen mehrere SQL-Codeblöcke bereit, mit denen Sie Daten zu Einzelhandelsprodukten und Nutzerereignissen in ein Format umwandeln können, das von Vertex AI verwendet werden kann. Auf diese Codeblöcke folgen Verfahren für die Vertex AI-Konsole, um ein Dataset zu erstellen, ein Modell zu trainieren und dann eine Prognose zu erstellen.

Hinweise

Bevor Sie mit Ihren Einzelhandelsdaten Umsatzprognosen erstellen können, müssen Sie Folgendes tun:

  • Laden Sie Ihre Einzelhandelsdaten mit Vertex AI Search for Retail hoch. Weitere Informationen finden Sie hier:

  • Exportieren Sie Ihre Einzelhandelsdaten aus Vertex AI Search for Retail nach BigQuery. So haben Sie in BigQuery eine Produkttabelle und eine Tabelle mit Nutzerereignissen, die Sie in den folgenden Schritten verwenden können. Weitere Informationen finden Sie unter Daten in BigQuery exportieren.

    Wenn Ihre Produkt- und Nutzerereignisdaten bereits in BigQuery vorhanden sind, können Sie in Vertex AI Search im Einzelhandelsformat damit Verkaufsprognosen aus Einzelhandelsdaten erstellen. In diesem Fall müssen Sie Ihre Einzelhandelsdaten nicht hochladen und nach BigQuery exportieren. Weitere Informationen zum Format finden Sie unter Produktschema und Nutzereignisse.

  • Sie benötigen die IAM-Rolle roles/aiplatform.user, um die Schritte über die Vertex AI Console ausführen zu können.

Aggregierte Verkaufstabelle erstellen

Mit dem SQL-Code in diesem Abschnitt wird die Tabelle mit Nutzerereignissen in eine aggregierte Verkaufstabelle umgewandelt. Das bedeutet, dass für jedes Produkt in der Tabelle mit Nutzerereignissen, das mindestens einmal verkauft wurde, die Verkaufsmenge für das Produkt über einen wöchentlichen Zeitraum zusammengefasst wird. Außerdem führt der SQL-Code Folgendes aus:

  • Wenn für ein Produkt in der Tabelle mit Nutzerereignissen Zeitstempel zwischen dem ersten und dem letzten Verkauf des Produkts in der Tabelle fehlen, werden für jeden fehlenden Zeitstempel eine neue Zeile mit null Verkäufen eingefügt. So werden Lücken im Verlauf der Verkäufe geschlossen.

  • Wenn sich in der Tabelle mit Nutzerereignissen kein Produkt mit mindestens 20 Zeitstempeln befindet, wird ein Produkt aus der Tabelle zufällig ausgewählt und mit genügend Zeilen (jeweils mit null Verkäufen) aufgefüllt, um 20 Zeitstempel zu erreichen. Dies entspricht der Vertex AI-Anforderung, dass beim Trainieren eines Modells mindestens 20 Zeitstempel erforderlich sind.

So erstellen Sie eine aggregierte Verkaufstabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte: MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY, SUNDAY.

    • rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs der Tabelle mit Nutzerereignissen, die Sie in BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs der Produkttabelle, die Sie in BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue aggregierte Verkaufstabelle. Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Datensatzes. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format ist project_id.dataset_id.table_id.

  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Tabelle mit den aggregierten Umsätzen wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen aggregated_sales_table festgelegt haben.

Produkttabelle verarbeiten

Der SQL-Code in diesem Abschnitt wirkt sich auf die Produkttabelle aus, die Sie nach BigQuery exportiert haben. Dabei werden die wiederholten und Strukturfelder entfernt und das Feld price_info in seine untergeordneten Felder entschachtelt. Dies ist erforderlich, da Vertex AI keine Listen oder verschachtelten Strukturen akzeptiert. Das Ergebnis ist die Tabelle „Verarbeitete Produkte“.

So verarbeiten Sie die Produkttabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie in BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue verarbeitete Produkttabelle. Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Datensatzes. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format ist project_id.dataset_id.table_id.

    CREATE OR REPLACE TABLE `PROCESSED_PRODUCT_TABLE` AS
    SELECT * EXCEPT (id, attributes, price_info, rating, expire_time,
    available_time, fulfillment_info, images, audience, color_info, promotions,
    publish_time, retrievable_fields, categories, brands, conditions, sizes,
    collection_member_ids, tags, materials, patterns),
    id as sku,
    price_info.price as price_info_price,
    price_info.currency_code as price_info_currency_code,
    price_info.cost as price_info_cost,
    FROM `RDM_PRODUCT_TABLE`
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Tabelle mit verarbeiteten Produkten wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen processed_product_table festgelegt haben.

Tabelle für Ereignisvorhersagen erstellen

Mit dem SQL-Code in diesem Abschnitt wird jede Artikelnummer extrahiert, die mindestens einmal in der Tabelle „Nutzer-Ereignisse“ verkauft wurde. Der Code erstellt eine Ereignisvorhersagetabelle mit allen extrahierten SKUs für alle Zeitstempel in der Zukunft. Die Zeitstempel für die Zukunft sind ein Array kontinuierlicher Wochenzeitstempel, beginnend mit der letzten Woche in der Tabelle mit Nutzerereignissen + 1 Woche und endend mit der letzten Woche in der Tabelle mit Nutzerereignissen + future_length Wochen. Legen Sie den Wert future_length auf die Anzahl der Wochen in der Zukunft fest, für die das Modell eine Vorhersage treffen soll. Jede Zeile in der Tabelle mit den Ereignisvorhersagen kann eindeutig durch eine SKU und einen Zeitstempel identifiziert werden.

So erstellen Sie eine Tabelle für die Ereignisvorhersage:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • starting_day_of_week. Der Tag, an dem die Woche beginnt. Gültige Werte: MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY, SUNDAY.

    • rdm_user_event_table. Die Projekt-, Dataset- und Tabellen-IDs für die Tabelle mit Nutzerereignissen, die Sie in BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • events_prediction_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Tabelle mit Ereignisvorhersagen. Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Datensatzes. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format ist project_id.dataset_id.table_id.

    • rdm_product_table. Die Projekt-, Dataset- und Tabellen-IDs für die Produkttabelle, die Sie in BigQuery exportiert haben. Das Format ist project_id.dataset_id.table_id.

    • future_length. Die Anzahl der Wochen in der Zukunft, nach der letzten Woche in der Tabelle mit Nutzerereignissen, die das Modell vorhersagen wird.

  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Tabelle für die Ereignisvorhersage wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen events_prediction_table festgelegt haben.

Vertex AI-Trainingstabelle erstellen

Im SQL-Code in diesem Abschnitt wird die zusammengefasste Verkaufstabelle mit der verarbeiteten Produkttabelle zusammengeführt. Das Ergebnis ist eine Vertex AI-Trainingstabelle, die von Vertex AI für das Modelltraining verwendet wird.

So erstellen Sie eine Vertex AI-Trainingstabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • vertex_ai_training_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Trainingstabelle. Verwenden Sie dieselbe Projekt-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID eines vorhandenen Datensatzes. Geben Sie eine Tabellen-ID an, verwenden Sie aber nicht die ID einer vorhandenen Tabelle, es sei denn, Sie möchten sie überschreiben. Das Format ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery der aggregierten Verkaufstabelle, die Sie unter Aggregierte Verkaufstabelle erstellen erstellt haben.

    • processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.

    CREATE OR REPLACE TABLE `VERTEX_AI_TRAINING_TABLE` AS
    SELECT t1.*, t2.* EXCEPT(sku) FROM `AGGREGATED_SALES_TABLE` AS t1
    LEFT
    JOIN `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Vertex AI-Trainingstabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_training_table festgelegt haben.

Vertex AI-Vorhersagetabelle erstellen

Mit dem SQL-Code in diesem Abschnitt wird die Tabelle mit den Ereignisvorhersagen an die aggregierte Verkaufstabelle angehängt und dann mit der Tabelle mit den verarbeiteten Produkten zusammengeführt. Das Ergebnis ist die Vertex AI-Vorhersagetabelle, mit der eine Prognose erstellt wird.

So erstellen Sie eine Vertex AI-Vorhersagetabelle:

  1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

    • vertex_ai_prediction_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die neue Vertex AI-Vorhersagetabelle. Verwenden Sie dieselbe Projekt-ID und Dataset-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Verwenden Sie die ID einer vorhandenen Tabelle nur, wenn Sie sie überschreiben möchten. Das Format dafür ist project_id.dataset_id.table_id.

    • aggregated_sales_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die aggregierte Verkaufstabelle, die Sie unter Aggregierte Verkaufstabelle erstellen erstellt haben.

    • processed_product_table. Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die verarbeitete Produkttabelle, die Sie unter Produkttabelle verarbeiten erstellt haben.

    • events_prediction_table Die Projekt-, Dataset- und Tabellen-IDs in BigQuery für die Tabelle mit Ereignisvorhersagen, die Sie unter Tabelle mit Ereignisvorhersagen erstellen erstellt haben.

    CREATE OR REPLACE TABLE `VERTEX_AI_PREDICTION_TABLE` AS
    WITH append_predict_to_history AS (
      SELECT add_to_cart_quantity, category_page_view_quantity,
      detail_page_view_quantity, last_day_of_week, quantity, search_quantity, sku
      FROM `AGGREGATED_SALES_TABLE` UNION ALL SELECT NULL AS
      add_to_cart_quantity, NULL AS category_page_view_quantity, NULL AS
      detail_page_view_quantity, last_day_of_week, NULL AS quantity, NULL AS
      search_quantity, sku FROM `EVENTS_PREDICTION_TABLE`
    )
    SELECT t1.*, t2.* EXCEPT(sku) FROM append_predict_to_history AS t1 LEFT JOIN
    `PROCESSED_PRODUCT_TABLE` AS t2 ON t1.sku = t2.sku
  2. Kopieren Sie das SQL-Codebeispiel.

  3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

    Zur Seite "BigQuery"

  4. Wählen Sie das Projekt mit den Produkt- und Nutzerereignistabellen aus, falls noch nicht geschehen.

  5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

  6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

Die neue Vertex AI-Vorhersagetabelle wird an den Speicherort in BigQuery geschrieben, den Sie mit der Variablen vertex_ai_prediction_table festgelegt haben.

Vertex AI-Dataset erstellen

In diesem Abschnitt erfahren Sie, wie Sie ein Vertex AI-Dataset erstellen, mit dem Sie ein Prognosemodell trainieren können. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Dataset zum Trainieren von Prognosemodellen erstellen.

So erstellen Sie ein Vertex AI-Dataset:

  1. Rufen Sie in der Google Cloud Console im Abschnitt „Vertex AI“ die Seite Dataset auf.

    Zur Seite „Datasets“

  2. Klicken Sie auf Erstellen, um die Seite Dataset erstellen zu öffnen.

  3. Geben Sie im Feld Dataset-Name einen Namen für das neue Dataset ein.

  4. Wählen Sie den Tab Tabellarisch aus.

  5. Wählen Sie das Prognoseziel aus.

  6. Wählen Sie in der Liste Region die Region aus, die Sie beim Erstellen eines Datasets verwendet haben, um Ihre Einzelhandelsdaten nach BigQuery zu exportieren. Wenn Sie beim Erstellen Ihres BigQuery-Datasets USA ausgewählt haben, können Sie eine beliebige Region in den USA auswählen. Wenn Sie beim Erstellen Ihres BigQuery-Datasets eu ausgewählt haben, können Sie auch eine beliebige Region in der Europäischen Union auswählen. Weitere Informationen finden Sie unter Daten nach BigQuery exportieren.

  7. Klicken Sie auf Erstellen, um ein leeres Dataset zu erstellen, und gehen Sie zum Tab Quelle.

  8. Wählen Sie Tabelle oder Ansicht aus BigQuery auswählen aus.

  9. Geben Sie unter Tabelle oder Ansicht aus BigQuery auswählen die Projekt-, Dataset- und Tabellen-IDs für die Vertex AI-Trainingstabelle ein, die Sie unter Vertex AI-Trainingstabelle erstellen erstellt haben. Das Format ist project_id.dataset_id.table_id.

  10. Klicken Sie auf Weiter.

    Die Datenquelle ist Ihrem Dataset zugeordnet.

  11. Wählen Sie auf dem Tab Analysieren in der Liste Spalte „Serien-ID“ die Option sku und in der Liste Spalte „Zeitstempel“ die Option last_day_of_week aus.

  12. Klicken Sie auf Neues Modell trainieren, um zur Seite Neues Modell trainieren zu gelangen. Eine Anleitung zum Trainieren Ihres Modells finden Sie unter Prognosemodell trainieren.

Prognosemodell trainieren

In diesem Abschnitt erfahren Sie, wie Sie ein Prognosemodell mit dem Dataset trainieren, das Sie unter Vertex AI-Dataset erstellen erstellt haben. Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Prognosemodell trainieren.

Hinweise

Bevor Sie ein Prognosemodell trainieren können, müssen Sie ein Vertex AI-Dataset erstellen.

Modell trainieren

  1. Wählen Sie auf der Seite Trainingsmethode die Modelltrainingsmethode aus. Informationen zu Trainingsmethoden finden Sie in der Vertex AI-Dokumentation unter Modell trainieren.

    Klicken Sie auf Weiter.

  2. Konfigurieren Sie auf der Seite Modelldetails Folgendes:

    1. Wählen Sie Neues Modell trainieren aus, falls sie nicht bereits ausgewählt ist.

    2. Geben Sie einen Namen für das neue Modell ein.

    3. Wählen Sie in der Liste Ziel die Option Menge (INTEGER) aus.

    4. Wählen Sie in der Liste Detaillierungsgrad der Daten die Option Wöchentlich aus.

    5. Geben Sie das Kontextfenster und den Prognosezeitraum ein.

      Der Prognosezeitraum bestimmt, wie weit das Modell den Zielwert für jede Zeile mit Vorhersagedaten prognostiziert. Der Prognosezeitraum wird in Einheiten der Datengranularität angegeben.

      Das Kontextfenster legt fest, wie weit das Modell während des Trainings (und für Prognosen) zurückblickt. Mit anderen Worten: Für jeden Trainingsdatenpunkt bestimmt das Kontextfenster, wie weit das Modell nach Vorhersagemustern sucht. Wenn Sie kein Kontextfenster angeben, wird standardmäßig der Wert verwendet, der für den Prognosezeitraum angegeben ist. Das Kontextfenster wird in Einheiten der Datengranularität angegeben.

      Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter Überlegungen zum Festlegen des Kontextfensters und des Prognosezeitraums.

    6. Klicken Sie auf Weiter.

  3. Konfigurieren Sie auf der Seite Trainingsoptionen Folgendes: Wenn der Drop-down-Pfeil für ausgegraut ist oder nicht vorhanden ist, kann der Wert nicht geändert werden.

    1. Wählen Sie für die Spalten in der Liste Spaltenname einen Wert für Transformation aus:

      • Wenn der Wert für BigQuery-Typ Float, Integer oder Numerisch ist, legen Sie den Wert für Transformation auf Numerisch fest.

      • Wenn der Wert für BigQuery-Typ String oder Boolescher Wert ist, legen Sie für Transformation den Wert Kategorisch fest.

      • Wenn der Wert für BigQuery-Typ Datum ist, legen Sie den Wert für Transformation auf Zeitstempel fest.

    2. Wählen Sie für die Spalten in der Liste Spaltenname einen Wert für den Ebenentyp aus:

      • Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Covariate für Feature-Typ fest.

      • Legen Sie für die übrigen Spalten, die geändert werden können, den Featuretyp auf Attribut fest.

    3. Wählen Sie für die Spalten in der Liste Spaltentyp den Wert Bei Prognose verfügbar aus:

      • Legen Sie für add_to_cart_quantity, category_page_view_quantity, detail_page_view_quantity und search_quantity den Wert Verfügbarkeit bei der Prognose auf Nicht verfügbar fest.

      • Legen Sie für die übrigen Spalten, die geändert werden können, den Wert Verfügbar für den Elementtyp fest.

    4. Klicken Sie auf Weiter.

  4. Geben Sie auf der Seite Computing und Preise die maximale Anzahl an Stunden ein, in denen Ihr Modell trainiert werden soll. Mit dieser Einstellung können Sie die Trainingskosten begrenzen. Die tatsächlich benötigte Zeit kann aber länger sein als dieser Wert, da auch noch andere Vorgänge am Erstellen eines neuen Modells beteiligt sind. Informationen dazu, wie lange es dauern kann, hochwertige Modelle zu trainieren, finden Sie in der Vertex AI-Dokumentation unter Modell trainieren.

  5. Klicken Sie auf Training starten.

    Das Modelltraining kann viele Stunden dauern, je nach Größe und Komplexität Ihrer Daten und Ihres Trainingsbudgets, sofern Sie eines angegeben haben. Sie können diesen Tab schließen und später wieder zurückkehren. Sie erhalten eine E-Mail, wenn das Training für Ihr Modell abgeschlossen ist. Wie Sie den Fortschritt des Modelltrainings im Blick behalten, erfahren Sie unter Fortschritt des Trainings im Blick behalten.

Fortschritt des Trainings im Blick behalten

  1. Rufen Sie in der Google Cloud Console im Bereich „Vertex AI“ die Seite Training auf.

    Zur Seite „Training“

  2. Wählen Sie den Tab Training Pipelines aus, falls er noch nicht ausgewählt ist. Das Modell, das Sie trainieren, sollte in der Liste aufgeführt sein. Das Training ist abgeschlossen, wenn der Status von Training in Abgeschlossen wechselt.

Prognose erstellen

Auf dieser Seite erfahren Sie, wie Sie eine Prognose mit dem Prognosemodell erstellen, das Sie unter Prognosemodell trainieren trainiert haben.

Hinweise

Bevor Sie eine Prognose erstellen können, müssen Sie ein Prognosemodell trainieren.

Batchvorhersageanfrage an das Modell stellen

  1. Rufen Sie in der Google Cloud Console im Abschnitt Vertex AI die Seite Batchvorhersagen auf.

    Zur Seite "Batchvorhersagen"

  2. Klicken Sie auf Erstellen, um das Fenster Neue Batchvorhersage zu öffnen, und führen Sie die folgenden Schritte aus:

    1. Geben Sie einen Namen für die Batchvorhersage ein.

    2. Wählen Sie in der Liste Modellname das Modell aus, das Sie unter Prognosemodell trainieren trainiert haben.

    3. Wählen Sie in der Liste Version die Version des Modells aus.

    4. Unter Quelle auswählen:

      1. Wählen Sie BigQuery-Tabelle aus, falls sie nicht bereits ausgewählt ist.

      2. Geben Sie in BigQuery die Projekt-, Dataset- und Tabellen-IDs für die Vertex AI-Vorhersagetabelle ein, die Sie unter Vertex AI-Vorhersagetabelle erstellen erstellt haben. Das Format ist project_id.dataset_id.table_id.

    5. Unter Batchvorhersage – Ausgabe:

      1. Wählen Sie in der Liste Ausgabeformat die Option BigQuery-Tabelle aus.

      2. Geben Sie in BigQuery die Projekt- und Dataset-IDs für die Ausgabetabelle der Batch-Prognose ein, die Sie erstellen. Verwenden Sie dieselbe Projekt-ID und Dataset-ID wie für die Tabellen mit Produkt- und Nutzerereignissen. Das Format ist project_id.dataset_id..

    6. Klicken Sie auf Erstellen. Die Seite Batchvorhersagen wird angezeigt.

      Die Vorhersage ist abgeschlossen, wenn sich der Status von Ausstehend in Abgeschlossen ändert. Sie erhalten auch eine E-Mail, wenn die Batch-Vorhersage abgeschlossen ist. Die Ausgabe Ihrer Batchvorhersageanfrage wird im Dataset im angegebenen BigQuery-Projekt zurückgegeben. Der Name der neuen Ausgabetabelle ist „predictions_“, gefolgt vom Zeitstempel, wann der Vorhersagejob gestartet wurde. Weitere Informationen zum Abrufen und Interpretieren von Prognoseergebnissen finden Sie in der Vertex AI-Dokumentation unter Batch-Vorhersageergebnisse abrufen und Prognoseergebnisse interpretieren.