Prognosen für mehrere Zeitreihen mit einem univariaten Modell erstellen


In dieser Anleitung erfahren Sie, wie Sie mithilfe eines univariaten Zeitreihenmodells den zukünftigen Wert für eine bestimmte Spalte anhand der bisherigen Werte für diese Spalte vorhersagen.

In dieser Anleitung werden Prognosen für mehrere Zeitreihen erstellt. Die prognostizierten Werte werden für jeden Zeitpunkt und für jeden Wert in einer oder mehreren angegebenen Spalten berechnet. Wenn Sie beispielsweise das Wetter vorhersagen möchten und eine Spalte mit Daten zu Städten angeben, enthalten die prognostizierten Daten Vorhersagen für alle Zeitpunkte für Stadt A, dann Vorhersagewerte für alle Zeitpunkte für Stadt B usw.

In dieser Anleitung werden Daten aus der öffentlichen Tabelle bigquery-public-data.new_york.citibike_trips verwendet. Diese Tabelle enthält Informationen zu Citi Bike-Fahrten in New York City.

Bevor Sie diese Anleitung lesen, sollten Sie unbedingt Prognosen für einzelne Zeitachsen mit einem univariaten Modell erstellen lesen.

Lernziele

In dieser Anleitung werden Sie durch die folgenden Aufgaben geführt:

  • Mit der CREATE MODEL-Anweisung ein Zeitreihenmodell zum Prognostizieren der Anzahl der Fahrradfahrten erstellen
  • Mit der Funktion ML.ARIMA_EVALUATE die ARIMA-Informationen (Autoregressive Integrated Moving Average) im Modell bewerten
  • Mit der ML.ARIMA_COEFFICIENTS-Funktion die Modellkoeffizienten prüfen
  • Die Informationen zu den prognostizierten Radfahrten mithilfe der ML.FORECAST-Funktion aus dem Modell abrufen.
  • Komponenten der Zeitreihe wie Saisonabhängigkeit und Trend mithilfe der Funktion ML.EXPLAIN_FORECAST abrufen Sie können diese Zeitreihenkomponenten prüfen, um die prognostizierten Werte zu erklären.

Kosten

In dieser Anleitung werden kostenpflichtige Komponenten von Google Cloud verwendet, darunter:

  • BigQuery
  • BigQuery ML

Weitere Informationen zu den Kosten von BigQuery finden Sie auf der Seite BigQuery-Preise.

Weitere Informationen zu den Kosten für BigQuery ML finden Sie unter BigQuery ML-Preise.

Vorbereitung

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. BigQuery ist in neuen Projekten automatisch aktiviert. Zum Aktivieren von BigQuery in einem vorhandenen Projekt wechseln Sie zu

    Enable the BigQuery API.

    Enable the API

    .

Erforderliche Berechtigungen

  • Sie benötigen die IAM-Berechtigung bigquery.datasets.create, um das Dataset zu erstellen.
  • Zum Erstellen der Verbindungsressource benötigen Sie die folgenden Berechtigungen:

    • bigquery.connections.create
    • bigquery.connections.get
  • Zum Erstellen des Modells benötigen Sie die folgenden Berechtigungen:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.connections.delegate
  • Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:

    • bigquery.models.getData
    • bigquery.jobs.create

Weitere Informationen zu IAM-Rollen und Berechtigungen in BigQuery finden Sie unter Einführung in IAM.

Dataset erstellen

Erstellen Sie ein BigQuery-Dataset, um Ihr ML-Modell zu speichern:

  1. Rufen Sie in der Google Cloud Console die Seite „BigQuery“ auf.

    Zur Seite „BigQuery“

  2. Klicken Sie im Bereich Explorer auf den Namen Ihres Projekts.

  3. Klicken Sie auf Aktionen ansehen > Dataset erstellen.

    Dataset erstellen

  4. Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:

    • Geben Sie unter Dataset-ID bqml_tutorial ein.

    • Wählen Sie als Standorttyp die Option Mehrere Regionen und dann USA (mehrere Regionen in den USA) aus.

      Die öffentlichen Datasets sind am multiregionalen Standort US gespeichert. Der Einfachheit halber sollten Sie Ihr Dataset am selben Standort speichern.

    • Übernehmen Sie die verbleibenden Standardeinstellungen unverändert und klicken Sie auf Dataset erstellen.

      Seite "Dataset erstellen"

Eingabedaten visualisieren

Bevor Sie das Modell erstellen, können Sie Ihre Eingabezeitreihendaten optional visualisieren, um sich ein Bild von der Verteilung zu machen. Verwenden Sie dazu Looker Studio.

Die SELECT-Anweisung der folgenden Abfrage verwendet die EXTRACT-Funktion, um die Datumsinformationen aus der Spalte starttime zu extrahieren. Die Abfrage verwendet die COUNT(*)-Klausel, um die Gesamtzahl der Citi Bike-Touren pro Tag abzurufen.

So visualisieren Sie die Zeitreihendaten:

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Fügen Sie die folgende Abfrage in den Abfrageeditor ein und klicken Sie auf Ausführen:

    SELECT
      EXTRACT(DATE from starttime) AS date,
      COUNT(*) AS num_trips
    FROM
    `bigquery-public-data.new_york.citibike_trips`
    GROUP BY date;
  3. Klicken Sie nach Abschluss der Abfrage auf Daten auswerten > Mit Looker Studio auswerten. Looker Studio wird in einem neuen Tab geöffnet. Führen Sie die folgenden Schritte in dem neuen Tab aus.

  4. Klicken Sie in Looker Studio auf Einfügen > Zeitreihendiagramm.

  5. Wählen Sie im Bereich Diagramm den Tab Einrichtung aus.

  6. Fügen Sie im Bereich Messwert das Feld num_trips hinzu und entfernen Sie den Standardmesswert Anzahl der Datensätze. Das Diagramm sieht dann ungefähr so aus:

    Diagramm mit Daten zu Radfahrten im Zeitverlauf

Zeitreihenmodell erstellen

Sie möchten die Anzahl der Fahrradfahrten für jede Citi Bike-Station prognostizieren. Dazu sind viele Zeitreihenmodelle erforderlich, eines für jede Citi Bike-Station, die in den Eingabedaten enthalten ist. Sie können dazu mehrere CREATE MODEL-Abfragen schreiben. Dies kann jedoch mühsam und zeitaufwendig sein, insbesondere wenn Sie sehr viele Zeitreihen haben. Stattdessen können Sie mit einer einzigen Abfrage eine Reihe von Zeitreihenmodellen erstellen und anpassen, um mehrere Zeitreihen gleichzeitig vorherzusagen.

In der folgenden Abfrage gibt die OPTIONS(model_type='ARIMA_PLUS', time_series_timestamp_col='date', ...)-Klausel an, dass Sie ein ARIMA-basiertes Zeitreihenmodell erstellen. Mit der Option time_series_id_col der CREATE MODEL-Anweisung geben Sie eine oder mehrere Spalten in den Eingabedaten an, für die Sie Prognosen erhalten möchten. In diesem Fall ist das die Citi Bike-Station, die durch die Spalte start_station_name dargestellt wird. Mit der WHERE-Klausel beschränken Sie die Starthaltestellen auf diejenigen, deren Namen Central Park enthalten. Die Option auto_arima_max_order der CREATE MODEL-Anweisung steuert den Suchbereich für die Hyperparameter-Abstimmung im auto.ARIMA-Algorithmus. Die Option decompose_time_series der CREATE MODEL-Anweisung ist standardmäßig auf TRUE festgelegt, damit beim Bewerten des Modells im nächsten Schritt Informationen zu den Zeitreihendaten zurückgegeben werden.

So erstellen Sie das Modell:

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Fügen Sie die folgende Abfrage in den Abfrageeditor ein und klicken Sie auf Ausführen:

    CREATE OR REPLACE MODEL `bqml_tutorial.nyc_citibike_arima_model_group`
    OPTIONS
    (model_type = 'ARIMA_PLUS',
      time_series_timestamp_col = 'date',
      time_series_data_col = 'num_trips',
      time_series_id_col = 'start_station_name',
      auto_arima_max_order = 5
    ) AS
    SELECT
      start_station_name,
      EXTRACT(DATE from starttime) AS date,
      COUNT(*) AS num_trips
    FROM
    `bigquery-public-data.new_york.citibike_trips`
    WHERE start_station_name LIKE '%Central Park%'
    GROUP BY start_station_name, date;

    Die Abfrage dauert ungefähr 24 Sekunden. Anschließend wird das Modell nyc_citibike_arima_model_group im Bereich Explorer angezeigt. Da die Abfrage eine CREATE MODEL-Anweisung verwendet, werden keine Abfrageergebnisse angezeigt.

Mit dieser Abfrage werden zwölf Zeitachsenmodelle erstellt, eines für jede der zwölf Citi Bike-Startstationen in den Eingabedaten. Der Zeitaufwand ist mit etwa 24 Sekunden aufgrund der Parallelität nur 1,4-mal höher als bei der Erstellung eines Modells mit nur einer Zeitreihe. Wenn Sie jedoch die WHERE ... LIKE ...-Klausel entfernen, gibt es mehr als 600 Zeitachsen für die Prognose, die aufgrund der Slotkapazitätsbeschränkungen nicht vollständig parallel prognostiziert werden. In diesem Fall würde die Abfrage etwa 15 Minuten dauern. Wenn Sie die Abfragelaufzeit reduzieren möchten, ohne dass sich die Modellqualität möglicherweise verschlechtert, können Sie den Wert der Option auto_arima_max_order vom Standardwert 5 auf 3 oder 4 verringern. Dadurch wird der Suchbereich der Hyperparameter-Abstimmung im auto.ARIMA-Algorithmus verkleinert. Weitere Informationen finden Sie unter Large-scale time series forecasting best practices.

Modell bewerten

Bewerten Sie das Zeitreihenmodell mit der Funktion ML.ARIMA_EVALUATE. Die Funktion ML.ARIMA_EVALUATE zeigt die Bewertungsmesswerte an, die während der automatischen Hyperparameter-Abstimmung für das Modell generiert wurden.

So bewerten Sie das Modell:

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Fügen Sie die folgende Abfrage in den Abfrageeditor ein und klicken Sie auf Ausführen:

    SELECT
     *
    FROM
     ML.ARIMA_EVALUATE(MODEL `bqml_tutorial.nyc_citibike_arima_model_group`);

    Die Ergebnisse sollten so aussehen:

    Bewertungsmesswerte für das Zeitreihenmodell.

    Die Spalte start_station_name gibt die Eingabedatenspalte an, für die Zeitreihen erstellt wurden. Das ist die Spalte, die Sie in der Option time_series_id_col der CREATE MODEL-Anweisung angegeben haben.

    Die Ausgabespalten non_seasonal_p, non_seasonal_d, non_seasonal_q und has_drift definieren ein ARIMA-Modell in der Trainingspipeline. Die Ausgabespalten log_likelihood, AIC und variance sind für den ARIMA-Modellanpassungsprozess relevant.Der Anpassungsprozess bestimmt mithilfe des auto.ARIMA-Algorithmus für jede Zeitreihe das beste ARIMA-Modell.

    Der auto.ARIMA-Algorithmus verwendet den KPSS-Test, um den besten Wert für non_seasonal_d zu ermitteln, in diesem Fall 1. Wenn non_seasonal_d 1 ist, trainiert der auto.ARIMA-Algorithmus 42 verschiedene ARIMA-Kandidatenmodelle parallel. In diesem Beispiel sind alle 42 Kandidatenmodelle gültig. Die Ausgabe enthält daher 42 Zeilen, eine für jedes ARIMA-Kandidatenmodell. Wenn einige der Modelle ungültig sind, werden sie von der Ausgabe ausgeschlossen. Diese Kandidatenmodelle werden in aufsteigender Reihenfolge nach AIC zurückgegeben. Das Modell in der ersten Zeile hat den niedrigsten AIC und gilt als bestes Modell. Dieses Modell wird dann als endgültiges Modell gespeichert und verwendet, wenn Sie, wie in den folgenden Schritten gezeigt, ML.FORECAST, ML.EVALUATE und ML.ARIMA_COEFFICIENTS aufrufen.

    Die Spalte seasonal_periods enthält Informationen zum saisonalen Muster, das in den Zeitreihendaten identifiziert wurde. Jede Zeitreihe kann unterschiedliche saisonale Muster haben. In der Abbildung sehen Sie beispielsweise, dass eine Zeitreihe ein Jahresmuster aufweist, andere hingegen nicht.

    Die Spalten has_holiday_effect, has_spikes_and_dips und has_step_changes werden nur ausgefüllt, wenn decompose_time_series=TRUE. Diese Spalten enthalten auch Informationen zu den Eingabezeitreihendaten und haben keinen Bezug zur ARIMA-Modellierung. Außerdem haben diese Spalten in allen Ausgabezeilen dieselben Werte.

    Weitere Informationen zu den Ausgabespalten finden Sie unter ML.ARIMA_EVALUATE-Funktion.

Während auto.ARIMA Dutzende von ARIMA-Kandidatenmodellen für jede Zeitreihe auswertet, gibt ML.ARIMA_EVALUATE standardmäßig nur die Informationen des besten Modells aus, um die Ausgabetabelle kompakt zu gestalten. Wenn Sie alle Kandidatenmodelle aufrufen möchten, können Sie das show_all_candidate_model-Argument der Funktion ML.ARIMA_EVALUATE auf TRUE festlegen.

Koeffizienten des Modells prüfen

Prüfen Sie mit der Funktion ML.ARIMA_COEFFICIENTS die Koeffizienten des Zeitreihenmodells.

So rufen Sie die Koeffizienten des Modells ab:

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Fügen Sie die folgende Abfrage in den Abfrageeditor ein und klicken Sie auf Ausführen:

    SELECT
     *
    FROM
     ML.ARIMA_COEFFICIENTS(MODEL `bqml_tutorial.nyc_citibike_arima_model_group`);

    Die Abfrage dauert weniger als eine Sekunde. Die Antwort sollte in etwa so aussehen:

    Koeffizienten für das Zeitreihenmodell.

    Die Spalte start_station_name gibt die Eingabedatenspalte an, für die Zeitreihen erstellt wurden. Das ist die Spalte, die Sie in der Option time_series_id_col der CREATE MODEL-Anweisung angegeben haben.

    Die Ausgabespalte ar_coefficients enthält die Modellkoeffizienten des autoregressiven (AR) Teils des ARIMA-Modells. Ähnlich enthält die Ausgabespalte ma_coefficients die Modellkoeffizienten des gleitenden Durchschnitts (Moving Average, MA) des ARIMA-Modells. Beide Spalten enthalten Arrays, deren Länge non_seasonal_p bzw. non_seasonal_q entspricht. Der Wert intercept_or_drift ist der konstante Begriff im ARIMA-Modell.

    Weitere Informationen zu den Ausgabespalten finden Sie unter ML.ARIMA_COEFFICIENTS-Funktion.

Mit dem Modell Daten prognostizieren

Mit der Funktion ML.FORECAST können Sie zukünftige Zeitreihenwerte prognostizieren.

In der folgenden GoogleSQL-Abfrage gibt die STRUCT(3 AS horizon, 0.9 AS confidence_level)-Klausel an, dass die Abfrage drei zukünftige Zeitpunkte prognostiziert und ein Vorhersageintervall mit einem Konfidenzniveau von 90% generiert.

So prognostizieren Sie Daten mit dem Modell:

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Fügen Sie die folgende Abfrage in den Abfrageeditor ein und klicken Sie auf Ausführen:

    SELECT
     *
    FROM
     ML.FORECAST(MODEL `bqml_tutorial.nyc_citibike_arima_model_group`,
       STRUCT(3 AS horizon, 0.9 AS confidence_level))
  3. Klicken Sie auf Ausführen.

    Die Abfrage dauert weniger als eine Sekunde. Die Ergebnisse sollten so aussehen:

    Screenshot: Ausgabe von ML.FORECAST

    Die erste Spalte, start_station_name, annotiert die Zeitreihe, an die das jeweilige Zeitreihenmodell angepasst wird. Für jedes start_station_name sind drei Zeilen mit Prognoseergebnissen vorhanden, wie durch den Wert horizon angegeben.

    Für jeden start_station_name sind die Ausgabezeilen in chronologischer Reihenfolge nach dem Spaltenwert forecast_timestamp angeordnet. Bei der Zeitreihenprognose ist das Vorhersageintervall, das durch die Spaltenwerte prediction_interval_lower_bound und prediction_interval_upper_bound dargestellt wird, genauso wichtig wie der Spaltenwert forecast_value. Der Wert forecast_value ist der Mittelpunkt des Vorhersageintervalls. Das Vorhersageintervall hängt von den Spaltenwerten standard_error und confidence_level ab.

    Weitere Informationen zu den Ausgabespalten finden Sie unter ML.FORECAST-Funktion.

Prognoseergebnisse erklären

Mit der Funktion ML.EXPLAIN_FORECAST können Sie zusätzlich zu Prognosedaten auch Erklärbarkeitsmesswerte abrufen. Die Funktion ML.EXPLAIN_FORECAST prognostiziert zukünftige Zeitreihenwerte und gibt auch alle einzelnen Komponenten der Zeitreihe zurück. Wenn Sie nur Prognosedaten zurückgeben möchten, verwenden Sie stattdessen die Funktion ML.FORECAST, wie im Abschnitt Modell zur Prognose von Daten verwenden beschrieben.

Die STRUCT(3 AS horizon, 0.9 AS confidence_level)-Klausel, die in der Funktion ML.EXPLAIN_FORECAST verwendet wird, gibt an, dass die Abfrage drei zukünftige Zeitpunkte prognostiziert und ein Vorhersageintervall mit einer Konfidenz von 90% generiert.

So erklären Sie die Ergebnisse des Modells:

  1. Öffnen Sie in der Google Cloud Console die Seite BigQuery.

    BigQuery aufrufen

  2. Fügen Sie die folgende Abfrage in den Abfrageeditor ein und klicken Sie auf Ausführen:

    SELECT
     *
    FROM
     ML.EXPLAIN_FORECAST(MODEL `bqml_tutorial.nyc_citibike_arima_model_group`,
       STRUCT(3 AS horizon, 0.9 AS confidence_level));

    Die Abfrage dauert weniger als eine Sekunde. Die Ergebnisse sollten so aussehen:

    Die ersten neun Ausgabespalten mit prognostizierten Daten und Prognoseerläuterungen. Die zehnte bis siebzehnte Ausgabespalte mit prognostizierten Daten und Prognoseerläuterungen. Die letzten sechs Ausgabespalten mit prognostizierten Daten und Erklärungen zur Prognose.

    Die ersten tausend Zeilen, die zurückgegeben werden, sind ausschließlich Verlaufsdaten. Sie müssen durch die Ergebnisse scrollen, um die Prognosedaten zu sehen.

    Die Ausgabezeilen werden zuerst nach start_station_name und dann chronologisch nach dem Spaltenwert time_series_timestamp sortiert. Bei der Zeitreihenprognose ist das Vorhersageintervall, das durch die Spaltenwerte prediction_interval_lower_bound und prediction_interval_upper_bound dargestellt wird, genauso wichtig wie der Spaltenwert forecast_value. Der Wert forecast_value ist der Mittelpunkt des Vorhersageintervalls. Das Vorhersageintervall hängt von den Spaltenwerten standard_error und confidence_level ab.

    Weitere Informationen zu den Ausgabespalten finden Sie unter ML.EXPLAIN_FORECAST.

Bereinigen

Damit Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen nicht in Rechnung gestellt werden, löschen Sie entweder das Projekt, das die Ressourcen enthält, oder Sie behalten das Projekt und löschen die einzelnen Ressourcen.

  • Sie können das von Ihnen erstellte Projekt löschen.
  • Sie können das Projekt aber auch behalten und das Dataset löschen.

Dataset löschen

Wenn Sie Ihr Projekt löschen, werden alle Datasets und Tabellen entfernt. Wenn Sie das Projekt wieder verwenden möchten, können Sie das in dieser Anleitung erstellte Dataset löschen:

  1. Rufen Sie, falls erforderlich, die Seite "BigQuery" in der Google Cloud Console auf.

    Zur Seite "BigQuery"

  2. Wählen Sie im Navigationsbereich das Dataset bqml_tutorial aus, das Sie erstellt haben.

  3. Klicken Sie auf Dataset löschen, um das Dataset, die Tabelle und alle Daten zu löschen.

  4. Bestätigen Sie im Dialogfeld Dataset löschen den Löschbefehl. Geben Sie dazu den Namen des Datasets (bqml_tutorial) ein und klicken Sie auf Löschen.

Projekt löschen

So löschen Sie das Projekt:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Nächste Schritte