Multivariate Zeitachsenprognosen anhand Seattle-Luftqualitätsdaten


In dieser Anleitung erfahren Sie, wie Sie ein multivariates Zeitachsenmodell (ARIMA_PLUS_XREG) erstellen, um Zeitachsenprognosen mithilfe folgender Beispieltabellen aus dem epa_historical_air_quality-Dataset durchzuführen:

Das epa_historical_air_quality-Dataset enthält Tagesinformationen zu PM-2.5, Temperatur und Windgeschwindigkeiten, die in mehreren Städten in den USA erfasst wurden.

Ziele

In dieser Anleitung verwenden Sie Folgendes:

  • Die CREATE MODEL-Anweisung zum Erstellen eines Zeitachsenmodells.
  • Die ML.ARIMA_EVALUATE-Funktion zum Prüfen der ARIMA-bezogenen Bewertungsinformationen im Modell.
  • Die ML.ARIMA_COEFFICIENTS-Funktion zum Prüfen der Modellkoeffizienten.
  • Die ML.FORECAST-Funktion zur Prognose des täglichen PM 2.5.
  • Die ML.EVALUATE-Funktion zum Bewerten des Modells mit tatsächlichen Daten.
  • Die Funktion ML.EXPLAIN_FORECAST zum Abrufen verschiedener Komponenten der Zeitreihe (z. B. Saisonalität, Trend und Feature-Attributionen), die Sie zur Erklärung der Prognoseergebnisse verwenden können.

Kosten

In dieser Anleitung werden kostenpflichtige Komponenten von Google Cloud verwendet, darunter:

  • BigQuery
  • BigQuery ML

Weitere Informationen zu den Kosten von BigQuery finden Sie auf der Seite BigQuery-Preise.

Weitere Informationen zu den Kosten für BigQuery ML finden Sie unter BigQuery ML-Preise.

Hinweis

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  6. BigQuery ist in neuen Projekten automatisch aktiviert. Zum Aktivieren von BigQuery in einem vorhandenen Projekt wechseln Sie zu

    Enable the BigQuery API.

    Enable the API

    .

Schritt 1: Dataset erstellen

Erstellen Sie ein BigQuery-Dataset, um Ihr ML-Modell zu speichern:

  1. Rufen Sie in der Google Cloud Console die Seite „BigQuery“ auf.

    Zur Seite „BigQuery“

  2. Klicken Sie im Bereich Explorer auf den Namen Ihres Projekts.

  3. Klicken Sie auf Aktionen ansehen > Dataset erstellen.

    Dataset erstellen

  4. Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:

    • Geben Sie unter Dataset-ID bqml_tutorial ein.

    • Wählen Sie als Standorttyp die Option Mehrere Regionen und dann USA (mehrere Regionen in den USA) aus.

      Die öffentlichen Datasets sind am multiregionalen Standort US gespeichert. Der Einfachheit halber sollten Sie Ihr Dataset am selben Standort speichern.

    • Übernehmen Sie die verbleibenden Standardeinstellungen unverändert und klicken Sie auf Dataset erstellen.

      Seite "Dataset erstellen"

Schritt 2: Zeitachsentabelle mit zusätzlichen Features erstellen

Die Daten zu PM2.5, Temperatur und Windgeschwindigkeit befinden sich in separaten Tabellen. Zur Vereinfachung der folgenden Abfragen können Sie eine neue Tabelle bqml_tutorial.seattle_air_quality_daily erstellen. Dazu verknüpfen Sie diese Tabellen mit folgenden Spalten:

  • Datum: das Datum der Beobachtung
  • PM2.5: der durchschnittliche PM2.5-Wert je Tag
  • wind_speed: durchschnittliche Windgeschwindigkeit je Tag
  • Temperatur: die Höchsttemperatur je Tag

Die neue Tabelle enthält Tagesdaten vom 11.08.2009 bis zum 31.01.2022.

In der folgenden GoogleSQL-Abfrage gibt die FROM bigquery-public-data.epa_historical_air_quality.*_daily_summary-Klausel an, dass Sie die *_daily_summary-Tabellen im epa_historical_air_quality-Dataset abfragen. Diese Tabellen sind partitionierte Tabellen.

#standardSQL
CREATE TABLE `bqml_tutorial.seattle_air_quality_daily`
AS
WITH
  pm25_daily AS (
    SELECT
      avg(arithmetic_mean) AS pm25, date_local AS date
    FROM
      `bigquery-public-data.epa_historical_air_quality.pm25_nonfrm_daily_summary`
    WHERE
      city_name = 'Seattle'
      AND parameter_name = 'Acceptable PM2.5 AQI & Speciation Mass'
    GROUP BY date_local
  ),
  wind_speed_daily AS (
    SELECT
      avg(arithmetic_mean) AS wind_speed, date_local AS date
    FROM
      `bigquery-public-data.epa_historical_air_quality.wind_daily_summary`
    WHERE
      city_name = 'Seattle' AND parameter_name = 'Wind Speed - Resultant'
    GROUP BY date_local
  ),
  temperature_daily AS (
    SELECT
      avg(first_max_value) AS temperature, date_local AS date
    FROM
      `bigquery-public-data.epa_historical_air_quality.temperature_daily_summary`
    WHERE
      city_name = 'Seattle' AND parameter_name = 'Outdoor Temperature'
    GROUP BY date_local
  )
SELECT
  pm25_daily.date AS date, pm25, wind_speed, temperature
FROM pm25_daily
JOIN wind_speed_daily USING (date)
JOIN temperature_daily USING (date)

Die Abfrage führen Sie so aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im obigen Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

  3. Klicken Sie auf Ausführen.

Schritt 3 (optional): Vorherzusagende Zeitachsen visualisieren

Schauen Sie sich Ihre Eingabezeitachse genau an, bevor Sie das Modell erstellen. Verwenden Sie dazu Looker Studio.

In der folgenden GoogleSQL-Abfrage gibt die FROM bqml_tutorial.seattle_air_quality_daily-Klausel an, dass Sie die seattle_air_quality_daily-Tabelle im gerade erstellten bqml_tutorial-Dataset abfragen.

#standardSQL
SELECT
  *
FROM
  `bqml_tutorial.seattle_air_quality_daily`

Die Abfrage führen Sie so aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

    #standardSQL
    SELECT
     *
    FROM
     `bqml_tutorial.seattle_air_quality_daily`
    
  3. Klicken Sie auf Ausführen.

    Nachdem diese Abfrage ausgeführt wurde, sieht die Ausgabe dem folgenden Screenshot ähnlich. Im Screenshot sehen Sie, dass diese Zeitachse 3960 Datenpunkte enthält. Klicken Sie auf die Schaltfläche Daten auswerten und dann auf Mit Looker Studio auswerten. Looker Studio wird in einem neuen Tab geöffnet. Führen Sie die folgenden Schritte in dem neuen Tab aus.

    Screenshot: Ausgabe der Abfrage

    Wählen Sie im Bereich Diagramm die Option Zeitachsendiagramm aus:

    Time_series_chart

    Gehen Sie im SETUPBildschirm im Bereich Grafik zum Abschnitt Messwert. Fügen Sie die Felder pm25, temperature und wind_speed hinzu und entfernen Sie dann den Standardmesswert Record Count. Sie können auch einen benutzerdefinierten Zeitraum festlegen, z. B. 1. Januar 2019 bis 31. Dezember 2021, um die Zeitreihe zu verkürzen. Dies wird in der folgenden Abbildung dargestellt.

    Time_series_data_fields

    Nachdem Sie diese Schritte abgeschlossen haben, wird das folgende Diagramm angezeigt. Dem Diagramm können Sie entnehmen, dass die Eingabezeitachse ein wöchentliches saisonales Muster aufweist.

    Result_visualization

Schritt 4: Zeitachsenmodell erstellen

Erstellen Sie als Nächstes ein Zeitachsenmodell mit den obigen Luftqualitätsdaten. Die folgende GoogleSQL-Abfrage erstellt ein Modell für die Prognose von pm25.

Die CREATE MODEL-Klausel erstellt und trainiert ein Modell mit dem Namen bqml_tutorial.seattle_pm25_xreg_model.

#standardSQL
CREATE OR REPLACE
  MODEL
    `bqml_tutorial.seattle_pm25_xreg_model`
  OPTIONS (
    MODEL_TYPE = 'ARIMA_PLUS_XREG',
    time_series_timestamp_col = 'date',
    time_series_data_col = 'pm25')
AS
SELECT
  date,
  pm25,
  temperature,
  wind_speed
FROM
  `bqml_tutorial.seattle_air_quality_daily`
WHERE
  date
  BETWEEN DATE('2012-01-01')
  AND DATE('2020-12-31')

Die OPTIONS(model_type='ARIMA_PLUS_XREG', time_series_timestamp_col='date', ...)-Klausel gibt an, dass Sie ein ARIMA-Modell mit externen Regressoren erstellen. Standardmäßig wird auto_arima=TRUE verwendet, sodass der auto.ARIMA-Algorithmus die Hyperparameter in ARIMA_PLUS_XREG-Modellen automatisch abstimmt. Der Algorithmus passt Dutzende von Kandidatenmodellen an und wählt das beste Modell mit dem niedrigsten Akaike-Informationskriterium (AIC) aus. Da der Standardwert data_frequency='AUTO_FREQUENCY' ist, leitet der Trainingsprozess außerdem automatisch die Datenhäufigkeit der Eingabezeitachse ab.

Führen Sie die CREATE MODEL-Abfrage aus, um Ihr Modell zu erstellen und zu trainieren:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im obigen Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

  3. Klicken Sie auf Ausführen.

    Die Abfrage dauert ungefähr 20 Sekunden. Anschließend wird das Modell (seattle_pm25_xreg_model) im Navigationsbereich angezeigt. Da die Abfrage eine CREATE MODEL-Anweisung zum Erstellen eines Modells verwendet, werden keine Abfrageergebnisse ausgegeben.

Schritt 5: Bewertungsmesswerte aller bewerteten Modelle prüfen

Nachdem Sie Ihr Modell erstellt haben, verwenden Sie die ML.ARIMA_EVALUATE-Funktion, die Bewertungsmesswerte aller infrage kommenden Modelle anzeigt, die während der automatischen Hyperparameter-Abstimmung bewertet wurden.

In folgender GoogleSQL-Abfrage verwendet die FROM-Klausel die ML.ARIMA_EVALUATE-Funktion für Ihr Modell, bqml_tutorial.seattle_pm25_xreg_model. Standardmäßig werden mit dieser Abfrage die Bewertungsmesswerte aller Kandidatenmodelle zurückgegeben.

Führen Sie die ML.ARIMA_EVALUATE-Abfrage mit folgenden Schritten aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

    #standardSQL
    SELECT
     *
    FROM
     ML.ARIMA_EVALUATE(MODEL `bqml_tutorial.seattle_pm25_xreg_model`)
    
  3. Klicken Sie auf Ausführen.

  4. Sobald die Abfrage abgeschlossen ist, klicken Sie unterhalb des Textbereichs der Abfrage auf den Tab Ergebnisse. Die Ergebnisse sollten in etwa so aussehen:

    Ausgabe von ML.ARIMA_EVALUATE.

    Die Ergebnisse enthalten die folgenden Spalten:

    • non_seasonal_p
    • non_seasonal_d
    • non_seasonal_q
    • has_drift
    • log_likelihood
    • AIC
    • variance
    • seasonal_periods
    • has_holiday_effect
    • has_spikes_and_dips
    • has_step_changes
    • error_message

    Die folgenden vier Spalten (non_seasonal_{p,d,q} und has_drift) definieren ein ARIMA-Modell in der Trainingspipeline. Die drei folgenden Messwerte (log_likelihood, AIC und variance) sind für den ARIMA-Modellanpassungsprozess relevant.

    Der auto.ARIMA-Algorithmus verwendet zuerst den KPSS-Test, um zu bestimmen, dass der beste Wert für non_seasonal_d 1 ist. Wenn non_seasonal_d 1 ist, trainiert auto.ARIMA anschließend 42 verschiedene ARIMA-Kandidatenmodelle parallel. Beachten Sie, dass auto.ARIMA 21 verschiedene Kandidatenmodelle trainiert, wenn non_seasonal_d nicht 1 ist. In diesem Beispiel sind alle 42 Kandidatenmodelle gültig. Daher enthält die Ausgabe 42 Zeilen, wobei jede Zeile einem ARIMA-Kandidatenmodell zugeordnet ist. Für einige Zeitachsen können mehrere mögliche Modelle ungültig sein, da sie entweder nicht umkehrbar oder nicht stationär sind. Diese ungültigen Modelle werden aus der Ausgabe ausgeschlossen, sodass die Ausgabe weniger als 42 Zeilen hat. Diese Kandidatenmodelle werden gemäß dem AIC in aufsteigender Reihenfolge sortiert. Das Modell in der ersten Zeile hat den niedrigsten AIC und gilt als bestes Modell. Dieses Modell wird dann als endgültiges Modell gespeichert und verwendet, wenn Sie, wie in den folgenden Schritten gezeigt, ML.FORECAST, ML.EVALUATE und ML.ARIMA_COEFFICIENTS aufrufen.

    Die Spalte seasonal_periods bezieht sich auf das saisonale Muster innerhalb der Eingabezeitachse. Es hat nichts mit der ARIMA-Modellierung zu tun und hat daher in allen Ausgabezeilen denselben Wert. Es wird ein wöchentliches Muster gemeldet, was unseren Erwartungen in Schritt 2 entspricht.

    Die Spalten has_holiday_effect, has_spikes_and_dips und has_step_changes werden nur ausgefüllt, wenn decompose_time_series=TRUE. Sie betreffen den Urlaubseffekt, Spitzen und Einbrüche sowie Schrittwechsel innerhalb der Eingabezeitachse, die nicht mit der ARIMA-Modellierung zusammenhängen. Aus diesem Grund sind sie für alle Ausgabezeilen gleich, außer für die fehlgeschlagenen Modelle.

    Die Spalte error_message zeigt an, dass der mögliche Fehler bei der auto.ARIMA-Anpassung aufgetreten ist. Ein möglicher Grund dafür ist, dass die ausgewählten Spalten non_seasonal_p, non_seasonal_d, non_seasonal_q und has_drift die Zeitachse nicht stabilisieren können. Legen Sie show_all_candidate_models=true fest, um die mögliche Fehlermeldung aller Kandidatenmodelle abzurufen.

Schritt 6: Koeffizienten Ihres Modells prüfen

Die Funktion ML.ARIMA_COEFFICIENTS ruft die Modellkoeffizienten Ihres ARIMA_PLUS-Modells bqml_tutorial.seattle_pm25_xreg_model ab. ML.ARIMA_COEFFICIENTS verwendet das Modell als einzige Eingabe.

Führen Sie die ML.ARIMA_COEFFICIENTS-Abfrage aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

    #standardSQL
    SELECT
     *
    FROM
     ML.ARIMA_COEFFICIENTS(MODEL `bqml_tutorial.seattle_pm25_xreg_model`)
    
  3. Klicken Sie auf Ausführen.

    Die Ergebnisse sollten so aussehen:

    Screenshot: Ausgabe von ML.ARIMA_COEFFICIENTS

    Die Ergebnisse enthalten die folgenden Spalten:

    • ar_coefficients
    • ma_coefficients
    • intercept_or_drift
    • processed_input
    • weight
    • category_weights.category
    • category_weights.weight

    ar_coefficients zeigt die Modellkoeffizienten des autoregressiven (AR) Teils des ARIMA-Modells an. Auf ähnliche Weise zeigt ma_coefficients die Modellkoeffizienten des gleitenden Durchschnitts (Moving Average, MA) an. Beide sind Arrays, deren Länge non_seasonal_p bzw. non_seasonal_q entspricht. In der Ausgabe von ML.ARIMA_EVALUATE hat das beste Modell in der obersten Zeile einen Wert von 0 für non_seasonal_p und einen Wert von 5 für non_seasonal_q. Daher ist ar_coefficients ein leeres Array und ma_coefficients ein Array der Länge 5. intercept_or_drift ist der konstante Begriff im ARIMA-Modell.

    processed_input und die entsprechenden weight- und category_weights-Spalten zeigen die Gewichtungen für jedes Feature und den Abfang im linearen Regressionsmodell an. Wenn es sich um ein numerisches Feature handelt, wird die Gewichtung in der weight-Spalte angezeigt. Wenn es sich bei dem Feature um ein kategorisches Feature handelt, ist category_weights ein ARRAY von STRUCT, wobei der STRUCT die Namen und Gewichtungen der Kategorien enthält.

Schritt 7: Modell zur Prognose der Zeitachsen verwenden

Die ML.FORECAST-Funktion prognostiziert zukünftige Zeitachsenwerte mit einem Vorhersageintervall unter Verwendung des Modells bqml_tutorial.seattle_pm25_xreg_model und der zukünftigen Featurewerte.

In der folgenden GoogleSQL-Abfrage gibt die STRUCT(30 AS horizon, 0.8 AS confidence_level)-Klausel an, dass die Abfrage 30 zukünftige Zeitpunkte prognostiziert und ein Vorhersageintervall mit einem Konfidenzniveau von 80 % generiert. ML.FORECAST verwendet das Modell, zukünftige Featurewerte sowie einige optionale Argumente.

Führen Sie die ML.FORECAST-Abfrage mit folgenden Schritten aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

    #standardSQL
    SELECT
    *
    FROM
    ML.FORECAST(
    MODEL `bqml_tutorial.seattle_pm25_xreg_model`,
    STRUCT(30 AS horizon, 0.8 AS confidence_level),
    (
      SELECT
        date,
        temperature,
        wind_speed
      FROM
        `bqml_tutorial.seattle_air_quality_daily`
      WHERE
        date > DATE('2020-12-31')
    ))
    
  3. Klicken Sie auf Ausführen.

    Die Ergebnisse sollten so aussehen:

    Screenshot: Ausgabe von ML.FORECAST

    Die Ergebnisse enthalten die folgenden Spalten:

    • forecast_timestamp
    • forecast_value
    • standard_error
    • confidence_level
    • prediction_interval_lower_bound
    • prediction_interval_upper_bound

    Die Ausgabezeilen werden in chronologischer Reihenfolge nach forecast_timestamp angeordnet. In der Zeitachsenprognose ist das Vorhersageintervall, das sich aus der Unter- und Obergrenze ergibt, genauso wichtig wie forecast_value. Der forecast_value ist der Mittelpunkt des Vorhersageintervall. Das Vorhersageintervall hängt von standard_error und confidence_level ab.

Schritt 8: Prognosegenauigkeit mit tatsächlichen Daten bewerten

Um die Vorhersagegenauigkeit anhand der tatsächlichen Daten zu bewerten, nutzen Sie die ML.EVALUATE-Funktion mit Ihrem Modell (bqml_tutorial.seattle_pm25_xreg_model) und die Tabelle der tatsächlichen Daten.

Führen Sie die ML.EVALUATE-Abfrage mit folgenden Schritten aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

    #standardSQL
    SELECT
    *
    FROM
    ML.EVALUATE(
    MODEL `bqml_tutorial.seattle_pm25_xreg_model`,
    (
      SELECT
        date,
        pm25,
        temperature,
        wind_speed
      FROM
        `bqml_tutorial.seattle_air_quality_daily`
      WHERE
        date > DATE('2020-12-31')
    ),
    STRUCT(
      TRUE AS perform_aggregation,
      30 AS horizon))
    

    Der zweite Parameter enthält die tatsächlichen Daten mit den zukünftigen Features, die für die Prognose der zukünftigen Werte mit den tatsächlichen Daten verwendet werden. Der dritte Parameter steht für eine Parameterstruktur für diese Funktion.

  3. Klicken Sie auf Ausführen.

    Die Ergebnisse sollten so aussehen:

    Screenshot: Ausgabe von ML.EVALUATE

Schritt 9: Prognoseergebnisse erklären

Um zu verstehen, wie die Zeitreihe prognostiziert wird, prognostiziert die Funktion ML.EXPLAIN_FORECAST zukünftige Zeitreihenwerte mit einem Vorhersageintervall unter Verwendung des Modells bqml_tutorial.seattle_pm25_xreg_model und gibt gleichzeitig alle einzelnen Komponenten der Zeitreihe zurück.

Wie die Funktion ML.FORECAST gibt die Klausel STRUCT(30 AS horizon, 0.8 AS confidence_level) an, dass die Abfrage 30 zukünftige Zeitpunkte prognostiziert und ein Vorhersageintervall mit einer Konfidenz von 80 % generiert. Die Funktion ML.EXPLAIN_FORECAST verwendet das Modell, zukünftige Featurewerte und einige optionale Argumente als Eingabe.

Führen Sie die ML.EXPLAIN_FORECAST-Abfrage mit folgenden Schritten aus:

  1. Klicken Sie in der Google Cloud Console auf Neue Abfrage erstellen.

  2. Geben Sie im Textfeld des Abfrageeditors die folgende GoogleSQL-Abfrage ein.

    #standardSQL
    SELECT
      *
    FROM
      ML.EXPLAIN_FORECAST(
        MODEL `bqml_tutorial.seattle_pm25_xreg_model`,
        STRUCT(30 AS horizon, 0.8 AS confidence_level),
        (
          SELECT
            date,
            temperature,
            wind_speed
          FROM
            `bqml_tutorial.seattle_air_quality_daily`
          WHERE
            date > DATE('2020-12-31')
        ))
    
  3. Klicken Sie auf Ausführen.

    Die Abfrage dauert weniger als eine Sekunde. Die Ergebnisse sollten so aussehen:

    ML.EXPLAIN_FORECAST output1. ML.EXPLAIN_FORECAST output2.

    Die Ergebnisse enthalten die folgenden Spalten:

    • time_series_timestamp
    • time_series_type
    • time_series_data
    • time_series_adjusted_data
    • standard_error
    • confidence_level
    • prediction_interval_lower_bound
    • prediction_interval_lower_bound
    • trend
    • seasonal_period_yearly
    • seasonal_period_quarterly
    • seasonal_period_monthly
    • seasonal_period_weekly
    • seasonal_period_daily
    • holiday_effect
    • spikes_and_dips
    • step_changes
    • residual
    • attribution_temperature
    • attribution_wind_speed
    • attribution___INTERCEPT__

    Die Ausgabezeilen werden in chronologischer Reihenfolge nach time_series_timestamp angeordnet. Verschiedene Komponenten werden als Spalten der Ausgabe aufgeführt. Weitere Informationen finden Sie unter ML.EXPLAIN_FORECAST.

Bereinigen

Damit Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen nicht in Rechnung gestellt werden, löschen Sie entweder das Projekt, das die Ressourcen enthält, oder Sie behalten das Projekt und löschen die einzelnen Ressourcen.

  • Sie können das von Ihnen erstellte Projekt löschen.
  • Sie können das Projekt aber auch behalten und das Dataset löschen.

Dataset löschen

Wenn Sie Ihr Projekt löschen, werden alle Datasets und Tabellen entfernt. Wenn Sie das Projekt wieder verwenden möchten, können Sie das in dieser Anleitung erstellte Dataset löschen:

  1. Rufen Sie, falls erforderlich, die Seite "BigQuery" in der Google Cloud Console auf.

    Zur Seite "BigQuery"

  2. Wählen Sie im Navigationsbereich das Dataset bqml_tutorial aus, das Sie erstellt haben.

  3. Klicken Sie rechts im Fenster auf Dataset löschen. Dadurch werden das Dataset, die Tabelle und alle Daten gelöscht.

  4. Bestätigen Sie im Dialogfeld Dataset löschen den Löschbefehl. Geben Sie dazu den Namen des Datasets (bqml_tutorial) ein und klicken Sie auf Löschen.

Projekt löschen

So löschen Sie das Projekt:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Nächste Schritte