Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Bereitstellung von Features
In diesem Dokument werden die Optionen beschrieben, mit denen Sie Features für das Training und die Inferenz von BigQuery ML-Modellen verfügbar machen können. Bei allen Optionen müssen Sie die Funktionen zuerst in BigQuery-Tabellen speichern.
Genauigkeit für einen bestimmten Zeitpunkt
Die Daten, die zum Trainieren eines Modells verwendet werden, enthalten häufig zeitliche Abhängigkeiten. Wenn Sie eine Feature-Tabelle für zeitsensible Features erstellen, fügen Sie eine Zeitstempelspalte hinzu, die die Feature-Werte zu einem bestimmten Zeitpunkt für jede Zeile darstellt. Sie können dann bei der Abfrage von Daten aus diesen Feature-Tabellen Funktionen für die Suche nach einem bestimmten Zeitpunkt verwenden, um sicherzustellen, dass es zwischen Training und Bereitstellung nicht zu einem Datenverlust kommt. Dadurch wird die zeitliche Genauigkeit aktiviert.
Verwenden Sie die folgenden Funktionen, um Sperrzeiten für einen bestimmten Zeitpunkt anzugeben, wenn Sie zeitsensible Features abrufen:
Wenn Sie Modelle in BigQuery ML trainieren und Batch-Inferenzen ausführen möchten, können Sie Funktionen für die stichtagsbezogene Suche verwenden, die im Abschnitt Stichtagsrichtigkeit beschrieben werden. Sie können diese Funktionen für das Training in die query_statement-Klausel der CREATE MODEL-Anweisung oder für die Auslieferung in die query_statement-Klausel der entsprechenden tabellenwertigen Funktion wie ML.PREDICT einfügen.
Funktionen mit dem Vertex AI Feature Store bereitstellen
Wenn Sie BigQuery ML-Modellen, die in Vertex AI registriert sind, Features bereitstellen möchten, können Sie den Vertex AI Feature Store verwenden.
Vertex AI Feature Store nutzt Feature-Tabellen in BigQuery, um Features mit niedriger Latenz zu verwalten und bereitzustellen. Mit der Onlinebereitstellung können Sie Features in Echtzeit für Onlinevorhersagen abrufen. Mit der Offlinebereitstellung können Sie Features für das Modelltraining abrufen.
Weitere Informationen zum Vorbereiten von BigQuery-Feature-Daten für die Verwendung im Vertex AI Feature Store finden Sie unter Datenquelle vorbereiten.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-09 (UTC)."],[[["\u003cp\u003eFeatures must be saved in BigQuery tables before they can be used for BigQuery ML model training and inference.\u003c/p\u003e\n"],["\u003cp\u003eIncluding a timestamp column in feature tables allows for point-in-time correctness, preventing data leakage between training and serving.\u003c/p\u003e\n"],["\u003cp\u003e\u003ccode\u003eML.FEATURES_AT_TIME\u003c/code\u003e and \u003ccode\u003eML.ENTITY_FEATURES_AT_TIME\u003c/code\u003e functions are used to specify point-in-time cutoffs when retrieving time-sensitive features.\u003c/p\u003e\n"],["\u003cp\u003eBigQuery ML models can use point-in-time lookup functions in \u003ccode\u003eCREATE MODEL\u003c/code\u003e statements or in table-valued functions like \u003ccode\u003eML.PREDICT\u003c/code\u003e to retrieve features for training and batch inference.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI Feature Store can be used to manage and serve features with low latency for BigQuery ML models registered in Vertex AI, supporting both real-time online prediction and offline model training.\u003c/p\u003e\n"]]],[],null,["# Feature serving\n===============\n\nThis document describes your options for making\n[features](/bigquery/docs/preprocess-overview) available for BigQuery ML\nmodel training and inference. For all options, you must save the features in\nBigQuery tables as a prerequisite first step.\n\nPoint-in-time correctness\n-------------------------\n\nThe data used to train a model often has time dependencies built into it. When\nyou create a feature table for time sensitive features, include a timestamp\ncolumn to represent the feature values as they existed at a given time for each\nrow. You can then use point-in-time lookup functions when querying data from\nthese feature tables in order to ensure that there is no [data\nleakage](https://en.wikipedia.org/wiki/Leakage_(machine_learning)) between\ntraining and serving. This process enables point-in-time correctness.\n\nUse the following functions to specify point-in-time cutoffs when retrieving\ntime sensitive features:\n\n- [`ML.FEATURES_AT_TIME`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-feature-time)\n- [`ML.ENTITY_FEATURES_AT_TIME`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-entity-feature-time)\n\nServe features in BigQuery ML\n-----------------------------\n\nTo train models and perform batch inference in BigQuery ML, you\ncan retrieve features using one of the point-in-time lookup functions described\nin the [Point-in-time correctness](#point-in-time_correctness) section. You can\ninclude these functions in the\n[`query_statement` clause](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-create#query_statement) of the `CREATE MODEL` statement for\ntraining, or in the `query_statement` clause of the appropriate table-valued\nfunction, such as\n[`ML.PREDICT`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-predict),\nfor serving.\n\nServe features with Vertex AI Feature Store\n-------------------------------------------\n\nTo serve features to BigQuery ML models that are\n[registered in Vertex AI](/bigquery/docs/managing-models-vertex#register_models),\nyou can use\n[Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview).\nVertex AI Feature Store works on top of feature tables in\nBigQuery to manage and serve features with low latency. You can\nuse [online serving](/vertex-ai/docs/featurestore/latest/serve-feature-values)\nto retrieve features in real time for online prediction, and you can use\n[offline serving](/vertex-ai/docs/featurestore/latest/serve-historical-features)\nto retrieve features for model training.\n\nFor more information about preparing BigQuery feature data\nto be used in Vertex AI Feature Store, see\n[Prepare data source](/vertex-ai/docs/featurestore/latest/prepare-data-source)."]]