Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Distribuzione delle caratteristiche
Questo documento descrive le opzioni a tua disposizione per rendere disponibili le caratteristiche per l'addestramento e l'inferenza dei modelli BigQuery ML. Per tutte le opzioni, devi salvare le funzionalità nelle tabelle BigQuery come primo passaggio necessario.
Correttezza point-in-time
I dati utilizzati per addestrare un modello spesso hanno dipendenze temporali incorporate. Quando crei una tabella di funzionalità per le funzionalità sensibili al tempo, includi una colonna timestamp per rappresentare i valori delle funzionalità così come esistevano in un determinato momento per ogni riga. Puoi quindi utilizzare le funzioni di ricerca in un determinato momento quando esegui query sui dati di queste tabelle di funzionalità per assicurarti che non ci siano perdite di dati tra l'addestramento e la pubblicazione. Questo processo consente la correttezza point-in-time.
Utilizza le seguenti funzioni per specificare i limiti point-in-time quando recuperi funzionalità sensibili al tempo:
Per addestrare i modelli ed eseguire l'inferenza batch in BigQuery ML, puoi recuperare le funzionalità utilizzando una delle funzioni di ricerca in un determinato momento descritte nella sezione Correttezza in un determinato momento. Puoi includere queste funzioni nella
clausola query_statement dell'istruzione CREATE MODEL per la formazione o nella clausola query_statement della funzione con valore di tabella appropriata, come
ML.PREDICT, per la pubblicazione.
Pubblicare funzionalità con Vertex AI Feature Store
Per fornire funzionalità ai modelli BigQuery ML registrati in Vertex AI, puoi utilizzare Vertex AI Feature Store.
Vertex AI Feature Store funziona sulle tabelle di funzionalità in
BigQuery per gestire ed eseguire il servizio delle funzionalità con bassa latenza. Puoi
utilizzare la pubblicazione online
per recuperare le funzionalità in tempo reale per la previsione online e la
pubblicazione offline
per recuperare le funzionalità per l'addestramento del modello.
Per ulteriori informazioni sulla preparazione dei dati delle funzionalità di BigQuery da utilizzare in Vertex AI Feature Store, consulta Preparare l'origine dati.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[[["\u003cp\u003eFeatures must be saved in BigQuery tables before they can be used for BigQuery ML model training and inference.\u003c/p\u003e\n"],["\u003cp\u003eIncluding a timestamp column in feature tables allows for point-in-time correctness, preventing data leakage between training and serving.\u003c/p\u003e\n"],["\u003cp\u003e\u003ccode\u003eML.FEATURES_AT_TIME\u003c/code\u003e and \u003ccode\u003eML.ENTITY_FEATURES_AT_TIME\u003c/code\u003e functions are used to specify point-in-time cutoffs when retrieving time-sensitive features.\u003c/p\u003e\n"],["\u003cp\u003eBigQuery ML models can use point-in-time lookup functions in \u003ccode\u003eCREATE MODEL\u003c/code\u003e statements or in table-valued functions like \u003ccode\u003eML.PREDICT\u003c/code\u003e to retrieve features for training and batch inference.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI Feature Store can be used to manage and serve features with low latency for BigQuery ML models registered in Vertex AI, supporting both real-time online prediction and offline model training.\u003c/p\u003e\n"]]],[],null,["# Feature serving\n===============\n\nThis document describes your options for making\n[features](/bigquery/docs/preprocess-overview) available for BigQuery ML\nmodel training and inference. For all options, you must save the features in\nBigQuery tables as a prerequisite first step.\n\nPoint-in-time correctness\n-------------------------\n\nThe data used to train a model often has time dependencies built into it. When\nyou create a feature table for time sensitive features, include a timestamp\ncolumn to represent the feature values as they existed at a given time for each\nrow. You can then use point-in-time lookup functions when querying data from\nthese feature tables in order to ensure that there is no [data\nleakage](https://en.wikipedia.org/wiki/Leakage_(machine_learning)) between\ntraining and serving. This process enables point-in-time correctness.\n\nUse the following functions to specify point-in-time cutoffs when retrieving\ntime sensitive features:\n\n- [`ML.FEATURES_AT_TIME`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-feature-time)\n- [`ML.ENTITY_FEATURES_AT_TIME`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-entity-feature-time)\n\nServe features in BigQuery ML\n-----------------------------\n\nTo train models and perform batch inference in BigQuery ML, you\ncan retrieve features using one of the point-in-time lookup functions described\nin the [Point-in-time correctness](#point-in-time_correctness) section. You can\ninclude these functions in the\n[`query_statement` clause](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-create#query_statement) of the `CREATE MODEL` statement for\ntraining, or in the `query_statement` clause of the appropriate table-valued\nfunction, such as\n[`ML.PREDICT`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-predict),\nfor serving.\n\nServe features with Vertex AI Feature Store\n-------------------------------------------\n\nTo serve features to BigQuery ML models that are\n[registered in Vertex AI](/bigquery/docs/managing-models-vertex#register_models),\nyou can use\n[Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview).\nVertex AI Feature Store works on top of feature tables in\nBigQuery to manage and serve features with low latency. You can\nuse [online serving](/vertex-ai/docs/featurestore/latest/serve-feature-values)\nto retrieve features in real time for online prediction, and you can use\n[offline serving](/vertex-ai/docs/featurestore/latest/serve-historical-features)\nto retrieve features for model training.\n\nFor more information about preparing BigQuery feature data\nto be used in Vertex AI Feature Store, see\n[Prepare data source](/vertex-ai/docs/featurestore/latest/prepare-data-source)."]]