Panoramica
Questa pagina mostra come esportare i modelli BigQuery ML. Puoi esportare i modelli BigQuery ML in Cloud Storage e utilizzarli per la previsione online oppure modificarli in Python. Puoi esportare un modello BigQuery ML da:
- Tramite la console Google Cloud.
- Utilizzando l'istruzione
EXPORT MODEL
. - Utilizzare il comando
bq extract
nello strumento a riga di comandobq
. - Invio di un job
extract
tramite l'API o le librerie client.
Puoi esportare i seguenti tipi di modello:
AUTOENCODER
AUTOML_CLASSIFIER
AUTOML_REGRESSOR
BOOSTED_TREE_CLASSIFIER
BOOSTED_TREE_REGRESSOR
DNN_CLASSIFIER
DNN_REGRESSOR
DNN_LINEAR_COMBINED_CLASSIFIER
DNN_LINEAR_COMBINED_REGRESSOR
KMEANS
LINEAR_REG
LOGISTIC_REG
MATRIX_FACTORIZATION
RANDOM_FOREST_CLASSIFIER
RANDOM_FOREST_REGRESSOR
TENSORFLOW
(modelli TensorFlow importati)PCA
Esporta formati ed esempi di modelli
La tabella seguente mostra i formati della destinazione di esportazione per ogni tipo di modello BigQuery ML e fornisce un esempio di file che vengono scritti nel bucket Cloud Storage.
Tipo di modello | Esporta formato modello | Esempio di file esportati |
---|---|---|
CLASSIFICATORE AUTOML | TensorFlow SaveModel (TF 2.1.0) | gcs_bucket/
|
REGOLATORE_AUTOML | ||
CODICE AUTOMATICO | TensorFlow SaveModel (TF 1.15 o versioni successive) | |
CLASSIFICATORE_DNN | ||
DNN_REGRESSOR | ||
CLASSIFICATORE_NON_LINEAR_COMBINATO | ||
DNN_LINEAR_COMBINATO_REGRESSORE | ||
KMEAN | ||
REGOLATORE_LINEARE | ||
REGISTIC_REG | ||
MATRIX_FACTORIZZAZIONE | ||
PCA | ||
CLASSIFIER_TREE_TROSTED | Richiamo (XGBoost 0.82) | gcs_bucket/
main.py è per l'esecuzione locale. Per ulteriori dettagli, consulta Implementazione dei modelli.
|
BOOSTED_TREE_REGRESSOR | ||
REGOLANTE_CASUALE_CASUALE | ||
REGOLANTE_CASUALE_CASUALE | ||
TENSORFLOW (importato) | Salvato modello TensorFlow | Esattamente gli stessi file presenti durante l'importazione del modello |
Esporta modello addestrato con TRANSFORM
Se il modello viene addestrato con la clausola TRANSFORM, un modello di pre-elaborazione aggiuntivo esegue la stessa logica nella clausola TRANSFORM
e viene salvato nel formato SaveModel di Tensorflow nella sottodirectory transform
.
Esporta formato modello | Esempio di file esportati |
---|---|
Modello di previsione: TensorFlow SaveModel o Booster (XGBoost 0.82).
Modello di pre-elaborazione per la clausola TRANSFORM: TensorFlow SavedModel (TF 2.5 o versioni successive) |
gcs_bucket/
|
Il modello non contiene le informazioni sulla progettazione delle funzionalità eseguite nell'istruzione SELECT
durante l'addestramento, pertanto dovrai convertire manualmente i dati di input prima di inserirli nel modello esportato.
Limitazioni
Durante l'esportazione dei modelli si applicano le seguenti limitazioni:
L'esportazione del modello non è supportata se durante l'addestramento è stata utilizzata una delle seguenti funzionalità:
- I tipi di funzionalità
ARRAY
,TIMESTAMP
oGEOGRAPHY
erano presenti nei dati di input.
- I tipi di funzionalità
I modelli esportati per i tipi di modelli
AUTOML_REGRESSOR
eAUTOML_CLASSIFIER
non supportano il deployment di AI Platform per la previsione online.Il limite per le dimensioni del modello è di 1 GB per l'esportazione del modello di fattorizzazione della matrice. La dimensione del modello è circa proporzionale a
num_factors
, quindi puoi ridurrenum_factors
durante l'addestramento per ridurre le dimensioni del modello se raggiungi il limite.Le funzionalità relative alle chiavi di crittografia gestite dal cliente non sono supportate per l'esportazione del modello.
Le funzioni limitate sono supportate per l'esportazione dei modelli se è stata utilizzata la clausola TRANSFORM di BigQuery ML per la progettazione delle funzionalità. Le funzioni supportate sono:
- Tutte le funzioni con input NUMERICI. Ad esempio,
ML.BUCKETIZE
,ML.MIN_MAX_SCALER
. - Funzioni limitate con input STRINGA:
UPPER
,LOWER
,CONCAT
eML.HASH_BUCKETIZE
. - Funzioni limitate con input ARRAY:
ML.NGRAMS
.
- Tutte le funzioni con input NUMERICI. Ad esempio,
Esportazione di modelli BigQuery ML
Per esportare un modello:
Console
Apri la pagina BigQuery nella console Google Cloud.
Nel riquadro di navigazione, nella sezione Risorse, espandi il progetto e fai clic sul set di dati per espanderlo. Individua e fai clic sul modello da esportare.
Sul lato destro della finestra, fai clic su Esporta modello.
Nella finestra di dialogo Esporta modello in Cloud Storage:
- In Seleziona località di Cloud Storage, cerca il bucket o la posizione della cartella in cui vuoi esportare il modello.
- Fai clic su Esporta per esportare il modello.
Per verificare l'avanzamento del job, cerca nella parte superiore della navigazione Cronologia job per un job di esportazione.
SQL
L'istruzione EXPORT MODEL
consente di esportare i modelli BigQuery ML in Cloud Storage utilizzando la sintassi di query standard SQL.
Per esportare un modello BigQuery ML nella console Google Cloud utilizzando l'istruzione EXPORT MODEL
, segui questi passaggi:
Nella console Google Cloud, apri la pagina BigQuery.
Fai clic su Crea nuova query.
Nel campo Editor query, digita l'istruzione
EXPORT MODEL
.La query seguente esporta un modello denominato
myproject.mydataset.mymodel
in un bucket Cloud Storage con URIgs://bucket/path/to/saved_model/
.EXPORT MODEL `myproject.mydataset.mymodel` OPTIONS(URI = 'gs://bucket/path/to/saved_model/')
Fai clic su Esegui. Una volta completata la query, nel riquadro Risultati delle query viene visualizzato quanto segue:
Successfully exported model
.
bq
Utilizza il comando bq extract
con il flag --model
.
(Facoltativo) Fornisci il flag --destination_format
e scegli il formato del
modello esportato.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla
località.
bq --location=location extract \ --destination_format format \ --model project_id:dataset.model \ gs://bucket/model_folder
Dove:
- location è il nome della tua sede. Il flag
--location
è facoltativo. Ad esempio, se utilizzi BigQuery nella regione di Tokyo, puoi impostare il valore del flag suasia-northeast1
. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc. - destination_format è il formato del modello esportato:
ML_TF_SAVED_MODEL
(predefinito) oML_XGBOOST_BOOSTER
. - project_id è l'ID progetto.
- dataset è il nome del set di dati di origine.
- model è il modello che stai esportando.
- bucket è il nome del bucket Cloud Storage in cui esporti i dati. Il set di dati BigQuery e il bucket Cloud Storage devono trovarsi nella stessa località.
- model_folder è il nome della cartella in cui verranno scritti i file del modello esportati.
Esempi:
Ad esempio, il seguente comando esporta mydataset.mymodel
in formato TensorFlow SavedModel in un bucket Cloud Storage denominato mymodel_folder
.
bq extract --model \ 'mydataset.mymodel' \ gs://example-bucket/mymodel_folder
Il valore predefinito di destination_format è ML_TF_SAVED_MODEL
.
Il comando seguente esporta mydataset.mymodel
in formato XGBoost Booster
in un bucket Cloud Storage denominato mymodel_folder
.
bq extract --model \ --destination_format ML_XGBOOST_BOOSTER \ 'mydataset.mytable' \ gs://example-bucket/mymodel_folder
API
Per esportare il modello, crea un job extract
e compila la configurazione del job.
(Facoltativo) Specifica la tua località nella proprietà location
nella sezione jobReference
della risorsa job.
Creare un job di estrazione che punti al modello BigQuery ML e alla destinazione Cloud Storage.
Specifica il modello di origine utilizzando l'oggetto di configurazione
sourceModel
che contiene l'ID progetto, l'ID set di dati e l'ID modello.La proprietà
destination URI(s)
deve essere completa e formattata nel formato gs://bucket/model_folder.Specifica il formato di destinazione impostando la proprietà
configuration.extract.destinationFormat
. Ad esempio, per esportare un modello Boosted Tree, imposta questa proprietà sul valoreML_XGBOOST_BOOSTER
.Per controllare lo stato del job, chiama jobs.get(job_id) specificando l'ID del job restituito dalla richiesta iniziale.
- Se
status.state = DONE
, il job è stato completato correttamente. - Se la proprietà
status.errorResult
è presente, la richiesta non è andata a buon fine e l'oggetto includerà informazioni che descrivono cosa è andato storto. - Se
status.errorResult
non è presente, il job è stato completato correttamente, anche se potrebbero esserci alcuni errori non irreversibili. Gli errori non irreversibili sono elencati nella proprietàstatus.errors
dell'oggetto job restituito.
- Se
Note API:
Come best practice, genera un ID univoco e trasmettilo come
jobReference.jobId
quando chiamijobs.insert
per creare un job. Questo approccio è più efficace nel caso di un errore di rete, perché il client può eseguire il polling o riprovare sull'ID job noto.Chiamare
jobs.insert
su un determinato ID job è idempotente; in altre parole, puoi riprovare tutte le volte che vuoi con lo stesso ID job e al massimo una di queste operazioni avrà esito positivo.
Java
Deployment dei modelli
Puoi eseguire il deployment del modello esportato su Google Cloud AI Platform e localmente.
Deployment di AI Platform
Esporta formato modello | Deployment |
---|---|
Tensorflow SavedModel (modelli non AutoML) | Esegui il deployment di un modello Tensorflow salvato (versione di runtime 1.15 o successive) |
Tensorflow SavedModel (modelli AutoML) | Funzionalità non supportata |
Richiamo XGBoost |
Routine di previsione personalizzata
(versione di runtime 1.15)
Nota: poiché nei file esportati sono state salvate informazioni di pre-elaborazione e post-elaborazione, devi utilizzare una routine di previsione personalizzata per eseguire il deployment del modello con i file esportati aggiuntivi. |
Deployment locale
Esporta formato modello | Deployment |
---|---|
Tensorflow SavedModel (modelli non AutoML) |
SaveModel è un formato standard e puoi eseguirne il deployment nel container docker Tensorflow di pubblicazione. Puoi anche utilizzare l'esecuzione locale della previsione online di AI Platform. |
Tensorflow SavedModel (modelli AutoML) | Esegui il container AutoML. |
Richiamo XGBoost |
Per eseguire i modelli XGBoost Booster in locale, puoi utilizzare il file main.py
esportato:
|
Formato di output della previsione
Questa sezione fornisce il formato di output della previsione dei modelli esportati per ogni tipo di modello. Tutti i modelli esportati supportano la previsione batch; possono gestire più righe di input alla volta. Ad esempio, ci sono due righe di input in ciascuno dei seguenti esempi di formati di output.
CODICE AUTOMATICO
Formato di output della previsione | Esempio di output |
---|---|
+------------------------+------------------------+------------------------+ | LATENT_COL_1 | LATENT_COL_2 | ... | +------------------------+------------------------+------------------------+ | [FLOAT] | [FLOAT] | ... | +------------------------+------------------------+------------------------+ |
+------------------+------------------+------------------+------------------+ | LATENT_COL_1 | LATENT_COL_2 | LATENT_COL_3 | LATENT_COL_4 | +------------------------+------------+------------------+------------------+ | 0.21384512 | 0.93457112 | 0.64978097 | 0.00480489 | +------------------+------------------+------------------+------------------+ |
CLASSIFICATORE AUTOML
Formato di output della previsione | Esempio di output |
---|---|
+------------------------------------------+ | predictions | +------------------------------------------+ | [{"scores":[FLOAT], "classes":[STRING]}] | +------------------------------------------+ |
+---------------------------------------------+ | predictions | +---------------------------------------------+ | [{"scores":[1, 2], "classes":['a', 'b']}, | | {"scores":[3, 0.2], "classes":['a', 'b']}] | +---------------------------------------------+ |
REGOLATORE_AUTOML
Formato di output della previsione | Esempio di output |
---|---|
+-----------------+ | predictions | +-----------------+ | [FLOAT] | +-----------------+ |
+-----------------+ | predictions | +-----------------+ | [1.8, 2.46] | +-----------------+ |
BOOSTED_TREE_CLASSIFIER e RANDOM_FOREST_CLASSIFIER
Formato di output della previsione | Esempio di output |
---|---|
+-------------+--------------+-----------------+ | LABEL_PROBS | LABEL_VALUES | PREDICTED_LABEL | +-------------+--------------+-----------------+ | [FLOAT] | [STRING] | STRING | +-------------+--------------+-----------------+ |
+-------------+--------------+-----------------+ | LABEL_PROBS | LABEL_VALUES | PREDICTED_LABEL | +-------------+--------------+-----------------+ | [0.1, 0.9] | ['a', 'b'] | ['b'] | +-------------+--------------+-----------------+ | [0.8, 0.2] | ['a', 'b'] | ['a'] | +-------------+--------------+-----------------+ |
BOOSTED_TREE_REGRESSOR E RANDOM_FOREST_REGRESSOR
Formato di output della previsione | Esempio di output |
---|---|
+-----------------+ | predicted_label | +-----------------+ | FLOAT | +-----------------+ |
+-----------------+ | predicted_label | +-----------------+ | [1.8] | +-----------------+ | [2.46] | +-----------------+ |
CLASSIFICATORE_DNN
Formato di output della previsione | Esempio di output |
---|---|
+---------------+-------------+-----------+---------+------------------------+--------+---------------+ | ALL_CLASS_IDS | ALL_CLASSES | CLASS_IDS | CLASSES | LOGISTIC (binary only) | LOGITS | PROBABILITIES | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ | [INT64] | [STRING] | INT64 | STRING | FLOAT | [FLOAT]| [FLOAT] | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ |
+---------------+-------------+-----------+---------+------------------------+--------+---------------+ | ALL_CLASS_IDS | ALL_CLASSES | CLASS_IDS | CLASSES | LOGISTIC (binary only) | LOGITS | PROBABILITIES | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ | [0, 1] | ['a', 'b'] | [0] | ['a'] | [0.36] | [-0.53]| [0.64, 0.36] | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ | [0, 1] | ['a', 'b'] | [0] | ['a'] | [0.2] | [-1.38]| [0.8, 0.2] | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ |
DNN_REGRESSOR
Formato di output della previsione | Esempio di output |
---|---|
+-----------------+ | PREDICTED_LABEL | +-----------------+ | FLOAT | +-----------------+ |
+-----------------+ | PREDICTED_LABEL | +-----------------+ | [1.8] | +-----------------+ | [2.46] | +-----------------+ |
CLASSIFICATORE_NON_LINEAR_COMBINATO
Formato di output della previsione | Esempio di output |
---|---|
+---------------+-------------+-----------+---------+------------------------+--------+---------------+ | ALL_CLASS_IDS | ALL_CLASSES | CLASS_IDS | CLASSES | LOGISTIC (binary only) | LOGITS | PROBABILITIES | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ | [INT64] | [STRING] | INT64 | STRING | FLOAT | [FLOAT]| [FLOAT] | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ |
+---------------+-------------+-----------+---------+------------------------+--------+---------------+ | ALL_CLASS_IDS | ALL_CLASSES | CLASS_IDS | CLASSES | LOGISTIC (binary only) | LOGITS | PROBABILITIES | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ | [0, 1] | ['a', 'b'] | [0] | ['a'] | [0.36] | [-0.53]| [0.64, 0.36] | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ | [0, 1] | ['a', 'b'] | [0] | ['a'] | [0.2] | [-1.38]| [0.8, 0.2] | +---------------+-------------+-----------+---------+------------------------+--------+---------------+ |
DNN_LINEAR_COMBINATO_REGRESSORE
Formato di output della previsione | Esempio di output |
---|---|
+-----------------+ | PREDICTED_LABEL | +-----------------+ | FLOAT | +-----------------+ |
+-----------------+ | PREDICTED_LABEL | +-----------------+ | [1.8] | +-----------------+ | [2.46] | +-----------------+ |
KMEAN
Formato di output della previsione | Esempio di output |
---|---|
+--------------------+--------------+---------------------+ | CENTROID_DISTANCES | CENTROID_IDS | NEAREST_CENTROID_ID | +--------------------+--------------+---------------------+ | [FLOAT] | [INT64] | INT64 | +--------------------+--------------+---------------------+ |
+--------------------+--------------+---------------------+ | CENTROID_DISTANCES | CENTROID_IDS | NEAREST_CENTROID_ID | +--------------------+--------------+---------------------+ | [1.2, 1.3] | [1, 2] | [1] | +--------------------+--------------+---------------------+ | [0.4, 0.1] | [1, 2] | [2] | +--------------------+--------------+---------------------+ |
LINEAR_REG
Formato di output della previsione | Esempio di output |
---|---|
+-----------------+ | PREDICTED_LABEL | +-----------------+ | FLOAT | +-----------------+ |
+-----------------+ | PREDICTED_LABEL | +-----------------+ | [1.8] | +-----------------+ | [2.46] | +-----------------+ |
REGISTIC_REG
Formato di output della previsione | Esempio di output |
---|---|
+-------------+--------------+-----------------+ | LABEL_PROBS | LABEL_VALUES | PREDICTED_LABEL | +-------------+--------------+-----------------+ | [FLOAT] | [STRING] | STRING | +-------------+--------------+-----------------+ |
+-------------+--------------+-----------------+ | LABEL_PROBS | LABEL_VALUES | PREDICTED_LABEL | +-------------+--------------+-----------------+ | [0.1, 0.9] | ['a', 'b'] | ['b'] | +-------------+--------------+-----------------+ | [0.8, 0.2] | ['a', 'b'] | ['a'] | +-------------+--------------+-----------------+ |
MATRIX_FACTORIZZAZIONE
Nota: al momento supportiamo solo l'inserimento di un utente di input e l'output delle prime 50 coppie (estimateded_rating, previsione_item) ordinate in previsione_in ordine decrescente.
Formato di output della previsione | Esempio di output |
---|---|
+--------------------+--------------+ | PREDICTED_RATING | PREDICTED_ITEM | +------------------+----------------+ | [FLOAT] | [STRING] | +------------------+----------------+ |
+--------------------+--------------+ | PREDICTED_RATING | PREDICTED_ITEM | +------------------+----------------+ | [5.5, 1.7] | ['A', 'B'] | +------------------+----------------+ | [7.2, 2.7] | ['B', 'A'] | +------------------+----------------+ |
TENSORFLOW (importato)
Formato di output della previsione |
---|
Come il modello importato |
PCA
Formato di output della previsione | Esempio di output |
---|---|
+-------------------------+---------------------------------+ | PRINCIPAL_COMPONENT_IDS | PRINCIPAL_COMPONENT_PROJECTIONS | +-------------------------+---------------------------------+ | [INT64] | [FLOAT] | +-------------------------+---------------------------------+ |
+-------------------------+---------------------------------+ | PRINCIPAL_COMPONENT_IDS | PRINCIPAL_COMPONENT_PROJECTIONS | +-------------------------+---------------------------------+ | [1, 2] | [1.2, 5.0] | +-------------------------+---------------------------------+ |
Visualizzazione del modello XGBoost
Puoi visualizzare gli alberi potenziati mediante l'API plot_tree Python dopo l'esportazione del modello. Ad esempio, puoi utilizzare Colab senza installare le dipendenze:
- Esporta il modello con albero potenziato in un bucket Cloud Storage.
- Scarica il file
model.bst
dal bucket Cloud Storage. - In un blocco note di Colab,
carica il file
model.bst
inFiles
. Esegui questo codice nel blocco note:
import xgboost as xgb import matplotlib.pyplot as plt model = xgb.Booster(model_file="model.bst") num_iterations = <iteration_number> for tree_num in range(num_iterations): xgb.plot_tree(model, num_trees=tree_num) plt.show
Questo esempio traccia più alberi (un albero per iterazione):
Al momento, non salviamo i nomi delle funzionalità nel modello, quindi vedrai nomi come "f0", "f1" e così via. Puoi trovare i nomi delle funzionalità corrispondenti nel file esportato assets/model_metadata.json
utilizzando questi nomi (ad esempio, "f0") come indici.
Autorizzazioni obbligatorie
Per esportare un modello BigQuery ML in Cloud Storage, devi disporre delle autorizzazioni per accedere al modello BigQuery ML, delle autorizzazioni per eseguire un job di esportazione e delle autorizzazioni per scrivere i dati nel bucket Cloud Storage.
Autorizzazioni BigQuery
Devi disporre almeno delle autorizzazioni
bigquery.models.export
per esportare il modello. Ai seguenti ruoli IAM predefiniti vengono concesse le autorizzazionibigquery.models.export
:bigquery.dataViewer
bigquery.dataOwner
bigquery.dataEditor
bigquery.admin
Come minimo per eseguire un job di esportazione, devi disporre delle autorizzazioni
bigquery.jobs.create
. Ai seguenti ruoli IAM predefiniti vengono concesse le autorizzazionibigquery.jobs.create
:bigquery.user
bigquery.jobUser
bigquery.admin
Autorizzazioni di Cloud Storage
Per scrivere i dati in un bucket Cloud Storage esistente, devi concedere le autorizzazioni
storage.objects.create
. Ai seguenti ruoli IAM predefiniti vengono concesse le autorizzazionistorage.objects.create
:storage.objectCreator
storage.objectAdmin
storage.admin
Per ulteriori informazioni sui ruoli IAM e sulle autorizzazioni in BigQuery ML, consulta Controllo dell'accesso. Per ulteriori informazioni sui ruoli a livello di set di dati, consulta Ruoli di base per set di dati nella documentazione di BigQuery.
Considerazioni sulla località
Quando scegli una posizione per i tuoi dati, tieni presente quanto segue:
- Coordina i bucket Cloud Storage per esportare i dati.
- Se il set di dati BigQuery si trova in più regioni, il bucket Cloud Storage
contenente i dati che stai esportando deve trovarsi nella stessa regione o in una località
contenuta all'interno della stessa. Ad esempio, se il set di dati BigQuery si trova nella località a più aree geografiche
EU
, il bucket Cloud Storage può trovarsi nell'area geograficaeurope-west1
in Belgio, all'interno dell'UE. - Se il set di dati si trova in una regione, il bucket Cloud Storage deve trovarsi nella stessa regione. Ad esempio, se il set di dati si trova nell'area geografica
asia-northeast1
di Tokyo, il bucket Cloud Storage non può trovarsi nella località a più aree geograficheASIA
. - Eccezione: se il set di dati si trova in più aree geografiche
US
, puoi esportare i dati in un bucket Cloud Storage in qualsiasi località. - Sviluppa un piano di gestione dei dati.
- Se scegli una risorsa di archiviazione a livello di regione, come un set di dati BigQuery ML o un bucket Cloud Storage, sviluppa un piano per la gestione geografica dei dati.
Per ulteriori informazioni sulle località di Cloud Storage, consulta Località dei bucket nella documentazione di Cloud Storage.
Spostamento di dati di BigQuery tra località
Non puoi modificare la posizione di un set di dati dopo averlo creato, ma puoi crearne una copia.
Criteri per le quote
Per informazioni sulle quote dei job di esportazione, consulta Esportare i job nella pagina Quote e limiti.
Prezzi
L'esportazione dei modelli BigQuery ML non prevede alcun costo, ma le esportazioni sono soggette alle quote e ai limiti di BigQuery. Per ulteriori informazioni sui prezzi di BigQuery, consulta la pagina Prezzi.
Dopo l'esportazione dei dati, ti viene addebitato il costo di archiviazione dei dati in Cloud Storage. Per ulteriori informazioni sui prezzi di Cloud Storage, consulta la pagina dei prezzi di Cloud Storage.
Passaggi successivi
- Segui il tutorial Esportazione di un modello BigQuery ML per la previsione online.