Panoramica dell'inferenza del modello

Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, che includono:

L'inferenza del machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output come un singolo punteggio numerico. Questo processo è anche noto come "operativizzazione di un modello di machine learning" o "messa in produzione di un modello di machine learning".

Previsioni in batch

Le seguenti sezioni descrivono i modi disponibili per eseguire le previsioni in BigQuery ML.

Inferenza mediante modelli addestrati di BigQuery ML

La previsione in BigQuery ML non viene utilizzata solo per i modelli di apprendimento supervisionato, ma anche per i modelli di apprendimento non supervisionato.

BigQuery ML supporta le funzionalità di previsione tramite la funzione ML.PREDICT, con i seguenti modelli:

Categoria di modello Tipi di modello Che cosa fa ML.PREDICT
Apprendimento supervisionato Regressione lineare e logistica

Alberi potenziati

Foresta casuale

Reti neurali profonde

Grandi e profondi

AutoML Tables
Prevedi l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione.
Apprendimento non supervisionato K-means Assegna il cluster all'entità.
APC Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori.
Codificatore automatico Trasforma l'entità nello spazio incorporato.

Inferenza mediante modelli importati

Con questo approccio, crei e addestri un modello al di fuori di BigQuery, lo importi utilizzando l'istruzione CREATE MODEL ed esegui l'inferenza sul modello utilizzando la funzione ML.PREDICT. Tutte le elaborazioni di inferenza avvengono in BigQuery, utilizzando i dati di BigQuery. I modelli importati possono eseguire apprendimento supervisionato e non supervisionato.

BigQuery ML supporta i seguenti tipi di modelli importati:

Utilizza questo approccio per sfruttare modelli personalizzati sviluppati con una serie di framework ML, sfruttando al contempo la velocità di inferenza di BigQuery ML e la colocation con i dati.

Per saperne di più, prova uno dei seguenti tutorial:

Inferenza mediante modelli remoti

Con questo approccio, puoi creare un riferimento a un modello ospitato in Vertex AI Prediction utilizzando l'istruzione CREATE MODEL, quindi eseguire l'inferenza sul modello utilizzando la funzione ML.PREDICT. Tutte le elaborazioni di inferenza avvengono in Vertex AI, utilizzando i dati di BigQuery. I modelli remoti possono eseguire l'apprendimento con o senza supervisione.

Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto dell'hardware GPU fornito da Vertex AI. Se la maggior parte dei tuoi modelli è ospitata da Vertex AI, puoi anche eseguire l'inferenza su questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per portare i dati su Vertex AI e riportare i risultati delle previsioni in BigQuery.

Per istruzioni passo passo, consulta Effettuare previsioni con modelli remoti su Vertex AI.

Previsione online

La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per casi d'uso su larga scala, come la previsione batch. Mentre BigQuery ML offre risultati di inferenza a bassa latenza quando gestisce piccoli dati di input, puoi ottenere previsioni online più veloci tramite l'integrazione perfetta con Vertex AI.

Puoi gestire i modelli BigQuery ML all'interno dell'ambiente Vertex AI, eliminando la necessità di esportare i modelli da BigQuery ML prima di eseguirne il deployment come endpoint Vertex AI. Gestendo i modelli in Vertex AI, ottieni l'accesso a tutte le funzionalità di Vertex AI MLOps, nonché a funzionalità come Vertex AI Feature Store.

Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per renderli disponibili su altre piattaforme di hosting dei modelli.

Passaggi successivi