Panoramica dell'inferenza del modello

Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, tra cui:

L'inferenza del machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è anche chiamato "operazionalizzazione di un modello di machine learning" o "inserimento di un modello di machine learning in produzione".

Previsione batch

Le sezioni seguenti descrivono i modi disponibili per eseguire la previsione in BigQuery ML.

Inferenza utilizzando i modelli addestrati di BigQuery ML

La previsione in BigQuery ML viene utilizzata non solo per i modelli di apprendimento supervisionato, ma anche per i modelli di apprendimento non supervisionato.

BigQuery ML supporta le funzionalità di previsione tramite la funzione ML.PREDICT, con i seguenti modelli:

Categoria del modello Tipi di modello Che cosa fa ML.PREDICT
Apprendimento supervisionato Regressione lineare e logistica

Alberi potenziati

Foresta casuale

Reti neurali profonde

Wide & Deep

AutoML Tables
Prevedi l'etichetta, un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione.
Apprendimento non supervisionato K-means Assegna il cluster all'entità.
PCA Applica la riduzione della dimensionalità all'entità trasformandola nello spazio generato dagli autovettori.
Autoencoder Trasforma l'entità nello spazio incorporato.

Inferenza utilizzando modelli importati

Con questo approccio, crei e addestri un modello al di fuori di BigQuery, lo importi utilizzando l'istruzione CREATE MODEL e poi esegui l'inferenza utilizzando la funzione ML.PREDICT. Tutta l'elaborazione delle inferenze avviene in BigQuery, utilizzando i dati di BigQuery. I modelli importati possono eseguire l'apprendimento supervisionato o non supervisionato.

BigQuery ML supporta i seguenti tipi di modelli importati:

Utilizza questo approccio per sfruttare i modelli personalizzati sviluppati con una gamma di framework ML, usufruendo al contempo della velocità di inferenza e della co-localizzazione con i dati di BigQuery ML.

Per saperne di più, prova uno dei seguenti tutorial:

Inferenza utilizzando modelli remoti

Con questo approccio, puoi creare un riferimento a un modello ospitato in Vertex AI Inference utilizzando l'istruzione CREATE MODEL e poi eseguire l'inferenza utilizzando la funzione ML.PREDICT. Tutta l'elaborazione delle inferenze avviene in Vertex AI, utilizzando i dati di BigQuery. I modelli remoti possono eseguire l'apprendimento supervisionato o non supervisionato.

Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto hardware GPU fornito da Vertex AI. Se la maggior parte dei tuoi modelli è ospitata da Vertex AI, questo ti consente anche di eseguire l'inferenza su questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per trasferire i dati a Vertex AI e riportare i risultati della previsione in BigQuery.

Per istruzioni passo passo, consulta Fare previsioni con modelli remoti su Vertex AI.

Inferenza batch con modelli BigQuery in Vertex AI

BigQuery ML supporta la previsione batch integrata, senza la necessità di utilizzare Vertex AI. È anche possibile registrare un modello BigQuery ML in Model Registry per eseguire la previsione batch in Vertex AI utilizzando una tabella BigQuery come input. Tuttavia, questa operazione può essere eseguita solo utilizzando l'API Vertex AI e impostando InstanceConfig.instanceType su object.

Previsione online

La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per casi d'uso su larga scala, come la previsione batch. Sebbene BigQuery ML fornisca risultati di inferenza a bassa latenza quando gestisce piccoli dati di input, puoi ottenere una previsione online più rapida grazie all'integrazione perfetta con Vertex AI.

Puoi gestire i modelli BigQuery ML all'interno dell'ambiente Vertex AI, il che elimina la necessità di esportare i modelli da BigQuery ML prima di eseguirne il deployment come endpoint Vertex AI. Gestendo i modelli in Vertex AI, puoi accedere a tutte le funzionalità MLOps di Vertex AI e anche a funzionalità come Vertex AI Feature Store.

Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per la disponibilità su altre piattaforme di hosting di modelli.

Passaggi successivi