Panoramica dell'inferenza del modello

Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, tra cui:

L'inferenza di machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è anche chiamato "operativizzazione di un modello modello" o "messa in produzione un modello di machine learning".

Previsione batch

Le sezioni seguenti descrivono i modi disponibili per eseguire la previsione in BigQuery ML.

Interruzione utilizzando i modelli addestrati di BigQuery ML

La previsione in BigQuery ML viene utilizzata non solo per i modelli di machine learning supervisionati, ma anche per quelli non supervisionati.

BigQuery ML supporta le funzionalità di previsione tramite Funzione ML.PREDICT, con i seguenti modelli:

Categoria del modello Tipi di modelli Che cosa fa ML.PREDICT
Apprendimento supervisionato Lineare e regressione logistica

Alberi potenziati

Foresta casuale

Reti neurali profonde

Grande e profondo

AutoML Tables
Prevedi l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione.
Apprendimento non supervisionato K-means Assegna il cluster all'entità.
PCA Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori.
Codificatore automatico Trasforma l'entità nello spazio incorporato.

Inferenza utilizzando i modelli importati

Con questo approccio, crei e addestri un modello al di fuori di BigQuery, lo importi utilizzando la istruzione CREATE MODEL, e poi esegui l'inferenza utilizzando la funzione ML.PREDICT. Tutta l'elaborazione dell'inferenza avviene in BigQuery, utilizzando i dati di BigQuery. I modelli importati possono eseguire supervisionato e non supervisionato.

BigQuery ML supporta le seguenti tipi di modelli importati:

Utilizza questo approccio per utilizzare modelli personalizzati sviluppati con una gamma di framework ML sfruttando al contempo le funzionalità velocità di inferenza e colocation con i dati.

Per saperne di più, prova uno dei seguenti tutorial:

Interruzione utilizzando modelli remoti

Con questo approccio, puoi creare un riferimento a un modello ospitata in Vertex AI Prediction utilizzando CREATE MODEL, ed eseguire l'inferenza su quest'ultima utilizzando Funzione ML.PREDICT. L'elaborazione dell'inferenza avviene in Vertex AI, utilizzando i dati provenienti in BigQuery. I modelli remoti possono eseguire l'apprendimento supervisionato o non supervisionato.

Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto hardware GPU fornito da Vertex AI. Se la maggior parte dei tuoi che i modelli sono ospitati da Vertex AI, questo ti consente anche di eseguire l'inferenza rispetto a questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per portare i dati su Vertex AI e generare previsioni a BigQuery.

Per istruzioni dettagliate, consulta Eseguire previsioni con modelli remoti su Vertex AI.

Interruzione batch con i modelli BigQuery in Vertex AI

BigQuery ML dispone di supporto integrato per la previsione batch, senza non serve usare Vertex AI. È anche possibile registrare un modello BigQuery ML in Model Registry per eseguire una previsione batch in Vertex AI utilizzando una tabella BigQuery come input. Tuttavia, è possibile da eseguire utilizzando l'API e l'impostazione di Vertex AI InstanceConfig.instanceType a object.

Previsione online

La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per per i casi d'uso su larga scala, come la previsione batch. Mentre BigQuery ML fornisce risultati di inferenza a bassa latenza quando si gestiscono piccoli dati di input, è possibile ottenere previsioni online più veloci attraverso un'integrazione perfetta con Vertex AI.

Puoi gestire i modelli BigQuery ML nell'ambiente Vertex AI, eliminando così la necessità di esportare i modelli da BigQuery ML prima eseguendone poi il deployment come endpoint Vertex AI. Gestendo i modelli all'interno Vertex AI, ottieni l'accesso a tutte le e anche a funzionalità come Vertex AI Feature Store.

Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per renderli disponibili su altre piattaforme di hosting dei modelli.

Passaggi successivi