Panoramica dell'inferenza del modello

Questo documento descrive i tipi di inferenza batch che BigQuery ML che includono:

L'inferenza del machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output come punteggio. Questo processo è anche chiamato "operativizzazione di un modello modello" o "messa in produzione un modello di machine learning".

Previsione batch

Le seguenti sezioni descrivono i modi disponibili per eseguire le previsioni in in BigQuery ML.

Inferenza mediante modelli addestrati di BigQuery ML

La previsione in BigQuery ML viene utilizzata non solo per i modelli di apprendimento supervisionato, ma e modelli di apprendimento non supervisionato.

BigQuery ML supporta le funzionalità di previsione tramite Funzione ML.PREDICT, con i seguenti modelli:

Categoria di modello Tipi di modello Che cosa fa ML.PREDICT
Apprendimento supervisionato Lineare e regressione logistica

Alberi potenziati

Foresta casuale

Reti neurali profonde

Grande e profondo

AutoML Tables
Prevedi l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione.
Apprendimento non supervisionato K-means Assegna il cluster all'entità.
PCA Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori.
Codificatore automatico Trasforma l'entità nello spazio incorporato.

Inferenza mediante modelli importati

Con questo approccio, crei e addestri un modello al di fuori BigQuery, importalo utilizzando CREATE MODEL, ed eseguire l'inferenza su quest'ultima utilizzando Funzione ML.PREDICT. L'elaborazione di tutte le inferenze avviene in BigQuery, utilizzando i dati provenienti in BigQuery. I modelli importati possono eseguire attività supervisionato e non supervisionato.

BigQuery ML supporta le seguenti tipi di modelli importati:

Utilizza questo approccio per fare uso di modelli personalizzati sviluppati con una gamma di framework ML sfruttando al contempo le funzionalità velocità di inferenza e colocation con i dati.

Per saperne di più, prova uno dei seguenti tutorial:

Inferenza mediante modelli remoti

Con questo approccio, puoi creare un riferimento a un modello ospitata in Vertex AI Prediction utilizzando CREATE MODEL, ed eseguire l'inferenza su quest'ultima utilizzando Funzione ML.PREDICT. L'elaborazione dell'inferenza avviene in Vertex AI, utilizzando i dati provenienti in BigQuery. I modelli remoti possono eseguire supervisionato e non supervisionato.

Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono la GPU il supporto hardware fornito da Vertex AI. Se la maggior parte dei tuoi che i modelli sono ospitati da Vertex AI, questo ti consente anche di eseguire l'inferenza rispetto a questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per portare i dati su Vertex AI e generare previsioni a BigQuery.

Per istruzioni passo passo, vedi Fai previsioni con modelli remoti su Vertex AI.

Previsione online

La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per per i casi d'uso su larga scala, come la previsione batch. Mentre BigQuery ML fornisce risultati di inferenza a bassa latenza quando si gestiscono piccoli dati di input, è possibile ottenere previsioni online più veloci attraverso un'integrazione perfetta con Vertex AI.

Puoi gestire i modelli BigQuery ML nell'ambiente Vertex AI, eliminando così la necessità di esportare i modelli da BigQuery ML prima eseguendone poi il deployment come endpoint Vertex AI. Gestendo i modelli all'interno Vertex AI, ottieni l'accesso a tutte le e anche a funzionalità come Vertex AI Feature Store.

Inoltre, hai la possibilità di esportare i modelli BigQuery ML in Cloud Storage per la disponibilità su altre piattaforme di hosting di modelli.

Passaggi successivi