Panoramica dell'inferenza del modello
Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, che includono:
L'inferenza del machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output come un singolo punteggio numerico. Questo processo è anche noto come "operativizzazione di un modello di machine learning" o "messa in produzione di un modello di machine learning".
Previsioni in batch
Le seguenti sezioni descrivono i modi disponibili per eseguire le previsioni in BigQuery ML.
Inferenza mediante modelli addestrati di BigQuery ML
La previsione in BigQuery ML non viene utilizzata solo per i modelli di apprendimento supervisionato, ma anche per i modelli di apprendimento non supervisionato.
BigQuery ML supporta le funzionalità di previsione tramite la funzione ML.PREDICT
, con i seguenti modelli:
Categoria di modello | Tipi di modello | Che cosa fa ML.PREDICT |
---|---|---|
Apprendimento supervisionato |
Regressione lineare e logistica Alberi potenziati Foresta casuale Reti neurali profonde Grandi e profondi AutoML Tables |
Prevedi l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione. |
Apprendimento non supervisionato | K-means | Assegna il cluster all'entità. |
APC | Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori. | |
Codificatore automatico | Trasforma l'entità nello spazio incorporato. |
Inferenza mediante modelli importati
Con questo approccio, crei e addestri un modello al di fuori di BigQuery, lo importi utilizzando l'istruzione CREATE MODEL
ed esegui l'inferenza sul modello utilizzando la funzione ML.PREDICT
.
Tutte le elaborazioni di inferenza avvengono in BigQuery, utilizzando i dati di BigQuery. I modelli importati possono eseguire
apprendimento supervisionato e non supervisionato.
BigQuery ML supporta i seguenti tipi di modelli importati:
- Open Neural Network Exchange (ONNX) per modelli addestrati in PyTorch, scikit-learn e altri framework ML molto diffusi.
- TensorFlow
- TensorFlow Lite
- XGBoost
Utilizza questo approccio per sfruttare modelli personalizzati sviluppati con una serie di framework ML, sfruttando al contempo la velocità di inferenza di BigQuery ML e la colocation con i dati.
Per saperne di più, prova uno dei seguenti tutorial:
- Effettuare previsioni con modelli TensorFlow importati
- Fai previsioni con i modelli scikit-learn in formato ONNX
- Fai previsioni con i modelli PyTorch in formato ONNX
Inferenza mediante modelli remoti
Con questo approccio, puoi creare un riferimento a un modello ospitato in Vertex AI Prediction utilizzando l'istruzione CREATE MODEL
, quindi eseguire l'inferenza sul modello utilizzando la funzione ML.PREDICT
.
Tutte le elaborazioni di inferenza avvengono in Vertex AI, utilizzando i dati di BigQuery. I modelli remoti possono eseguire
l'apprendimento con o senza supervisione.
Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto dell'hardware GPU fornito da Vertex AI. Se la maggior parte dei tuoi modelli è ospitata da Vertex AI, puoi anche eseguire l'inferenza su questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per portare i dati su Vertex AI e riportare i risultati delle previsioni in BigQuery.
Per istruzioni passo passo, consulta Effettuare previsioni con modelli remoti su Vertex AI.
Previsione online
La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per casi d'uso su larga scala, come la previsione batch. Mentre BigQuery ML offre risultati di inferenza a bassa latenza quando gestisce piccoli dati di input, puoi ottenere previsioni online più veloci tramite l'integrazione perfetta con Vertex AI.
Puoi gestire i modelli BigQuery ML all'interno dell'ambiente Vertex AI, eliminando la necessità di esportare i modelli da BigQuery ML prima di eseguirne il deployment come endpoint Vertex AI. Gestendo i modelli in Vertex AI, ottieni l'accesso a tutte le funzionalità di Vertex AI MLOps, nonché a funzionalità come Vertex AI Feature Store.
Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per renderli disponibili su altre piattaforme di hosting dei modelli.
Passaggi successivi
- Per saperne di più sull'utilizzo dei modelli Vertex AI per generare testo e incorporamenti, consulta Panoramica dell'IA generativa.
- Per ulteriori informazioni sull'utilizzo delle API di IA Cloud per eseguire attività di IA, consulta la panoramica delle applicazioni AI.
- Per informazioni sui tipi di modelli supportati e sulle funzioni SQL per ogni tipo di inferenza, consulta il percorso dell'utente end-to-end per ogni modello.