Panoramica dell'inferenza del modello
Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, tra cui:
L'inferenza del machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output come un singolo punteggio numerico. Questo processo è anche definito "operativizzazione di un modello di machine learning" o "messa in produzione di un modello di machine learning".
Previsione batch
Le seguenti sezioni descrivono i modi disponibili per eseguire le previsioni in BigQuery ML.
Inferenza mediante modelli addestrati BigQuery ML
La previsione in BigQuery ML viene utilizzata non solo per i modelli di apprendimento supervisionato, ma anche per i modelli di apprendimento non supervisionato.
BigQuery ML supporta le funzionalità di previsione tramite la funzione ML.PREDICT
, con i seguenti modelli:
Categoria del modello | Tipi di modello | Che cosa fa ML.PREDICT |
---|---|---|
Apprendimento supervisionato |
Regressione lineare e logistica Alberi potenziati Foresta casuale Reti neurali profonde Wide-and-Deep AutoML Tables |
Prevedere l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categoriale per le attività di classificazione. |
Apprendimento non supervisionato | K-means | Assegna il cluster all'entità. |
APC | Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori. | |
Codificatore automatico | Trasforma l'entità nello spazio incorporato. |
Inferenza mediante modelli importati
Con questo approccio, puoi creare e addestrare un modello all'esterno di BigQuery, importarlo utilizzando l'istruzione CREATE MODEL
e poi eseguire l'inferenza utilizzando la funzione ML.PREDICT
.
Tutte le elaborazioni di inferenza vengono eseguite in BigQuery utilizzando i dati di
BigQuery. I modelli importati possono eseguire
apprendimento con o senza supervisione.
BigQuery ML supporta i seguenti tipi di modelli importati:
- Open Neural Network Exchange (ONNX) per i modelli addestrati in PyTorch, scikit-learn e altri framework ML molto diffusi.
- TensorFlow
- TensorFlow Lite
- XGBoost
Utilizza questo approccio per sfruttare modelli personalizzati sviluppati con una vasta gamma di framework ML, sfruttando al contempo la velocità di inferenza e la collocazione dei dati di BigQuery ML.
Per saperne di più, prova uno dei tutorial seguenti:
- Fare previsioni con i modelli TensorFlow importati
- Creare previsioni con i modelli scikit-learn in formato ONNX
- Realizzare previsioni con i modelli PyTorch in formato ONNX
Inferenza usando modelli remoti
Con questo approccio, puoi creare un riferimento a un modello ospitato in Vertex AI Prediction utilizzando l'istruzione CREATE MODEL
e quindi eseguire l'inferenza utilizzando la funzione ML.PREDICT
.
L'intera elaborazione di inferenza avviene in Vertex AI, utilizzando i dati di
BigQuery. I modelli remoti possono eseguire
l'apprendimento con o senza supervisione.
Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto hardware GPU fornito da Vertex AI. Se la maggior parte dei modelli è ospitata da Vertex AI, puoi anche eseguire l'inferenza su questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per trasferire i dati a Vertex AI e riportare i risultati delle previsioni in BigQuery.
Per istruzioni dettagliate, consulta Eseguire previsioni con modelli remoti su Vertex AI.
Previsione online
La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per casi d'uso su larga scala, come la previsione batch. Sebbene BigQuery ML offra risultati di inferenza a bassa latenza durante la gestione di piccoli dati di input, puoi ottenere previsioni online più veloci grazie all'integrazione perfetta con Vertex AI.
Puoi gestire i modelli BigQuery ML nell'ambiente Vertex AI, eliminando così la necessità di esportare i modelli da BigQuery ML prima di eseguirne il deployment come endpoint Vertex AI. Gestendo i modelli in Vertex AI, hai accesso a tutte le funzionalità MLOps di Vertex AI e anche a funzionalità come Vertex AI Feature Store.
Inoltre, puoi esportare i modelli di BigQuery ML in Cloud Storage per consentirne la disponibilità su altre piattaforme di hosting di modelli.
Passaggi successivi
- Per ulteriori informazioni sull'utilizzo dei modelli di Vertex AI per generare testo e incorporamenti, consulta la panoramica sull'IA generativa.
- Per ulteriori informazioni sull'utilizzo delle API Cloud AI per eseguire attività di IA, consulta la panoramica delle applicazioni IA.
- Per informazioni sui tipi di modello supportati e sulle funzioni SQL per ogni tipo di inferenza, consulta Percorso dell'utente end-to-end per ogni modello.