Panoramica dell'inferenza del modello
Questo documento descrive i tipi di inferenza batch supportati da BigQuery ML, tra cui:
L'inferenza di machine learning è il processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è anche chiamato "operativizzazione di un modello modello" o "messa in produzione un modello di machine learning".
Previsione batch
Le sezioni seguenti descrivono i modi disponibili per eseguire la previsione in BigQuery ML.
Interruzione utilizzando i modelli addestrati di BigQuery ML
La previsione in BigQuery ML viene utilizzata non solo per i modelli di machine learning supervisionati, ma anche per quelli non supervisionati.
BigQuery ML supporta le funzionalità di previsione tramite
Funzione ML.PREDICT
,
con i seguenti modelli:
Categoria del modello | Tipi di modelli | Che cosa fa ML.PREDICT |
---|---|---|
Apprendimento supervisionato |
Lineare e regressione logistica Alberi potenziati Foresta casuale Reti neurali profonde Grande e profondo AutoML Tables |
Prevedi l'etichetta, che può essere un valore numerico per le attività di regressione o un valore categorico per le attività di classificazione. |
Apprendimento non supervisionato | K-means | Assegna il cluster all'entità. |
PCA | Applica la riduzione della dimensionalità all'entità trasformandola nello spazio attraversato dagli autovettori. | |
Codificatore automatico | Trasforma l'entità nello spazio incorporato. |
Inferenza utilizzando i modelli importati
Con questo approccio, crei e addestri un modello al di fuori di
BigQuery, lo importi utilizzando
la
istruzione CREATE MODEL
,
e poi esegui l'inferenza utilizzando
la
funzione ML.PREDICT
.
Tutta l'elaborazione dell'inferenza avviene in BigQuery, utilizzando i dati di
BigQuery. I modelli importati possono eseguire
supervisionato e non supervisionato.
BigQuery ML supporta le seguenti tipi di modelli importati:
- Open Neural Network Exchange (ONNX) per i modelli addestrati in PyTorch, scikit-learn e altri framework di ML popolari.
- TensorFlow
- TensorFlow Lite
- XGBoost
Utilizza questo approccio per utilizzare modelli personalizzati sviluppati con una gamma di framework ML sfruttando al contempo le funzionalità velocità di inferenza e colocation con i dati.
Per saperne di più, prova uno dei seguenti tutorial:
- Effettuare previsioni con modelli TensorFlow importati
- Fai previsioni con i modelli scikit-learn in formato ONNX
- Fai previsioni con i modelli PyTorch in formato ONNX
Interruzione utilizzando modelli remoti
Con questo approccio, puoi creare un riferimento a un modello
ospitata in Vertex AI Prediction
utilizzando
CREATE MODEL
,
ed eseguire l'inferenza su quest'ultima utilizzando
Funzione ML.PREDICT
.
L'elaborazione dell'inferenza avviene in Vertex AI, utilizzando i dati provenienti
in BigQuery. I modelli remoti possono eseguire l'apprendimento supervisionato o
non supervisionato.
Utilizza questo approccio per eseguire l'inferenza su modelli di grandi dimensioni che richiedono il supporto hardware GPU fornito da Vertex AI. Se la maggior parte dei tuoi che i modelli sono ospitati da Vertex AI, questo ti consente anche di eseguire l'inferenza rispetto a questi modelli utilizzando SQL, senza dover creare manualmente pipeline di dati per portare i dati su Vertex AI e generare previsioni a BigQuery.
Per istruzioni dettagliate, consulta Eseguire previsioni con modelli remoti su Vertex AI.
Interruzione batch con i modelli BigQuery in Vertex AI
BigQuery ML dispone di supporto integrato per la previsione batch, senza
non serve usare Vertex AI. È anche possibile registrare un
modello BigQuery ML in Model Registry per eseguire
una previsione batch in Vertex AI utilizzando una tabella
BigQuery come input. Tuttavia, è possibile
da eseguire utilizzando l'API e l'impostazione di Vertex AI
InstanceConfig.instanceType
a object
.
Previsione online
La funzionalità di inferenza integrata di BigQuery ML è ottimizzata per per i casi d'uso su larga scala, come la previsione batch. Mentre BigQuery ML fornisce risultati di inferenza a bassa latenza quando si gestiscono piccoli dati di input, è possibile ottenere previsioni online più veloci attraverso un'integrazione perfetta con Vertex AI.
Puoi gestire i modelli BigQuery ML nell'ambiente Vertex AI, eliminando così la necessità di esportare i modelli da BigQuery ML prima eseguendone poi il deployment come endpoint Vertex AI. Gestendo i modelli all'interno Vertex AI, ottieni l'accesso a tutte le e anche a funzionalità come Vertex AI Feature Store.
Inoltre, hai la flessibilità di esportare i modelli BigQuery ML in Cloud Storage per renderli disponibili su altre piattaforme di hosting dei modelli.
Passaggi successivi
- Per ulteriori informazioni sull'uso dei modelli Vertex AI per generare testo e incorporamenti, vedere Panoramica dell'IA generativa.
- Per ulteriori informazioni sull'utilizzo delle API Cloud AI per eseguire attività di IA, consulta Panoramica dell'applicazione dell'IA.
- Per informazioni sui tipi di modelli e sulle funzioni SQL supportati per ciascun tipo di inferenza, vedi Percorso dell'utente end-to-end per ogni modello.