Modellinferenz – Übersicht
In diesem Dokument werden die in BigQuery ML unterstützten Batchinferenzen erläutert, einschließlich:
Bei der Inferenz des maschinellen Lernens werden Datenpunkte einem Modell für maschinelles Lernen zugeführt, um eine Ausgabe zu berechnen, z. B. einen einzelnen numerischen Wert. Dieser Vorgang wird auch als "Operationalisieren eines ML-Modells" oder "Überführen eines ML-Modells in die Produktion" bezeichnet.
Batchvorhersage
In den folgenden Abschnitten werden die verfügbaren Möglichkeiten zur Vorhersage in BigQuery ML beschrieben.
Inferenz mit trainierten BigQuery ML-Modellen
Vorhersagen in BigQuery ML werden nicht nur für beaufsichtigte Lernmodelle, sondern auch für unbeaufsichtigte Lernmodelle verwendet.
BigQuery ML unterstützt Vorhersagefunktionen über die Funktion ML.PREDICT
mit den folgenden Modellen:
Modellkategorie | Modelltypen | Aufgabe von ML.PREDICT |
---|---|---|
Beaufsichtigtes Lernen |
Lineare und logistische Regression Boosted Trees Random Forest Neuronale Deep-Learning-Netzwerke Wide-and-Deep AutoML-Tabellen |
Label vorhersagen, entweder einen numerischen Wert für Regressionsaufgaben oder einen kategorialen Wert für Klassifizierungsaufgaben. |
Unbeaufsichtigtes Lernen | K-means | Cluster der Entität zuweisen. |
PCA | Dimensionalitätsreduktion auf die Entität anwenden, indem sie in den von den Eigenvektoren umfassten Bereich umgewandelt wird. | |
Autoencoder | Entität in den eingebetteten Bereich umwandeln. |
Inferenzen und importierte Modellen
Bei diesem Ansatz erstellen und trainieren Sie ein Modell außerhalb von BigQuery, importieren es mit der Anweisung CREATE MODEL
und führen dann mithilfe mit Funktion ML.PREDICT
die Inferenz dafür aus.
Die gesamte Inferenzverarbeitung erfolgt in BigQuery mithilfe von Daten aus BigQuery. Importierte Modelle können beaufsichtigtes oder unbeaufsichtigtes Lernen durchführen.
BigQuery ML unterstützt folgende importierte Modelltypen:
- Open Neural Network Exchange (ONNX) für Modelle, die in PyTorch, scikit-learn und anderen beliebten ML-Frameworks trainiert wurden.
- TensorFlow
- TensorFlow Lite
- XGBoost
Nutzen Sie diesen Ansatz, um benutzerdefinierte Modelle zu verwenden, die mit einer Reihe von ML-Frameworks entwickelt wurden. Dabei profitieren Sie von der Inferenzgeschwindigkeit und der Daten-Colocation von BigQuery ML.
Weitere Informationen finden Sie in den folgenden Anleitungen:
- Vorhersagen mit importierten TensorFlow-Modellen erstellen
- Vorhersagen mit scikit-learn-Modellen im ONNX-Format treffen
- Vorhersagen mit PyTorch-Modellen im ONNX-Format erstellen
Inferenzen und Remote-Modelle
Bei diesem Ansatz können Sie einen Verweis auf ein Modell erstellen, das in Vertex AI Prediction gehostet wird, indem Sie die Anweisung CREATE MODEL
verwenden und dann mit der Funktion ML.PREDICT
die Inferenz dafür ausführen.
Die gesamte Inferenzverarbeitung erfolgt in Vertex AI unter Verwendung von Daten aus BigQuery. Remote-Modelle können beaufsichtigtes oder unbeaufsichtigtes Lernen durchführen.
Mit diesem Ansatz können Sie Inferenzen für große Modelle ausführen, für die die von Vertex AI bereitgestellte GPU-Hardwareunterstützung erforderlich ist. Wenn die meisten Ihrer Modelle von Vertex AI gehostet werden, können Sie über SQL Inferenz für diese Modelle ausführen, ohne manuell Datenpipelines erstellen zu müssen, um Daten in Vertex AI zu importieren und Vorhersagen zurück nach BigQuery senden zu können.
Eine detaillierte Anleitung finden Sie unter Vorhersagen mit Remote-Modellen in Vertex AI treffen.
Onlinevorhersage
Die integrierte Inferenzfunktion von BigQuery ML ist für umfangreiche Anwendungsfälle wie die Batchvorhersage optimiert. Während BigQuery ML bei der Verarbeitung kleiner Eingabedaten Inferenzergebnisse mit niedriger Latenz liefert, können Sie durch die nahtlose Einbindung in Vertex AI eine schnellere Onlinevorhersage erreichen.
Sie können BigQuery ML-Modelle in der Vertex AI-Umgebung verwalten, sodass Sie Modelle nicht aus BigQuery ML exportieren müssen, bevor Sie sie als Vertex AI-Endpunkte bereitstellen. Durch das Verwalten von Modellen in Vertex AI erhalten Sie Zugriff auf alle MLOps-Funktionen von Vertex AI sowie auf Features wie Vertex AI Feature Store.
Darüber hinaus haben Sie die Flexibilität, BigQuery ML-Modelle nach Cloud Storage zu exportieren, um die Verfügbarkeit auf anderen Modellhosting-Plattformen zu gewährleisten.
Nächste Schritte
- Weitere Informationen zur Verwendung von Vertex AI-Modellen zum Generieren von Text und Einbettungen finden Sie unter Generative KI – Übersicht.
- Weitere Informationen zur Verwendung von Cloud AI APIs für KI-Aufgaben finden Sie unter KI-Anwendung – Übersicht.
- Informationen zu unterstützten Modelltypen und SQL-Funktionen für jeden Inferenztyp finden Sie unter End-to-End-Nutzerpfad für jedes Modell.