Modellinferenz – Übersicht

In diesem Dokument werden die in BigQuery ML unterstützten Batchinferenzen erläutert, einschließlich:

Bei der Inferenz des maschinellen Lernens werden Datenpunkte einem Modell für maschinelles Lernen zugeführt, um eine Ausgabe zu berechnen, z. B. einen einzelnen numerischen Wert. Dieser Vorgang wird auch als "Operationalisieren eines ML-Modells" oder "Überführen eines ML-Modells in die Produktion" bezeichnet.

Batchvorhersage

In den folgenden Abschnitten werden die verfügbaren Möglichkeiten zur Vorhersage in BigQuery ML beschrieben.

Inferenz mit trainierten BigQuery ML-Modellen

Vorhersagen in BigQuery ML werden nicht nur für beaufsichtigte Lernmodelle, sondern auch für unbeaufsichtigte Lernmodelle verwendet.

BigQuery ML unterstützt Vorhersagefunktionen über die Funktion ML.PREDICT mit den folgenden Modellen:

Modellkategorie Modelltypen Aufgabe von ML.PREDICT
Beaufsichtigtes Lernen Lineare und logistische Regression

Boosted Trees

Random Forest

Neuronale Deep-Learning-Netzwerke

Wide-and-Deep

AutoML-Tabellen
Label vorhersagen, entweder einen numerischen Wert für Regressionsaufgaben oder einen kategorialen Wert für Klassifizierungsaufgaben.
Unbeaufsichtigtes Lernen K-means Cluster der Entität zuweisen.
PCA Dimensionalitätsreduktion auf die Entität anwenden, indem sie in den von den Eigenvektoren umfassten Bereich umgewandelt wird.
Autoencoder Entität in den eingebetteten Bereich umwandeln.

Inferenzen und importierte Modellen

Bei diesem Ansatz erstellen und trainieren Sie ein Modell außerhalb von BigQuery, importieren es mit der Anweisung CREATE MODEL und führen dann mithilfe mit Funktion ML.PREDICT die Inferenz dafür aus. Die gesamte Inferenzverarbeitung erfolgt in BigQuery mithilfe von Daten aus BigQuery. Importierte Modelle können beaufsichtigtes oder unbeaufsichtigtes Lernen durchführen.

BigQuery ML unterstützt folgende importierte Modelltypen:

Nutzen Sie diesen Ansatz, um benutzerdefinierte Modelle zu verwenden, die mit einer Reihe von ML-Frameworks entwickelt wurden. Dabei profitieren Sie von der Inferenzgeschwindigkeit und der Daten-Colocation von BigQuery ML.

Weitere Informationen finden Sie in den folgenden Anleitungen:

Inferenzen und Remote-Modelle

Bei diesem Ansatz können Sie einen Verweis auf ein Modell erstellen, das in Vertex AI Prediction gehostet wird, indem Sie die Anweisung CREATE MODEL verwenden und dann mit der Funktion ML.PREDICT die Inferenz dafür ausführen. Die gesamte Inferenzverarbeitung erfolgt in Vertex AI unter Verwendung von Daten aus BigQuery. Remote-Modelle können beaufsichtigtes oder unbeaufsichtigtes Lernen durchführen.

Mit diesem Ansatz können Sie Inferenzen für große Modelle ausführen, für die die von Vertex AI bereitgestellte GPU-Hardwareunterstützung erforderlich ist. Wenn die meisten Ihrer Modelle von Vertex AI gehostet werden, können Sie über SQL Inferenz für diese Modelle ausführen, ohne manuell Datenpipelines erstellen zu müssen, um Daten in Vertex AI zu importieren und Vorhersagen zurück nach BigQuery senden zu können.

Eine detaillierte Anleitung finden Sie unter Vorhersagen mit Remote-Modellen in Vertex AI treffen.

Onlinevorhersage

Die integrierte Inferenzfunktion von BigQuery ML ist für umfangreiche Anwendungsfälle wie die Batchvorhersage optimiert. Während BigQuery ML bei der Verarbeitung kleiner Eingabedaten Inferenzergebnisse mit niedriger Latenz liefert, können Sie durch die nahtlose Einbindung in Vertex AI eine schnellere Onlinevorhersage erreichen.

Sie können BigQuery ML-Modelle in der Vertex AI-Umgebung verwalten, sodass Sie Modelle nicht aus BigQuery ML exportieren müssen, bevor Sie sie als Vertex AI-Endpunkte bereitstellen. Durch das Verwalten von Modellen in Vertex AI erhalten Sie Zugriff auf alle MLOps-Funktionen von Vertex AI sowie auf Features wie Vertex AI Feature Store.

Darüber hinaus haben Sie die Flexibilität, BigQuery ML-Modelle nach Cloud Storage zu exportieren, um die Verfügbarkeit auf anderen Modellhosting-Plattformen zu gewährleisten.

Nächste Schritte