模型推論總覽

本文件說明 BigQuery ML 支援的批次推論類型,包括:

機器學習推論是指將資料點執行至機器學習模型,以便計算輸出內容 (例如單一數值分數) 的過程。這個程序也稱為「將機器學習模型導入實際運作」或「將機器學習模型導入正式環境」。

批次預測

以下各節說明在 BigQuery ML 中執行預測的各種方式。

使用 BigQuery ML 訓練模型進行推論

BigQuery ML 中的預測功能不僅可用於監督式學習模型,也適用於非監督式學習模型。

BigQuery ML 透過 ML.PREDICT 函式支援預測功能,並提供下列模型:

模型類別 模型類型 ML.PREDICT 的作用
監督式學習 線性與邏輯迴歸

提升樹

隨機森林

深度神經網路

寬廣與深度

AutoML Tables
預測標籤,迴歸任務為數值,分類任務為類別值。
非監督式學習 K-means 將叢集指派給實體。
PCA 將實體轉換為由特徵向量所涵蓋的空間,藉此套用降維作業。
Autoencoder 將實體轉換為嵌入空間。

使用匯入的模型進行推論

使用這種方法時,您會在 BigQuery 外部建立及訓練模型,然後使用 CREATE MODEL 陳述式匯入模型,並使用 ML.PREDICT 函式對模型執行推論。所有推論處理作業都會在 BigQuery 中執行,並使用 BigQuery 的資料。匯入的模型可執行監督式或非監督式學習。

BigQuery ML 支援下列類型的匯入模型:

使用這種方法,您就能運用各種機器學習架構開發的自訂模型,同時享有 BigQuery ML 的推論速度和資料共置功能。

如要進一步瞭解,請參考下列任一教學課程:

使用遠端模型進行推論

透過這種做法,您可以使用 CREATE MODEL 陳述式建立 Vertex AI Prediction 中代管模型的參照,然後使用 ML.PREDICT 函式對該模型執行推論。所有推論處理作業都會在 Vertex AI 中執行,並使用 BigQuery 的資料。遠端模型可執行監督式或非監督式學習。

使用這種方法,針對需要 Vertex AI 提供 GPU 硬體支援的大型模型執行推論。如果大部分模型都由 Vertex AI 代管,您也可以使用 SQL 對這些模型執行推論,而不需要手動建立資料管道,將資料帶入 Vertex AI,並將預測結果帶回 BigQuery。

如需逐步操作說明,請參閱「在 Vertex AI 使用遠端模型進行預測」。

在 Vertex AI 中使用 BigQuery 模型進行批次推論

BigQuery ML 內建批次預測功能,不必使用 Vertex AI。您也可以將 BigQuery ML 模型註冊至 Model Registry,以便在 Vertex AI 中使用 BigQuery 資料表做為輸入內容,執行批次預測。不過,您必須使用 Vertex AI API,並將 InstanceConfig.instanceType 設為 object,才能執行這項操作。

線上預測

BigQuery ML 內建的推論功能經過最佳化處理,可用於大規模用途,例如批次預測。雖然 BigQuery ML 在處理小型輸入資料時,可提供低延遲的推論結果,但您可以透過與 Vertex AI 完美整合,加快線上預測速度。

您可以在 Vertex AI 環境中管理 BigQuery ML 模型,這樣就不必先從 BigQuery ML 匯出模型,再將模型部署為 Vertex AI 端點。在 Vertex AI 中管理模型,即可使用所有 Vertex AI MLOps 功能,以及 Vertex AI 特徵儲存庫 等功能。

此外,您還可以靈活地將 BigQuery ML 模型匯出至 Cloud Storage,以便在其他模型代管平台上使用。

後續步驟