模型推論總覽

本文說明 BigQuery ML 支援的批次推論類型,包括:

機器學習推論是指將資料點傳送至機器學習模型,據此計算輸出結果,例如單一數值分數。這個程序也稱為「機器學習模型運作化」或「將機器學習模型投入正式環境」。

批次預測

以下各節說明在 BigQuery ML 中執行預測的可用方式。

使用 BigQuery ML 訓練的模型進行推論

BigQuery ML 中的預測功能不僅適用於監督式學習模型,也適用於非監督式學習模型。

BigQuery ML 支援透過 ML.PREDICT 函式進行預測,適用於下列模型:

模型類別 模型類型 ML.PREDICT 的用途
監督式學習 線性和邏輯迴歸

提升樹狀結構

隨機森林

深層神經網路

Wide-and-Deep

AutoML Tables
預測標籤,迴歸工作會預測數值,分類工作則會預測類別值。
非監督式學習 K-means 將叢集指派給實體。
PCA 將實體轉換為特徵向量所跨越的空間,即可對實體套用降維。
自動編碼器 將實體轉換為內嵌空間。

使用匯入的模型進行推論

採用這種方法時,您會在 BigQuery 以外建立及訓練模型,然後使用 CREATE MODEL 陳述式匯入模型,並使用 ML.PREDICT 函式對模型執行推論作業。所有推論處理作業都會在 BigQuery 中進行,並使用 BigQuery 中的資料。匯入的模型可以執行監督式或非監督式學習。

BigQuery ML 支援下列類型的匯入模型:

運用這種方法,您就能使用各種機器學習架構開發自訂模型,同時享有 BigQuery ML 的推論速度,以及與資料共置的優勢。

如要瞭解詳情,請嘗試下列任一教學課程:

使用遠端模型進行推論

採用這種做法時,您可以使用 CREATE MODEL 陳述式,建立對 Vertex AI 推論中代管模型的參照,然後使用 ML.PREDICT 函式對模型執行推論。所有推論處理作業都會在 Vertex AI 中進行,並使用 BigQuery 中的資料。遠端模型可以執行監督式或非監督式學習。

使用這種方法,對需要 Vertex AI 提供 GPU 硬體支援的大型模型執行推論作業。如果大部分模型都由 Vertex AI 代管,您也可以使用 SQL 對這些模型執行推論,不必手動建構資料管道,將資料傳送至 Vertex AI,再將預測結果傳回 BigQuery。

如需逐步操作說明,請參閱「使用 Vertex AI 上的遠端模型進行預測」。

在 Vertex AI 中使用 BigQuery 模型進行批次推論

BigQuery ML 內建批次預測支援功能,不需要使用 Vertex AI。您也可以將 BigQuery ML 模型註冊至 Model Registry,以便在 Vertex AI 中使用 BigQuery 表格做為輸入內容,執行批次預測。不過,這項作業只能透過 Vertex AI API 進行,並將 InstanceConfig.instanceType 設為 object

線上預測

BigQuery ML 的內建推論功能經過最佳化,適用於大規模用途,例如批次預測。BigQuery ML 處理小型輸入資料時,可提供低延遲的推論結果,但如果與 Vertex AI 順暢整合,就能加快線上預測速度。

您可以在 Vertex AI 環境中管理 BigQuery ML 模型,不必先從 BigQuery ML 匯出模型,再將模型部署為 Vertex AI 端點。在 Vertex AI 中管理模型,即可存取所有 Vertex AI MLOps 功能,以及 Vertex AI 特徵儲存庫等功能。

此外,您也可以彈性地將 BigQuery ML 模型匯出至 Cloud Storage,以便在其他模型代管平台上使用。

後續步驟