Vertex AI 簡介

您可以透過 Vertex AI 這個機器學習 (ML) 平台訓練及部署 ML 模型和 AI 應用程式,並自訂大型語言模型 (LLM) 用於 AI 技術輔助應用程式。Vertex AI 結合資料工程、數據資料學和機器學習工程的工作流程。不同的團隊將能運用相同的工具協同合作,並透過 Google Cloud的強大功能調度應用程式資源。

Vertex AI 提供多個模型訓練和部署選項:

部署模型後,您可以使用 Vertex AI 的端對端機器學習運作工具,在整個機器學習生命週期中自動執行及擴充專案。這些 MLOps 工具會在全代管基礎架構上執行,您可以根據效能和預算需求自訂基礎架構。

您可以使用 Python 適用的 Vertex AI SDK,在 Vertex AI Workbench (以 Jupyter 筆記本為基礎的開發環境) 中,執行完整的機器學習工作流程。您可以在 Colab Enterprise 中與團隊合作開發模型。Colab Enterprise 是與 Vertex AI 整合的 Colaboratory 版本。其他可用介面包括 Google Cloud 主控台、Google Cloud CLI 指令列工具、用戶端程式庫和 Terraform (支援有限)。

Vertex AI 和機器學習 (ML) 工作流程

本節將概略說明機器學習工作流程,以及如何使用 Vertex AI 建構及部署模型。

機器學習工作流程圖

  1. 資料準備:擷取及清理資料集後,請執行探索性資料分析 (EDA),瞭解機器學習模型預期的資料結構和特徵。對模型套用資料轉換和特徵工程,並將資料分割為訓練、驗證和測試集。

    • 使用 Vertex AI Workbench 筆記本探索及視覺化資料。Vertex AI Workbench 與 Cloud Storage 和 BigQuery 整合,可協助您更快存取及處理資料。

    • 如要處理大型資料集,請使用 Vertex AI Workbench 筆記本中的 Dataproc Serverless Spark 執行 Spark 工作負載,不必管理自己的 Dataproc 叢集。

  2. 模型訓練:選擇訓練方法來訓練模型,並微調模型以提升效能。

    • 如要訓練模型,但不想編寫程式碼,請參閱 AutoML 總覽。AutoML 支援表格、圖片和影片資料。

    • 如要編寫自己的訓練程式碼,並使用偏好的機器學習架構訓練自訂模型,請參閱自訂訓練總覽

    • 使用自訂調整工作,為自訂訓練模型最佳化超參數。

    • Vertex AI Vizier 可為複雜的機器學習 (ML) 模型調整超參數。

    • 使用 Vertex AI Experiments,以不同的機器學習技術訓練模型,並比較結果。

    • Vertex AI Model Registry 中註冊訓練好的模型,即可進行版本控管,並移交至正式環境。Vertex AI Model Registry 整合了驗證和部署功能,例如模型評估和端點。

  3. 模型評估和疊代:評估訓練好的模型、根據評估指標調整資料,並疊代模型。

    • 使用模型評估指標 (例如精確度和召回率),評估及比較模型效能。透過 Vertex AI Model Registry 建立評估,或在 Vertex AI Pipelines 工作流程中加入評估。
  4. 模型服務:將模型部署至實際工作環境,取得線上推論結果,或直接查詢批次推論結果。

    • 使用預先建構自訂容器部署自訂訓練模型,取得即時線上推論結果 (有時稱為 HTTP 推論)。

    • 取得非同步批次推論,不需要部署至端點。

    • 經過最佳化的 TensorFlow 執行階段可讓您以較低的成本和延遲時間,提供 TensorFlow 模型,優於以開放原始碼為基礎的預建 TensorFlow Serving 容器。

    • 如要透過表格模型提供線上服務,請使用 Vertex AI 特徵儲存庫,從中央存放區提供特徵,並監控特徵健康狀態。

    • Vertex Explainable AI 可協助您瞭解各項特徵對模型推論的貢獻度 (特徵歸因),並從訓練資料集中找出標示錯誤的資料 (以範例為基礎的解釋)。

    • 部署並取得以 BigQuery ML 訓練的模型線上推論結果。

  5. 模型監控:監控已部署模型的效能。使用傳入的推論資料重新訓練模型,以提升效能。

    • Vertex AI Model Monitoring 會監控模型,偵測訓練與服務偏差和推論偏移,並在傳入的推論資料與訓練基準的偏差過大時傳送快訊。

後續步驟