AI 基礎架構
每個機器學習工作負載適用的可擴充、高效能與具成本效益的基礎架構。
-
從高效能訓練到低成本推論,適用於各種用途的 AI 加速器
-
使用 Vertex AI 全代管基礎架構,專為 AI 工作負載打造,因此能迅速調度資源
-
運用 Google 研究與合作夥伴建構的最佳化基礎架構,提供突破性的演算法
優點
大規模最佳化效能和成本效益
Google Cloud 的 GPU、TPU 或 CPU 可讓您選擇各種用途,包括高效能訓練、低成本推論,以及大規模資料處理。
透過代管型基礎架構更快取得結果
使用 Vertex AI 提供的代管基礎架構,以更迅速、更有效率的方式調度資源。快速設定機器學習環境、自動調度管理資源、管理大型叢集,以及設定低延遲的應用程式。
透過先進的 AI 技術加快革新速度
借助 Google 研究、DeepMind 與合作夥伴的先進 AI 技術,進一步提升機器學習價值。
主要功能與特色
主要功能與特色
富有彈性的可擴充硬體,適用於各種用途
Google Cloud 的 GPU、TPU 或 CPU 可讓您選擇各種用途,包括高效能訓練、低成本推論,以及大規模資料處理。有了 Tensor Processing Unit (TPU),您就能以經過最佳化的費用和訓練時間大規模訓練和執行深度類神經網路,藉此加快腳步。
您可以選擇各式各樣的 NVIDIA GPU,以符合成本效益的方式執行推論、向上擴充或向外擴充訓練。並非所有的機器學習模型都是相同的,不同模型適用的硬體加速功能也不同。最後,在 Compute Engine 上啟動 VM 執行個體時,請存取 CPU 平台。Compute Engine 為 VM 提供各種 Intel 和 AMD 處理器。
低延遲服務
Vertex AI 提供特製的基礎架構,可自動管理機器學習程序。透過自動調度資源、私人端點以及多種 CPU 和 GPU 選項,部署至全代管端點。
經過最佳化的 Tensorflow 執行階段可讓 GPU 和 CPU 完成模型預先編譯,最高為 8 倍的處理量,並將表格模型的延遲時間縮短至 6 倍。
大規模訓練
Vertex AI 提供代管網路功能,可協助客戶擴充多節點訓練資源並縮短訓練時間。
代管訓練工作:透過佇列管理、NVIDIA GPU 和 TPU,以及內建超參數最佳化功能,提交及清除訓練工作。
縮減伺服器:將分散式 GPU 訓練最佳化,以同步資料平行演算法,並將訓練時間與費用降低最多 30% 至 40%。
Cloud Storage FUSE 和 NFS:運用 Cloud Storage AutoClass 適用的支援,在 Vertex AI 中,透過 Cloud Storage AutoClass 內建的檔案和物件儲存選項,簡化並加快機器學習訓練工作。
先進的 AI 演算法
使用 Google 研究開發的先進 AI 演算法,透過內建最佳化基礎架構,簡化複雜的 AI 應用實例。運用 NAS、TabNet、Alphafold 和 NVIDIA Merlin 等演算法來降低複雜度並加快創造價值。
非常靈活的開放式平台
我們致力於讓客戶自由選擇最適合自己的機器學習架構或基礎架構服務。
透過單一整合式資料和 AI 雲端平台,輕鬆存取及使用任何工具、API 或架構,可用於機器學習工作負載,讓團隊依據偏好和開發作業,選擇合適的架構效率。
存取豐富的建構模塊 (例如深度學習 VM 和容器),以及精選 ISV 方案的市集,協助您架構自己的軟體堆疊在 VM 和/或Google Kubernetes Engine (GKE)。
最新資訊
最新資訊
說明文件
說明文件
使用 GPU 在雲端環境中訓練模型
GPU 可加速深度學習模型的訓練程序,例如圖片分類、影片分析和自然語言處理。
使用 TPU 訓練模型
TPU 是 Google 量身打造開發的 ASIC,用於加速機器學習工作負載。您可以使用 Cloud TPU,在 AI 平台訓練中執行訓練工作。
TPU 非常適合用於深度學習的原因為何?
進一步瞭解深度學習的運算需求以及 CPU、GPU 和 TPU 處理工作的方式。
深度學習 VM
深度學習 VM 映像檔針對數據資料學和機器學習工作最佳化,具備關鍵機器學習架構並已預先安裝工具,而且可搭配 GPU 運作。
AI Platform 深度學習容器
AI 平台深度學習容器是效能最佳化的一致環境,可協助您快速設計原型及部署工作流程,並且可搭配 GPU 運作。
Cloud AI 產品符合我們的服務水準協議政策。這些產品的延遲時間或可用性保證可能與其他 Google Cloud 服務不同。