透過集合功能整理內容 你可以依據偏好儲存及分類內容。
跳至

AI 基礎架構

每個機器學習工作負載適用的可擴充、高效能與具成本效益的基礎架構。

  • 從高效能訓練到低成本推論,適用於各種用途的 AI 加速器

  • 運用 Vertex AI 全代管基礎架構,專為 AI 工作負載打造,加快擴充速度

  • 運用 Google 研究與合作夥伴建構的最佳化基礎架構,提供突破性的演算法

優點

大規模最佳化效能和成本效益

Google Cloud 的 GPU、TPU 或 CPU 可讓您選擇各種用途,包括高效能訓練、低成本推論,以及大規模資料處理。

透過代管型基礎架構更快取得結果

透過 Vertex AI 提供的代管基礎架構,以更迅速、更有效率的方式調度資源。快速設定機器學習環境、自動調度管理資源、管理大型叢集,以及設定低延遲的應用程式。

透過最先進的 AI 技術加快革新速度

借助 Google 研究、DeepMind 與合作夥伴的先進 AI 技術,進一步提升機器學習價值。

主要功能與特色

主要功能與特色

富有彈性的可擴充硬體,適用於各種用途

Google Cloud 的 GPU、TPU 或 CPU 可讓您選擇各種用途,包括高效能訓練、低成本推論,以及大規模資料處理。有了 Tensor Processing Unit (TPU),您就能以經過最佳化的費用和訓練時間大規模訓練和執行深度類神經網路,藉此加快腳步。

透過從各種 NVIDIA GPU 中選擇符合成本效益的推論作業,或是向上擴充或向外擴充的訓練作業。並非所有機器學習模型都相同,且不同模型的硬體加速功能各有不同。最後,在 Compute Engine 上啟動 VM 執行個體時,存取 CPU 平台。Compute Engine 為 VM 提供各種 Intel 和 AMD 處理器。

低延遲服務

Vertex AI 提供特製的基礎架構,可自動管理機器學習程序。透過自動調度資源、私人端點以及多種 CPU 和 GPU 選項,部署至全代管端點。

經過最佳化的 Tensorflow 執行階段可讓 GPU 和 CPU 中的模型複寫達到最多 8 倍的處理量,並將表格模型的延遲時間縮短 6 倍。

大規模訓練

Vertex AI 提供代管網路功能,可協助客戶擴充多節點訓練資源並縮短訓練時間。

代管型訓練工作:透過佇列管理、NVIDIA GPU 和 TPU 提交及清除訓練工作,以及內建的超參數最佳化功能。

縮減伺服器:將分散式 GPU 訓練最佳化,以同步資料平行演算法,並將訓練時間與費用降低最多 30% 至 40%。

Cloud Storage FUSE 和 NFS:運用 Cloud Storage AutoClass 適用的支援,在 Vertex AI 中,透過 Cloud Storage AutoClass 內建的檔案和物件儲存選項,簡化並加快機器學習訓練工作。

先進的 AI 演算法

使用 Google 研究開發的先進 AI 演算法,透過內建最佳化基礎架構,簡化複雜的 AI 應用實例。透過 NAS、TabNet、Alphafold 和 NVIDIA Merlin 等演算法減少複雜度並縮短創造價值所需的時間。

非常靈活的開放式平台

我們致力於為客戶提供極致的自由,讓他們能夠選擇最適合自己的機器學習架構或基礎架構服務。

透過單一整合式資料和 AI 雲端平台,輕鬆存取及使用任何工具、API 或架構,可用於機器學習工作負載,讓團隊依據偏好和開發作業,選擇合適的架構效率。

存取豐富的建構模塊 (例如深度學習 VM 和容器),以及精選 ISV 方案的市集,協助您架構自己的軟體堆疊在 VM 和/或Google Kubernetes Engine (GKE)。

說明文件

說明文件

Google Cloud 基本知識
使用 GPU 在雲端環境中訓練模型

GPU 可加速深度學習模型的訓練程序,例如圖片分類、影片分析和自然語言處理。

Google Cloud 基本知識
使用 TPU 訓練模型

TPU 是 Google 量身打造開發的 ASIC,用於加速機器學習工作負載。您可以使用 Cloud TPU,在 AI 平台訓練中執行訓練工作。

教學課程
TPU 非常適合用於深度學習的原因為何?

進一步瞭解深度學習的運算需求以及 CPU、GPU 和 TPU 處理工作的方式。

Google Cloud 基本知識
深度學習 VM

深度學習 VM 映像檔針對數據資料學和機器學習工作最佳化,具備關鍵機器學習架構並已預先安裝工具,而且可搭配 GPU 運作。

Google Cloud 基本知識
AI Platform 深度學習容器

AI 平台深度學習容器是效能最佳化的一致環境,可協助您快速設計原型及部署工作流程,並且可搭配 GPU 運作。

定價

定價

AI 基礎架構的定價因所選取的產品而異。您可以免費試用 AI 基礎架構。

Cloud TPU Cloud GPU
如要瞭解單一裝置 TPU 類型和 TPU Pod 類型的 TPU 計價方式,請參閱 TPU 定價 如要瞭解 Compute Engine 支援的區域和各類型 GPU 所適用的費率,請參閱 GPU 定價