Vertex AI 价格

所列价格以美元 (USD) 为单位。 如果您使用非美元货币付费,请参阅 Cloud Platform SKU 上以您的币种列出的价格。

Vertex AI 价格与旧版 AI Platform 价格的对比

Vertex AI 的费用与 Vertex AI 取代的现有产品的费用相同。例如,无论您是使用 Vertex AI 还是使用 AutoML Vision 训练,AutoML 图片分类模型的费用都相同。

如果您使用的是旧版 AI 平台产品,那么您的结算可以用“机器学习单元”表示。

AutoML 模型的价格

对于 Vertex AI AutoML 模型,您需要支付以下三项主要活动的费用:

  • 训练模型
  • 将模型部署到端点
  • 使用模型进行预测

Vertex AI 使用 Vertex AutoML 模型的预定义机器配置,这些活动的每小时费率反映了资源使用情况。

训练模型所需的时间取决于训练数据的规模和复杂程度。您必须先部署模型,然后模型才能提供在线预测或在线说明。

即使模型未进行预测,您也需要为部署到端点的每个模型付费。 如需避免模型产生进一步的费用,您必须取消部署模型。未部署或部署失败的模型不会产生费用。

您只需为实际使用的计算小时数付费;如果训练因用户自行取消之外的原因而失败,您不需要为相应训练时间付费。如果您取消操作,则需要按训练时间付费。

请从下方选择一种模型类型以获取价格信息。

图片数据

操作 每节点时价格(分类) 每节点时价格(对象检测)
训练 $3.465 $3.465
训练(Edge 设备端模型) $18.00 $18.00
部署和在线预测 $1.375 $2.002
批量预测 $2.222 $2.222

视频数据

操作 每节点时价格(分类、对象跟踪) 每节点时价格(操作识别)
培训 $3.234 $3.300
训练(Edge 设备端模型) $10.78 $11.00
预测 $0.462 $0.550

表式数据

操作 分类/回归的每节点时价格 预测价格
训练 $21.252 请参阅 Vertex AI Predict
预测 价格与自定义训练模型预测价格相同 请参阅 Vertex AI Predict

文本数据

操作 价格
旧版数据上传(仅限 PDF)

每个月的前 1000 页免费

每 1000 页 $1.50

500 万页以上每 1000 页 $0.60

训练 每小时 $3.30
部署 每小时 $0.05
预测

每 1000 条文本记录 $5.00

每 1000 个文档页面 $25.00,例如 PDF 文件(仅限旧版)

Vertex AutoML 文本预测请求的价格根据您发送的需要分析的文本记录数量计算。一条文本记录是指最多包含 1000 个 Unicode 字符(包括空格及任何标记,如 HTML 或 XML 标记)的纯文本。

如果一项预测请求中提供的文本包含的字符超过 1000 个,则每 1000 个字符计为一条文本记录。例如,如果您发送三个请求,分别包含 800、1500 和 600 个字符,那么您要支付 4 条文本记录的费用:第 1 个请求计为 1 条文本记录 (800)、第 2 个请求计为 2 条 (1500) 和第三个请求计为 1 条 (600)。

Vertex Explainable AI 的预测费用

与 Vertex Explainable AI 关联的计算按照与预测相同的费率计费。 但解释要比正常的预测花费更长的时间,因此大量使用 Vertex Explainable AI 以及自动扩缩可能导致启动更多节点,这将增加预测费用。

Vertex AI 预测

AutoML

阶段 价格
预测 每 1000 个数据点 $0.2*(0-100 万个点)
$0.1/1000 个数据点*(100 万 - 5000 个点)
$0.02/1000 个数据点*(>5000 万个点)
训练 所有区域 $21.25/小时
Explainable AI 使用 Shapley 值的可解释性。请参阅 Vertex AI Prediction and Explanation 的价格页面。

* 预测数据点是预测范围内的一个时间点。例如,以天为单位,每个时序的 7 天范围为 7 个点。

  • 最多可以添加 5 个预测分位数,无需额外费用。
  • 每个层级消耗的数据点数量每月更新一次。

ARIMA+

阶段 价格
预测 每 TB$5.00
训练 每 TB$250.00 x 候选模型数量 x 回测窗口数量*
Explainable AI 使用时间序列分解进行可解释性不会增加任何额外费用。不支持使用 Shapley 值的可解释性。

如需了解详情,请参阅 BigQuery ML 价格页面。每个训练和预测作业都会产生 1 个托管流水线运行的费用,如 Vertex AI 价格中所述。

* 系统会为测试集中的每个时间段创建一个回测窗口。使用的 AUTO_ARIMA_MAX_ORDER 决定了候选模型的数量。对于具有多个时间序列的模型,其范围介于 6-42 之间。

自定义训练模型

训练

下表提供了各种训练配置的大致每小时价格。您可以选择所选机器类型的自定义配置。如需计算价格,请将您使用的虚拟机的费用相加。

如果您使用 Compute Engine 机器类型并挂接加速器,则加速器的费用需另外计算。如需计算此费用,请将下表中加速器的价格乘以您使用的每种加速器类型的机器时数。

机器类型

美洲

欧洲

亚太地区

如果您使用非美元货币付费,请参阅 Cloud Platform SKU 上以您的币种列出的价格。

加速器

美洲

欧洲

亚太地区

如果您使用非美元货币付费,请参阅 Cloud Platform SKU 上以您的币种列出的价格。

* 使用 Cloud TPU Pod 进行训练的价格取决于 Pod 中的核心数。pod 中的核心数始终是 32 的倍数。如需确定具有 32 个以上核心的 Pod 的训练价格,请计算 32 核 Pod 的价格,然后乘以核心数除以 32。例如,对于 128 核 Pod,价格为 (32-core Pod price) * (128/32)。如需了解可在特定区域使用的 Cloud TPU Pod,请参阅 Cloud TPU 文档中的系统架构

磁盘

美洲

欧洲

亚太地区

如果您使用非美元货币付费,请参阅 Cloud Platform SKU 上以您的币种列出的价格。

从为作业预配资源之时起,直到作业完成为止,您都需要支付训练模型的费用。

预定义配置的容量层级(AI Platform Training)

您可以控制在训练模型时使用的处理集群类型。 最简单的方法是选择称为“容量层级”的其中一种预定义配置。详细了解容量层级

自定义配置的机器类型

如果您使用 Vertex AI 或选择 CUSTOM 作为 AI Platform Training 的规模层级,则可以控制用于集群主实例、工作器和参数服务器的虚拟机数量和类型。详细了解适用于 Vertex AI 的机器类型适用于 AI Platform Training 的机器类型

使用自定义处理集群进行训练的费用等于您指定的所有机器的费用总和。您需要按作业总时间支付费用,而不是按单个机器的实际处理时间付费。

使用“已使用的机器学习单元”计算训练费用

“作业详情”页面上显示的已使用的机器学习单元相当于将作业时长考虑在内的训练单元数。根据“已使用的机器学习单元”计算费用的公式如下:

(Consumed ML units) * (Machine type cost)

示例:

  • 数据科学家在 us-west1(俄勒冈)区域的 e2-standard-4 机器实例上运行训练作业。作业详情页面上的已使用的机器学习单元字段显示 55.75。 计算公式如下:

    55.75 consumed ML units * 0.154114

    作业的总费用为 $8.59。

如需查找“作业详情”页面,请转到作业列表,然后点击特定作业的链接。

预测和说明

下表提供了批量预测、在线预测和在线说明的每“节点时”价格。“节点时”表示虚拟机运行预测作业花费的时间,或者处于就绪状态等待处理预测或说明请求的时间。

美洲

预测
预测和说明
机器类型 - 每节点时价格
n1-standard-2 近似值:
us-east4 $0.123
northamerica-northeast1 $0.1203
其他美洲区域 $0.1093
n1-standard-4 近似值:
us-east4 $0.2461
northamerica-northeast1 $0.2405
其他美洲区域 $0.2186
n1-standard-8 近似值:
us-east4 $0.4922
northamerica-northeast1 $0.4811
其他美洲区域 $0.4372
n1-standard-16 近似值:
us-east4 $0.9843
northamerica-northeast1 $0.9622
其他美洲区域 $0.8744
n1-standard-32 近似值:
us-east4 $1.9687
northamerica-northeast1 $1.9243
其他美洲区域 $1.7488
n1-highmem-2 近似值:
us-east4 $0.1532
northamerica-northeast1 $0.1498
其他美洲区域 $0.1361
n1-highmem-4 近似值:
us-east4 $0.3064
northamerica-northeast1 $0.2995
其他美洲区域 $0.2723
n1-highmem-8 近似值:
us-east4 $0.6129
northamerica-northeast1 $0.5991
其他美洲区域 $0.5445
n1-highmem-16 近似值:
us-east4 $1.2257
northamerica-northeast1 $1.1982
其他美洲区域 $1.089
n1-highmem-32 近似值:
us-east4 $2.4515
northamerica-northeast1 $2.3963
其他美洲区域 $2.178
n1-highcpu-2 近似值:
us-east4 $0.0918
northamerica-northeast1 $0.0897
其他美洲区域 $0.0815
n1-highcpu-4 近似值:
us-east4 $0.1835
northamerica-northeast1 $0.1794
其他美洲区域 $0.163
n1-highcpu-8 近似值:
us-east4 $0.3671
northamerica-northeast1 $0.3588
其他美洲区域 $0.326
n1-highcpu-16 近似值:
us-east4 $0.7341
northamerica-northeast1 $0.7176
其他美洲区域 $0.6519
n1-highcpu-32 近似值:
us-east4 $1.4683
northamerica-northeast1 $1.4352
其他美洲区域 $1.3039

欧洲

预测
预测和说明
机器类型 - 每节点时价格
n1-standard-2 近似值:
europe-west2 $0.1408
其他欧洲区域 $0.1265
n1-standard-4 近似值:
europe-west2 $0.2815
其他欧洲区域 $0.2531
n1-standard-8 近似值:
europe-west2 $0.563
其他欧洲区域 $0.5061
n1-standard-16 近似值:
europe-west2 $1.126
其他欧洲区域 $1.0123
n1-standard-32 近似值:
europe-west2 $2.2521
其他欧洲区域 $2.0245
n1-highmem-2 近似值:
europe-west2 $0.1753
其他欧洲区域 $0.1575
n1-highmem-4 近似值:
europe-west2 $0.3506
其他欧洲区域 $0.3151
n1-highmem-8 近似值:
europe-west2 $0.7011
其他欧洲区域 $0.6302
n1-highmem-16 近似值:
europe-west2 $1.4022
其他欧洲区域 $1.2603
n1-highmem-32 近似值:
europe-west2 $2.8044
其他欧洲区域 $2.5206
n1-highcpu-2 近似值:
europe-west2 $0.105
其他欧洲区域 $0.0944
n1-highcpu-4 近似值:
europe-west2 $0.21
其他欧洲区域 $0.1888
n1-highcpu-8 近似值:
europe-west2 $0.4199
其他欧洲区域 $0.3776
n1-highcpu-16 近似值:
europe-west2 $0.8398
其他欧洲区域 $0.7552
n1-highcpu-32 近似值:
europe-west2 $1.6796
其他欧洲区域 $1.5104

亚太地区

预测
预测和说明
机器类型 - 每节点时价格
n1-standard-2 近似值:
asia-northeast1 $0.1402
asia-southeast1 $0.1348
australia-southeast1 $0.155
其他亚太地区区域 $0.1265
n1-standard-4 近似值:
asia-northeast1 $0.2803
asia-southeast1 $0.2695
australia-southeast1 $0.31
其他亚太地区区域 $0.2531
n1-standard-8 近似值:
asia-northeast1 $0.5606
asia-southeast1 $0.5391
australia-southeast1 $0.6201
其他亚太地区区域 $0.5061
n1-standard-16 近似值:
asia-northeast1 $1.1213
asia-southeast1 $1.0782
australia-southeast1 $1.2401
其他亚太地区区域 $1.0123
n1-standard-32 近似值:
asia-northeast1 $2.2426
asia-southeast1 $2.1564
australia-southeast1 $2.4802
其他亚太地区区域 $2.0245
n1-highmem-2 近似值:
asia-northeast1 $0.1744
asia-southeast1 $0.1678
australia-southeast1 $0.193
其他亚太地区区域 $0.1575
n1-highmem-4 近似值:
asia-northeast1 $0.3489
asia-southeast1 $0.3357
australia-southeast1 $0.3861
其他亚太地区区域 $0.3151
n1-highmem-8 近似值:
asia-northeast1 $0.6977
asia-southeast1 $0.6713
australia-southeast1 $0.7721
其他亚太地区区域 $0.6302
n1-highmem-16 近似值:
asia-northeast1 $1.3955
asia-southeast1 $1.3426
australia-southeast1 $1.5443
其他亚太地区区域 $1.2603
n1-highmem-32 近似值:
asia-northeast1 $2.791
asia-southeast1 $2.6852
australia-southeast1 $3.0885
其他亚太地区区域 $2.5206
n1-highcpu-2 近似值:
asia-northeast1 $0.1046
asia-southeast1 $0.1005
australia-southeast1 $0.1156
其他亚太地区区域 $0.0944
n1-highcpu-4 近似值:
asia-northeast1 $0.2093
asia-southeast1 $0.201
australia-southeast1 $0.2312
其他亚太地区区域 $0.1888
n1-highcpu-8 近似值:
asia-northeast1 $0.4186
asia-southeast1 $0.4021
australia-southeast1 $0.4624
其他亚太地区区域 $0.3776
n1-highcpu-16 近似值:
asia-northeast1 $0.8371
asia-southeast1 $0.8041
australia-southeast1 $0.9249
其他亚太地区区域 $0.7552
n1-highcpu-32 近似值:
asia-northeast1 $1.6742
asia-southeast1 $1.6082
australia-southeast1 $1.8498
其他亚太地区区域 $1.5104

每种机器类型均按 Google Cloud 帐单上的两个独立 SKU 计费:

  • vCPU 费用的单位是 vCPU 小时
  • RAM 费用的单位是 GB 小时

上表中机器类型的价格大约为使用该机器类型的模型版本每个预测节点的总小时费用。例如,n1-highcpu-32 机器类型包含 32 个 vCPU 和 28.8 GB RAM,所以每个节点的小时费用等于 32 vCPU 小时 + 28.8 GB 小时。

上表提供的价格旨在帮助您估算预测费用。下表列出了预测机器类型的 vCPU 和 RAM 价格,更准确地反映了将据以向您收取费用的 SKU。

美洲

预测机器类型 SKU
vCPU
北弗吉尼亚 (us-east4) $0.04094575/vCPU 小时
蒙特利尔 (northamerica-northeast1) $0.0400223/vCPU 小时
其他美洲区域 $0.03635495/vCPU 小时
RAM
北弗吉尼亚 (us-east4) $0.00548665/GB 小时
蒙特利尔 (northamerica-northeast1) $0.0053636/GB 小时
其他美洲区域 $0.0048783/GB 小时

欧洲

预测机器类型 SKU
vCPU
伦敦 (europe-west2) $0.0468395/vCPU 小时
其他欧洲区域 $0.0421268/vCPU 小时
RAM
伦敦 (europe-west2) $0.0062767/GB 小时
其他欧洲区域 $0.0056373/GB 小时

亚太地区

预测机器类型 SKU
vCPU
东京 (asia-northeast1) $0.0467107/vCPU 小时
新加坡 (asia-southeast1) $0.04484885/vCPU 小时
悉尼 (australia-southeast1) $0.0515844/vCPU 小时
其他亚太地区区域 $0.0421268/vCPU 小时
RAM
东京 (asia-northeast1) $0.00623185/GB 小时
新加坡 (asia-southeast1) $0.0060099/GB 小时
悉尼 (australia-southeast1) $0.00691265/GB 小时
其他亚太地区区域 $0.0056373/GB 小时

您可以选择性地使用 GPU 加速器进行预测。除上表所列费用外,GPU 会产生一笔额外的费用。下表介绍了各种 GPU 的价格:

美洲

加速器 - 每小时价格
NVIDIA_TESLA_K80
爱荷华 (us-central1) $0.5175
南卡罗来纳 (us-east1) $0.5175
NVIDIA_TESLA_P4
爱荷华 (us-central1) $0.6900
北弗吉尼亚 (us-east4) $0.6900
蒙特利尔 (northamerica-northeast1) $0.7475
NVIDIA_TESLA_P100
俄勒冈 (us-west1) $1.6790
爱荷华 (us-central1) $1.6790
南卡罗来纳 (us-east1) $1.6790
NVIDIA_TESLA_T4
俄勒冈 (us-west1) $0.4025
爱荷华 (us-central1) $0.4025
南卡罗来纳 (us-east1) $0.4025
NVIDIA_TESLA_V100
俄勒冈 (us-west1) $2.8520
爱荷华 (us-central1) $2.8520

欧洲

加速器 - 每小时价格
NVIDIA_TESLA_K80
比利时 (europe-west1) $0.5635
NVIDIA_TESLA_P4
荷兰 (europe-west4) $0.7475
NVIDIA_TESLA_P100
比利时 (europe-west1) $1.8400
NVIDIA_TESLA_T4
伦敦 (europe-west2) $0.4715
荷兰 (europe-west4) $0.4370
NVIDIA_TESLA_V100
荷兰 (europe-west4) $2.9325

亚太地区

加速器 - 每小时价格
NVIDIA_TESLA_K80
台湾 (asia-east1) $0.5635
NVIDIA_TESLA_P4
新加坡 (asia-southeast1) $0.7475
悉尼 (australia-southeast1) $0.7475
NVIDIA_TESLA_P100
台湾 (asia-east1) $1.8400
NVIDIA_TESLA_T4
东京 (asia-northeast1) $0.4255
新加坡 (asia-southeast1) $0.4255
首尔 (asia-northeast3) $0.4485
NVIDIA_TESLA_V100 不可用

价格按 GPU 数计算。因此,如果您的每个预测节点使用多个 GPU(或者您的版本在扩容后使用多个节点),那么费用会按比例增加。

AI Platform Prediction 通过运行多个虚拟机(“节点”)来使用模型进行预测。默认情况下,Vertex AI 会随时自动扩缩运行的节点数。对于在线预测,AI Platform 会根据需求量来扩缩节点数。每个节点可响应多个预测请求。对于批量预测,AI Platform 会适当扩缩节点数以减少运行作业所需的总时间。您可以自定义预测节点的扩缩方式。

您需要为模型所用的每个节点的运行时间支付费用,包括:

  • 节点处理批量预测作业的时间。
  • 节点处理在线预测请求的时间。
  • 节点处于就绪状态,可用于在线预测的时间。

一个节点运行一小时即为一个“节点时”。预测价格表列出了节点时的价格。各个区域的价格各不相同,在线预测和批量预测的价格也有差异。

节点时可按小数计费。例如,一个节点运行 30 分钟计为 0.5 节点时。

旧式 (MLS1) 机器类型和批量预测的费用计算

  • 节点的运行时间以一分钟为增量进行计算,向上取整到最接近的分钟数。例如,如果某个节点运行 20.1 分钟,则按 21 分钟计费。
  • 计量运行时长不足 10 分钟的节点的运行时间时会向上取整到 10 分钟。例如,如果某个节点仅运行 3 分钟,则按 10 分钟计费。

Compute Engine (N1) 机器类型的费用计算

  • 以 30 秒为增量计量节点的运行时间。这意味着每 30 秒,系统就会根据您的节点当时所使用的 vCPU、RAM 和 GPU 资源对您的项目收取 30 秒的相应费用。

详细了解预测节点的自动扩缩

在线预测 批量预测
扩缩的优先目标是缩短各个请求的延迟时间。处理完一个请求后,服务会让您的模型在几分钟的空闲时间里保持就绪状态。 扩缩的优先目标是减少作业的总时间。
扩缩会影响您每月的总费用:请求数越多,请求越频繁,使用的节点就越多。 尽管增派新节点需要一定的开销,但扩缩对作业价格的影响微乎其微。

您可以选择让服务根据流量(自动扩缩)进行扩缩,也可以指定不间断运行一定数量的节点以避免延迟(手动扩缩)

  • 如果选择自动扩缩,节点数量将自动扩缩。对于 AI Platform Prediction 旧版 (MLS1) 机器类型部署,无流量期间节点数可以缩减至零。Vertex AI 部署和其他类型的 AI Platform Prediction 部署无法缩减到零个节点。
  • 如果选择手动扩缩,您可以指定始终保持运行的节点数。您需要为这些节点的全部运行时间支付费用:从部署时开始,一直到您删除模型版本为止。
如需影响扩缩,您可以设置批量预测作业的最大节点数,并在部署模型时设置要保持运行的节点数。

计费时间 10 分钟起步

上文已经提过,如果某个节点的运行时间不足 10 分钟,则按 10 分钟收费。例如,假设您使用自动扩缩,在无流量的时间段内,如果您在 AI Platform Prediction 中使用旧版 (MLS1) 机器类型,则不使用任何节点。(如果您在 AI Platform Prediction 中使用其他机器类型,或使用 Vertex AI,则始终至少有一个节点在使用。)如果您收到一个在线预测请求,则系统会启动一个节点来处理该请求。请求处理完成后,该节点会在就绪状态下继续运行几分钟,然后便会停止运行。即使该节点的运行时间不足 10 分钟,您也要为该节点支付 10 节点分钟(0.17 节点时)的费用。

或者,如果系统启动了一个节点,并在 10 分钟内处理了许多个在线预测请求后随即关闭,则也按 10 节点分钟计费。

您可以使用手动扩缩设置来精确控制一定时间内运行的节点数。不过,如果某个节点的运行时间不足 10 分钟,则仍按 10 分钟收费。

详细了解节点分配和扩缩

批量预测作业在作业完成后计费

批量预测作业在作业完成后计费,而不是在作业期间递增。作业运行时不会触发您已配置的任何 Cloud Billing 预算提醒。在启动大型作业之前,请考虑先使用较小的输入数据运行一些费用基准作业。

预测计算示例

美洲地区一家房地产公司每周都会对他们营业地区的房屋价值进行预测。在一个月的四周内,他们分别运行了包含 3920427738493961 项预测的四项作业。作业仅使用一个节点,每项预测平均需要 0.72 秒的处理时间。

首先计算每项作业运行的时长:

3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes
4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes
3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes
3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes

每项作业的运行时间都超过了十分钟,因此按处理分钟数计费:

($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964

当月的总费用为 $0.26。

此示例假定作业在单个节点上运行,并且每项预测花费的时间都一致。在实际使用中,请务必在计算时考虑使用的节点数量和每个节点的实际运行时间。

Vertex Explainable AI 费用

Vertex Explainable AI 不会对预测价格收取额外费用。但解释要比正常的预测花费更长的时间,因此大量使用 Vertex Explainable AI 以及自动扩缩可能导致启动更多节点,这将增加预测费用。

Vertex AI Pipelines

Vertex AI Pipelines 的每次流水线运行费用为 $0.03。在预览版期间,您无需支付执行费用。您还需要为与 Vertex AI Pipelines 一起使用的 Google Cloud 资源付费,例如流水线组件消耗的 Compute Engine 资源(按与 Vertex AI 训练相同的费率计费)。最后,您要负责流水线调用的任何服务(例如 Dataflow)的费用。

Vertex AI Feature Store

Vertex AI Feature Store 的价格取决于在线和离线存储中的特征数据量以及在线传送的可用性。节点时数表示虚拟机花费在传送特征数据或等待就绪状态以处理特征数据请求的时间。

操作 价格
网上存储空间 每月每 GB $0.25
离线存储空间 每月每 GB $0.023
在线投放 每个节点每小时 $0.94
批量导出 每 GB $0.005

启用功能价值监控后,结算将包括上述适用费用和下列适用费用:

  • 所有已分析的数据每 GB 3.50 美元。启用快照分析后,系统会为 Vertex AI Feature Store 中的数据添加快照。启用导入功能分析功能后,会包含批量提取的数据。
  • 与特征值监控有关的其他 Vertex AI Feature Store 操作额外收费包括:
    • 快照分析功能会根据监控间隔的配置定期截取特征值的快照。
    • 快照导出的费用与常规批量导出操作的费用相同。

快照分析示例

数据科学家为其 Vertex AI 特征存储区启用特征值监控,并开启每日快照分析的监控功能。每天运行流水线以监控实体类型。流水线扫描 Vertex AI Feature Store 中的 2 GB 数据,并导出包含 0.1 GB 数据的快照。一天的分析总费用为:

(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36

提取分析示例

数据科学家为其 Vertex AI Feature Store 启用特征值监控,并为提取操作开启监控功能。提取操作会将 1GB 的数据导入 Vertex AI Feature Store。特征值监控的总费用如下:

(1 GB * $3.50) = $3.50

Vertex ML Metadata

元数据存储量是以二进制千兆字节 (GiB) 为单位计量的,其中 1 GiB 为 1073741824 个字节。此计量单位也称为 gibibyte

Vertex ML Metadata 按照每月每吉比字节 (GiB) $10 收取元数据存储的费用。

Vertex AI TensorBoard

如需使用 Vertex AI TensorBoard,您需要请求项目的 IAM 管理员为您分配角色 "Vertex AI TensorBoard Web App User&quot。Vertex AI Administrator 角色也拥有访问权限。

Vertex AI TensorBoard 每月对每个唯一身份用户收取 300 美元的费用。活跃用户数通过 Vertex AI TensorBoard 界面进行衡量。您还需要为与 Vertex AI TensorBoard 一起使用的 Google Cloud 资源付费,例如存储在 Cloud Storage 中的 TensorBoard 日志。

Vertex AI Vizier

Vertex AI Vizier 是 Vertex AI 内的一项黑盒优化服务。Vertex AI Vizier 价格模式由以下几个部分组成:

  • 使用 RANDOM_SEARCHGRID_SEARCH 进行试用时不收取任何费用。详细了解搜索算法
  • 每个日历月的前 100 次 Vertex AI Vizier 试用免费(使用 RANDOM_SEARCHGRID_SEARCH 进行的试用不计入此总数)。
  • 100 次 Vertex AI Vizier 试用后,同一日历月内的后续试用按每次试用 $1 计费(使用 RANDOM_SEARCHGRID_SEARCH 进行的试用不会产生费用)。

Vertex AI Matching Engine

Vertex AI Matching Engine Approximate Nearest Neighbor 服务的价格包含:

  • 用于托管已部署索引的每个虚拟机的每节点时价格。
  • 构建新索引和更新现有索引的费用。

在构建和更新索引期间处理的数据是以二进制千兆字节 (GiB) 为单位计量的,其中 1 GiB 为 1073741824 个字节。此计量单位也称为 gibibyte

Vertex AI Matching Engine 在所有区域中处理每吉比字节 (GiB) 数据 $3.00。

下表总结了在适用匹配引擎的每个区域中的索引传送价格。

美洲

机器类型 - 区域 - 每节点时价格
n1-standard-16
us-central1 $1.0640
us-east1 $1.0640
us-east4 $1.1984
us-west1 $1.0640
n1-standard-32
us-central1 $2.1280
us-east1 $2.1280
us-east4 $2.3968
us-west1 $2.1280

欧洲

机器类型 - 区域 - 每节点时价格
n1-standard-16
europe-west1 $1.1715
n1-standard-32
europe-west1 $2.3430

亚太地区

机器类型 - 区域 - 每节点时价格
n1-standard-16
asia-southeast1 $1.3126
n1-standard-32
asia-southeast1 $2.6252

匹配引擎价格示例

Vertex AI Matching Engine 的价格由数据大小、要运行的每秒查询次数 (QPS) 以及使用的节点数决定。如需获取估算传送费用,您需要计算总数据大小。 数据大小是嵌入/向量*的维度数*和每个维度 4 个字节*。确定数据大小后,您可以计算传送费用和构建费用。投放费用加上建筑物费用等于您的每月总费用。

  • 传送费用:# 个副本/分片 * # 个分片(约 20GB 数据大小)* $1.064/小时 * 24 小时/天 * 30 天/月
  • 构建费用:数据大小(以 GB 为单位)* $3/GB * 每月更新数量

每月索引构建费用是数据大小 * 每 GB 3.00。更新频率不会影响服务费用,只会影响构建费用。

嵌入/向量数量 维度数量 每秒查询数 (QPS) 更新频率 预计每月索引构建费用 节点 估算的每月投放费用
2000 万 128 1000 每月 $30 1 766 美元
1 亿 256 3000 每周 1200 美元 15 11491 元
5 亿 128 2 万 每周 $3000 260 199160 元
10 亿 512 5000 每月 6,000 美元 500 383000 元

所有示例均基于 us-central1 中的 n1-standard-16。您需要支付的费用取决于召回率和延迟要求。估算的每月服务费用与控制台中使用的节点数直接相关。如需详细了解影响费用的配置参数,请参阅影响召回率和延迟时间的配置参数

如果您的每秒查询次数 (QPS) 较高,则对这些查询进行批处理最多可使总费用降低 30%-40%。

Vertex AI Model Monitoring

Vertex AI 使您能够在将模型部署到生产环境后监控模型的持续有效性。如需了解详情,请参阅 Vertex AI 模型监控简介

当您使用 Vertex AI 模型监控时,您需要支付以下费用:

  • 分析的所有数据(包括提供的训练数据和记录在 BigQuery 表中的预测数据)每 GB 3.50 美元。
  • 与模型监控一起使用的其他 Google Cloud 产品的费用,例如启用归因监控时的 BigQuery 存储或 Batch Explain。

以下区域支持 Vertex AI 模型监控:us-central1europe-west4asia-east1asia-southeast1。所有区域的价格都相同。

数据大小在转换为 TfRecord 格式后进行测量。

设置 Vertex AI 模型监控作业时,训练数据集会产生一次性费用。

预测数据集由从在线预测服务收集的日志组成。当预测请求在不同的时间窗口期间到达时,每个时间窗口的数据被收集,并且为每个预测窗口分析的数据的总和用于计算费用。

示例:数据科学家对属于其模型的预测流量运行模型监控。

  • 该模型是从 BigQuery 数据集训练的。转换为 TfRecord 后的数据大小为 1.5GB。
  • 下午 1:00 - 2:00 之间记录的预测数据为 0.1 GB,下午 3:00 - 4:00 之间记录的预测数据为 0.2 GB。
  • 设置模型监控作业的总费用为:

    (1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30

Vertex AI Workbench

价格由您使用的计算和存储资源、Vertex AI Workbench 实例的管理费用以及您使用的任何其他 Google Cloud 资源组成。如需了解详情,请参阅以下部分。

计算和存储资源

计算和存储资源的费用按您当前为 Compute EngineCloud Storage 支付的费率计算。

管理费

除了基础架构用量之外,您还需要支付 Vertex AI Workbench 管理费用(如下表所示)。

请选择代管式笔记本或用户管理的笔记本以了解价格信息。

代管式笔记本

SKU 每小时管理费
vCPU 每个 vCore $0.05
T4、K80 和 P4(标准 GPU) 每个 GPU $0.35
P100、V100 和 A100 GPU(付费 GPU) 每个 GPU $2.48

用户管理的笔记本

SKU 每小时管理费
vCPU 每个 vCore $0.005
T4、K80 和 P4(标准 GPU) 每个 GPU $0.035
P100、V100 和 A100 GPU(付费 GPU) 每个 GPU $0.25

其他 Google Cloud 资源

除了前面提到的费用之外,您还需要为所使用的所有 Google Cloud 资源付费。例如:

  • 数据分析服务:当您在笔记本中发出 SQL 查询时,即会产生 BigQuery 费用(请参阅 BigQuery 价格)。

  • 客户管理的加密密钥:使用客户管理的加密密钥会产生费用。每当您的代管式笔记本或用户管理的笔记本实例使用 Cloud Key Management Service 密钥时,该操作均按 Cloud KMS 密钥操作的费率计费(请参阅 Cloud Key Management Service 价格)。

Deep Learning Containers、Deep Learning VM 和 AI Platform Pipelines

对于 Deep Learning Containers、Deep Learning VM Image 和 AI Platform Pipelines,价格根据您使用的计算和存储资源计算。这些资源的收费与您当前为 Compute EngineCloud Storage 支付的费率相同。

除了计算和存储费用外,您还需要为实际使用的所有 Google Cloud 资源付费。例如:

  • 数据分析服务:当您在笔记本中发出 SQL 查询时,即会产生 BigQuery 费用(请参阅 BigQuery 价格)。

  • 客户管理的加密密钥:使用客户管理的加密密钥会产生费用。每当您的代管式笔记本或用户管理的笔记本实例使用 Cloud Key Management Service 密钥时,该操作均按 Cloud KMS 密钥操作的费率计费(请参阅 Cloud Key Management Service 价格)。

为数据加标签

Vertex AI 允许您请求以人工方式为计划用于训练自定义机器学习模型的数据集加标签。该服务的价格根据标签任务的类型计算。

  • 对于常规标签任务,价格根据注释单元的数量决定。
    • 对于图像分类任务,单元数根据图像数量和人工标签添加者的数量决定。例如,有 3 个人工标签添加者的一个图像计为 1 * 3 = 3 个单元。单标签分类和多标签分类的价格相同。
    • 对于图像边界框任务,单元数根据图像中所标识的边界框数量和人工标签添加者的数量决定。例如,如果一个图像包含 2 个边界框和 3 个人工标签添加者,则该图像计为 2 * 3 = 6 个单元。没有边界框的图像不会产生费用。
    • 对于图像分割/旋转框/多段线/多边形任务,单元数的确定方式与图像边界框任务中的单元数确定方式相同。
    • 对于视频分类任务,单元数取决于视频时长(每 5 秒计为一个价格单元)以及人工标签添加者的数量。例如,有 3 个人工标签添加者的一个 25 秒的视频计为 25 / 5 * 3 = 15 个单元。单标签分类和多标签分类的价格相同。
    • 对于视频对象跟踪任务,单位取决于视频中标识的对象数量和人工标签添加者的数量。例如,一个视频包含 2 个对象和 3 个人工标签添加者,则此视频将计为 2 * 3 = 6 个单元。没有对象的视频不会产生费用。
    • 对于视频操作识别任务,单元数的确定方式与视频对象跟踪任务相同。
    • 对于文本分类任务,单元数取决于文本长度(每 50 个字词计为一个价格单元)和人工标签添加者的数量。例如,包含 100 个字词和 3 个人工标签添加者的一段文本计为 100 / 50 * 3 = 6 个单元。单标签分类和多标签分类的价格相同。
    • 对于文本情感任务,单元数的确定方式与文本分类任务中的单元数确定方式相同。
    • 对于文本实体提取任务,单元数取决于文本长度(每 50 个字词计为一个价格单元)、识别出的实体数量以及人工标签添加者的数量。例如,一段包含 100 个字词、2 个识别的实体和 3 个人工标签添加者的文本计为 100 / 50 * 2 * 3 = 12 个单元。没有实体的文本不会产生费用。
  • 对于图像/视频/文本分类和文本情感任务,如果标签集大小过大,人工标签添加者可能无法跟踪类别。因此,我们每次最多向人工标签添加者发送 20 个类别。例如,如果标签任务的标签集大小为 40,则每个数据项都将送交人工审核 40 / 20 = 2 次,并且我们会按上文计算得出的价格相应收取 2 次费用。

  • 对于启用了自定义标签添加者功能的标签任务,每个数据项均计为 1 个自定义标签添加者单元。

  • 对于含有由模型所生成注释的数据项的主动学习标签任务(无需人工标签添加者的帮助),每个数据项均计为 1 个主动学习单元。

  • 对于含有由人工标签添加者所生成注释的数据项的主动学习标签任务,如上所述,每个数据项均计为常规标签任务。

下表根据为每个目标列出的单元,提供了每位人工标签添加者每添加 1000 个单元的注释的价格。每个 Google Cloud 项目中每月前 5 万个单元按层级 1 的价格付费;接下来的 95 万个单元按层级 2 的价格付费,直至满 100 万个单元。 如需了解每月超过 100 万个单元时的价格,请与我们联系

数据类型 目标 单元 层级 1 层级 2
映像 分类 图像 $35 $25
边界框 边界框 $63 $49
分割 片段 $870 $850
旋转框 边界框 $86 $60
多边形/折线 多边形/折线 $257 $180
视频 分类 5 秒视频 $86 $60
对象跟踪 边界框 $86 $60
动作识别 30 秒视频中的事件 $214 $150
文本 分类 50 个单词 $129 $90
情感 50 个单词 $200 $140
实体提取 实体 $86 $60
主动学习 全部 数据项 $80 $56
自定义标签添加者 全部 数据项 $80 $56

必须使用 Cloud Storage

除了本文档中描述的成本之外,还要求您在 Vertex AI 生命周期内将数据和程序文件存储在 Cloud Storage 存储分区中。此类存储需遵循 Cloud Storage 价格政策

以下各项必须使用 Cloud Storage:

  • 为自定义训练模型暂存训练应用软件包。

  • 存储训练输入数据。

  • 存储训练作业的输出结果。 Vertex AI 不需要长期存储这些内容。操作完成后,您可以立即移除相关文件。

用于管理资源的免费操作

AI Platform 提供的资源管理操作是免费的。AI Platform 配额政策对其中一些操作设有限制。

资源 免费操作
模型 create、get、list、delete
版本 create、get、list、delete、setDefault
作业 get、list、cancel
操作 get、list、cancel、delete

Google Cloud 费用

如果您将要分析的图片存储在 Cloud Storage 中,或者在使用 Vertex AI 的同时使用其他 Google Cloud 资源,则您还需要支付使用这些服务所产生的费用。

如需在控制台中查看当前结算状态(包括使用情况和当前帐单),请参阅“结算”页面。如需详细了解如何管理您的帐号,请参阅 Cloud Billing 文档结算和付款支持

后续步骤