Spanner Vertex AI 集成简介

本页面简要介绍了 Spanner Vertex AI 集成。

Spanner Vertex AI 集成可帮助您通过 GoogleSQL 接口访问托管在 Vertex AI 上的分类器和回归机器学习模型。这有助于将机器学习预测传送功能与使用 DQL/DML 查询执行的常规 Cloud Spanner 数据访问操作无缝集成。

Spanner Vertex AI 集成与 BigQuery ML 共用相同的 SQL 语法,即使仅支持部分 BigQuery ML 语法也是如此。

Spanner Vertex AI 集成的优势

与单独执行 Cloud Spanner 数据访问和访问 Vertex AI 预测端点的方法相比,使用 Spanner Vertex AI 集成生成机器学习预测具有多种优势:

  • 性能:
    • 缩短延迟时间:与 Vertex AI 服务通信的 Spanner Vertex AI 集成直接消除了运行 Cloud Spanner 客户端的计算节点与 Vertex AI 服务之间的额外往返。
    • 更高的吞吐量/并行性:Spanner Vertex AI 集成在 Cloud Spanner 的分布式查询处理基础架构上运行,该基础架构支持高度可并行的查询执行。
  • 用户体验:
    • 通过使用单一、简单、一致且熟悉的 SQL 界面,在 Cloud Spanner 规模级别上为数据转换和机器学习服务场景提供支持可以降低机器学习入门门槛,并提供更顺畅的用户体验。
  • 费用:
    • Spanner Vertex AI 集成使用 Cloud Spanner 计算容量来合并机器学习计算和 SQL 查询执行的结果,因此无需为此预配额外的计算(例如,在 Compute Engine 或 Google Kubernetes Engine 中)。

Spanner Vertex AI 集成的工作原理是什么?

Spanner Vertex AI 集成不托管机器学习模型,而是依赖于 Vertex AI 服务基础架构。对于要与 Spanner Vertex AI 集成一起使用的模型,它应该已经过训练并部署到 Vertex AI。

Spanner Vertex AI 集成也没有提供任何特殊的机器学习训练功能。要利用存储在 Cloud Spanner 中的数据训练模型,您可以使用以下任一方法:

在 Vertex AI 服务中部署模型后,数据库所有者可以使用 CREATE MODEL DDL 语句注册此模型。之后,可以从 ML.PREDICT 函数引用模型以生成预测。

有关使用 Spanner Vertex AI 集成的教程,请参阅使用 SQL 生成机器学习预测

价格

Cloud Spanner 不会对使用 Spanner Vertex AI 集成收取额外费用。不过,此功能可能会产生其他费用:

  • 您需要按标准费率支付 Vertex AI 在线预测的费用。总费用取决于您使用的模型类型。某些模型类型采用固定的每小时费率,具体取决于您使用的机器类型和节点数。某些模型类型具有按通话费率。我们建议您在已设置明确预测配额的专用项目中部署后者。

  • 对于 Cloud Spanner 与 Vertex AI 之间的数据传输,您需按标准费率付费。总费用取决于托管执行查询的服务器的区域和托管被调用端点的区域。为尽可能降低费用,请在 Cloud Spanner 实例所在的区域中部署 Vertex AI 端点。使用多区域实例配置或多个 Vertex AI 端点时,请在同一大洲部署端点。

服务等级协议

由于 Vertex AI 在线预测可用性较低,您必须正确配置 Cloud Spanner 机器学习模型,以便在使用 Spanner Vertex AI 集成时保持 Cloud Spanner 的高可用性

  1. Cloud Spanner 机器学习模型必须在后端使用多个 Vertex AI 端点以启用故障切换。
  2. Vertex AI 端点必须符合 Vertex AI SLA
  3. Vertex AI 端点必须预配足够的容量来处理传入流量。
  4. Vertex AI 端点必须使用靠近 Cloud Spanner 数据库的单独区域,以避免区域性服务中断。
  5. Vertex AI 端点应使用单独的项目,以避免每个项目的预测配额出现问题。

冗余 Vertex AI 端点的数量取决于其服务等级协议 (SLA) 以及 Cloud Spanner 查询中的行数:

Spanner 服务等级协议 (SLA) VertexAI 服务等级协议 (SLA) 1 行 10 行 100 行 1,000 行
99.99% 99.9% 2 2 2 3
99.99% 99.5% 2 3 3 4
99.999% 99.9% 2 2 3 3
99.999% 99.5% 3 3 4 4

Vertex AI 端点不需要托管完全相同的模型。我们建议您配置 Cloud Spanner 机器学习模型,将主要的复杂计算密集型模型作为其第一个端点。后续的故障切换端点可以指向计算密集型程度更低、扩缩能力更强并且可以吸收流量高峰的简化模型。

法规遵从

Assured Workloads 不支持 Vertex AI Prediction API。启用资源使用限制限制条件会停用 Vertex AI API,实际上会停用 Spanner Vertex AI 集成功能。

此外,我们建议您创建 VPC Service Controls 边界,以确保生产数据库无法连接到可能具有适当合规性配置的非生产项目中的 Vertex AI 端点。