Google Cloud 提供一系列产品和工具,支持构建生成式 AI 应用的整个生命周期。

了解如何构建生成式 AI 应用

Vertex AI 上的生成式 AI

访问 Google 的大型生成式 AI 模型,以便对其进行测试、调优和部署,从而在依托 AI 技术的应用中使用。

Gemini 快速入门

了解通过 Google Cloud 的 AI-ML 平台 Vertex AI 向 Gemini API 发送请求的效果。

为您的生成式 AI 应用选择基础设施

选择最适合您的用例的产品和工具,以及获取入门所需的文档。

何时使用生成式 AI

确定生成式 AI、传统 AI 或两者的组合是否适合您的业务应用场景。

开发生成式 AI 应用

了解如何应对开发生成式 AI 应用的各个阶段的挑战。

代码示例和示例应用

查看常见用例的代码示例和生成式 AI 应用的部署示例,这些示例安全、高效、弹性佳、高性能且经济实惠。

模型探索和托管

Google Cloud 通过 Vertex AI 提供一组先进的基础模型,包括 Gemini。您还可以将第三方模型部署到 Vertex AI Model Garden 或者在 GKE 或 Compute Engine 上自行托管。

Vertex AI 上的 Google 模型(Gemini、Imagen)

从机器学习模型库中发现、测试、自定义和部署 Google 模型和资产。

Vertex AI Model Garden 中的其他模型

从机器学习模型库中发现、测试、自定义和部署部分 OSS 模型和资产。

通过 HuggingFace 提供的文本生成模型

了解如何将 HuggingFace 文本生成模型部署到 Vertex AI 或 Google Kubernetes Engine (GKE)。

GKE 上的 AI/机器学习编排

GKE 可高效地编排 AI/ML 工作负载,支持使用 GPU 和 TPU 进行可伸缩的生成式 AI 训练和服务。

Compute Engine 上的 GPU

将 GPU 关联到虚拟机实例,以加速 Compute Engine 上的生成式 AI 工作负载。

提示设计和工程

提示设计是编写提示和回答对的过程,为语言模型提供额外的上下文和指令。编写提示后,您可以将其作为提示数据集提供给模型以进行预训练。当模型执行预测时,它会使用内置的指令做出回答。

Vertex AI Studio

设计、测试和自定义发送至 Google 的 Gemini 和 PaLM 2 大语言模型 (LLM) 的提示。

提示策略概览

了解提示工程流程以及您可以用来影响模型响应的常见策略。
查看特定用例的示例提示和回答。

建立依据和 RAG

“建立依据”是指将 AI 模型与数据源相关联,以提高响应的准确性并减少幻觉。“RAG”RAG是一种常见的“建立依据”技术,它会搜索相关信息并将其添加到模型的提示中,以确保输出基于事实和最新信息。

Vertex AI 依据

您可以使用 Google 搜索或使用您自己存储在 Vertex AI Search 中的数据为 Vertex AI 模型建立依据。
使用“使用 Google 搜索建立依据”功能,可将模型与互联网上的最新知识相关联。

AlloyDB 中的矢量嵌入

使用 AlloyDB 生成和存储向量嵌入,然后使用 pgvector 扩展程序对嵌入进行索引编入和查询。

Cloud SQL 和 pgvector

将向量嵌入存储在 Postgres SQL 中,然后使用 pgvector 扩展程序对嵌入进行索引编入和查询。

将 BigQuery 数据集成到 LangChain 应用中

使用 LangChain 从 BigQuery 中提取数据,然后丰富模型响应并建立依据。

Firestore 中的向量嵌入

从 Firestore 数据创建向量嵌入,然后对嵌入进行索引编入和查询。

Memorystore (Redis) 中的向量嵌入

使用 LangChain 从 Memorystore 中提取数据,然后丰富模型响应并建立依据。

代理和函数调用

借助代理,您可以轻松设计出对话式界面并将其集成到您的移动应用中,而函数调用则可扩展模型的功能。

Vertex AI Agent Builder

利用 Google 的基础模型、搜索专业知识和对话式 AI 技术以打造企业级生成式 AI 应用。

Vertex AI 函数调用

向模型添加函数调用,以启用根据提取的日历信息进行预订等操作。

模型自定义和训练

专业任务(例如,针对特定术语训练语言模型)可能需要的训练比仅使用提示设计或建立依据的训练更多。在这种情况下,您可以使用模型调优来提高性能,也可以训练自己的模型。

在 Vertex AI 中评估模型

在 Vertex AI 上评估基础模型和经过调优的生成式 AI 模型的性能。

调优 Vertex AI 模型

通用基础模型可以通过调优来提高其在特定任务上的表现。

Cloud TPU

TPU 是 Google 自定义开发的 ASIC,用于加速机器学习工作负载,例如训练 LLM。

开始构建

LangChain 是一个适用于生成式 AI 应用的开源框架,使您可以将上下文构建到提示中,并根据模型的回答采取行动。
查看常见用例的代码示例和生成式 AI 应用的部署示例,这些示例安全、高效、弹性佳、高性能且经济实惠。