利用 Apigee 实现企业级生成式 AI

使用 Apigee 的 API 管理平台来管理和保护您的 AI 应用,并为开发者提供在多个云中构建 LLM API 和访问 LLM 模型的一致方式。

使用 Apigee 保护和扩缩您的 AI 应用

详细了解 Apigee 专门为 AI 解决方案的开发、无缝应用集成和有效扩缩而设计的特定 AI 功能。

支持基于企业背景信息的智能体工作流

AI 代理使用 LLM 的功能为最终用户完成任务。您可以使用各种工具来构建这些代理,例如 Agentspace 等无代码和低代码平台,以及 LangChain 或 LlamaIndex 等全代码框架。Apigee 充当 AI 应用与其代理之间的中介。

现在,借助 Apigee 中正式发布的 Gemini Code Assist,您可以在 Cloud Code 和 Gemini Chat 界面中使用自然语言快速创建 API 规范。通过 API Hub 利用组织的 API 生态系统,可提供企业上下文,用于通过嵌套对象支持和主动重复 API 检测,实现一致且安全的 API。

功能包括:

  • Apigee API Hub,用于编制第一方和第三方 API 和工作流的目录
  • 强制实施 token 限额,以控制费用
  • 多代理编排
  • 身份验证和授权
  • 语义缓存,以优化性能
  • 通过企业上下文中生成 API 规范(使用 Gemini Code Assist)



确保 AI 应用的性能和高可用性

Apigee 可为 AI 应用提供深入的可观测性,帮助您管理和优化生成式 AI 费用,并高效管理组织的 AI 使用情况。

功能包括:

  • 查看模型使用情况和应用 token 使用情况
  • 内部费用报告和优化
  • 自定义信息中心,可根据实际 token 数量监控使用情况(通过与 Looker Studio 集成)
  • AI 应用的日志记录

保护 LLM API,同时保护最终用户和您的品牌

Apigee 充当 LLM API 的安全网关,让您可以使用 API 密钥、OAuth 2.0 和 JWT 验证来控制访问权限,并通过实施速率限制和配额来防止滥用和过载。Apigee Advanced API Security 可提供更高级的保护。

功能:

  • Model Armor 集成和政策执行,以对提示和回答进行清理
  • 身份验证和授权
  • 滥用和异常检测
  • 防范 OWASP 十大 API 和 LLM 安全风险
  • LLM API 安全错误配置检测
  • Google SecOps 与第三方 SIEM 集成




您的 API 生态系统是否准备好采用生成式 AI?

利用我们强大的 API 管理平台简化开发并加快模型部署。

适合您的应用场景的 Apigee AI 解决方案

使用 Apigee 管理 AI 应用

管理开发者在多个云中访问 LLM 模型的权限,并了解模型使用情况和 token 消耗情况,以便进行费用报告和优化。

使用 Apigee 保护 AI 应用

将 Apigee 用作 Model Armor 提示和回答清理的政策实施点,并降低 OWASP LLM 和 API 十大安全风险。

使用 Apigee 监控 AI 应用

创建自定义信息中心来近乎实时地监控 LLM API,确保它们可用并按预期运行,以维持不间断的服务。

利用 Apigee 实现 AI 应用变现

添加费率方案,以便向使用您 AI 应用的 API 的开发者收费;配置费率方案,以便与开发者分享您的 API 收益。

准备好发掘生成式 AI 的全部潜力了吗?

使用 Apigee 为您的解决方案发掘生成式 AI 的潜力。利用 Apigee 强大的运维功能,放心地构建安全、可伸缩且优化的部署。

准备好开始了吗?查看我们的 Apigee 生成式 AI 示例页面