AI 和机器学习

Google Cloud AI 和 机器学习产品的文档和资源,涵盖平台、预训练模型以及用于构建智能应用的工具。

  • 体验 Gemini 2.0 Flash Thinking
  • 免费使用热门产品(包括 AI API 和 BigQuery)的每月用量
  • 不会自动收费,无需承诺

继续探索 20 多种提供“始终免费”用量的产品

使用适用于常见应用场景(包括 AI API、虚拟机、数据仓库等)的 20 多种免费产品。

探索 Google Cloud中的 AI 和机器学习

阅读有关 AI 和机器学习产品、功能和流程的文档和 Cloud Architecture Center 文章。

Vertex AI 上的机器学习简介

在统一平台上支持数据工程、数据科学和机器学习工程工作流,使您能够训练机器学习模型并部署 AI 解决方案。

AI 和机器学习架构资源

利用涵盖各种 AI 和机器学习主题的架构中心资源规划您的方法。(转到架构中心。)

实现机器学习的最佳实践

规划机器学习的实现,重点关注基于数据和代码的自定义训练模型。(转到架构中心。)

培训、博文等

转到培训课程、博文和其他相关资源。

“应用 AI 峰会”学习路线

在 Google Cloud中学习 Vertex AI 和 Gemini。(转到 Google Cloud Skills Boost。)

Machine Learning Engineer 学习路线

学习机器学习系统的设计、构建、生产化、优化、运营和维护工作。(转到 Google Cloud Skills Boost。)

AI 和机器学习产品(按应用场景)

展开各个部分或使用过滤条件查找适用于典型使用场景的产品和指南。

构建具有企业级扩缩能力、安全性和可观测性的 AI 应用。

在应用中集成视觉检测功能,包括图像标记、人脸检测和地标检测、光学字符识别 (OCR) 以及露骨内容标记。
使用户能够在整个视频、每个片段、每个镜头和每帧级别使用上下文信息为本地存储、Cloud Storage 中存储或直播中的视频添加注释。
使用自然语言理解技术,包括情感分析、实体分析、实体情感分析、内容分类和语法分析。
提供实时预测和异常值检测结果。
从机器学习模型库中发现、测试、自定义和部署部分 OSS 模型和资产。

运用 Google 先进的功能来处理您的对话、语音和客户服务需求。

让最终用户能够使用由大语言模型提供支持的虚拟数据存储区代理来讨论内容。
利用机器学习技术将文字转换为自然的语音。
将 Google 语音识别技术集成到开发者应用中。
将 Google 语音识别技术集成到您的本地解决方案中。
在嵌入式设备上提供服务器质量级别的语音技术。
检测并直观呈现联络中心数据中的模式。
跨语音和数字渠道将客户互动排入队列并将路由到相应的资源池,包括可以无缝转换到人工客服。
使用能够理解人类语言细微差异的虚拟客服,与最终用户同时进行对话。
设计对话式界面并将其集成到您的移动应用、Web 应用、设备、聊天机器人、交互式语音响应系统等平台中。
在人工客服人员接听电话期间,通过识别意图并提供实时的逐步协助,为人工客服人员提供持续支持。
一套基于云的 AI 代理,由 Google 品质的搜索技术和 Gemini 的高级功能提供支持,可转变知识工作的模式。
设计人员和开发者都可以使用的一系列对话式 AI 工具、解决方案和 API。

运用 Google 先进的功能来处理您的文档管理需求。

将文档中的非结构化数据转换为结构化数据,使数据更易于理解、分析和使用。
按解决方案类型查看所有处理器的列表。
将 Google 光学字符识别 (OCR) 技术集成到您的本地解决方案中。 (已弃用)
存储、搜索、整理、治理和分析文档及其名为属性的结构化元数据。 (已弃用)

运用 Google 先进的功能来满足您的行业特有的需求。

借助 AI 更快、更准确地检测可疑的潜在洗钱活动。
快速大规模解决运营优化问题。
将机器学习技术融入职位搜索体验的服务,可为求职者提供高质量的搜索结果,远超基于关键字的典型方法极限。
使通信服务提供商能够提取信息以向电信客户推荐措施。
注入用户事件和目录数据,并在您的网站上提供预测或搜索结果。
利用创新技术和数据洞见来提升受众体验。(转到 Google Cloud 首页。)

运用 Google 先进的功能来满足您的视频、图片、视觉和增强现实需求。

转换实时视频,并将其打包以进行流式传输。
转换并打包视频文件,以优化向 Web、移动设备和联网电视的视频传输。
大规模处理和分析视频串流及图片。使用内置的低代码界面快速构建应用并将其部署到 Google Cloud。
将广告动态插入视频点播和直播。
利用云计算能力,为更多设备提供丰富的交互式 3D 和增强现实 (AR) 体验。

运用 Google 先进的功能来满足您的搜索和推荐需求。

基于您自己的数据提供 Google 品质的搜索应用,使用您网页或应用中的搜索栏来了解用户意图并为他们返回最相关的结果和建议。
执行向量相似度搜索,进而能够高效、准确地搜索大量数据。
将孤立的信息整理成组织知识,包括以高效且有用的方式对数据进行整合、标准化和调整。

运用 Google 先进的功能来处理您的对话、语音和客户服务需求。

通过网站和应用中的 API 以编程方式动态翻译文本,包括文档翻译、自定义翻译、自适应翻译、音译和拼音化。
将大量文档翻译成多种不同语言,而无需构建或维护自己的 Web 应用或底层基础设施。

使用 AutoML 或您偏好的机器学习框架,根据您的数据训练机器学习模型。

利用 Vertex AI,您可以通过简单的流程和界面使用表格数据执行机器学习。
使用机器学习分析图片数据的内容,以便对图片数据进行分类或查找图片数据中的对象。
分析视频数据,以对镜头和片段进行分类,或检测和跟踪视频数据中的多个对象。
训练机器学习模型,对文本数据进行分类、提取信息或了解作者的情感。
将大规模模型训练付诸使用。
根据准确率、延迟时间、内存、这些指标的组合或自定义指标,搜索最佳神经架构。
为您的机器学习 (ML) 工作流执行分布式计算和并行处理。
使用一组预先安装了关键数据科学框架、库和工具的 Docker 容器,为您提供优化了性能的一致环境,帮助您快速为工作流设计原型并加以实施。
使用针对数据科学和机器学习任务进行了优化的虚拟机器映像,其中预安装了关键机器学习框架和工具,可加快数据处理任务。

运用运营最佳实践来监控和改进已部署的机器学习模型。

使用托管式数据集提供用于在 Vertex AI 上训练 AutoML 和自定义模型的源数据。
在 BigQuery 表中管理特征数据或直接从 BigQuery 数据源在线查看并传送特征,从而简化机器学习特征管理和在线传送流程。
在 Vertex AI 上获取模型的预测结果。
使用具有 Google Cloud安全与合规性功能的托管式协作笔记本环境。
TensorFlow 企业版为用户提供了一套产品和服务,可提供企业级支持和云规模性能,从而简化了在 Google Cloud上开发和部署 TensorFlow 模型。
使用由 Google 托管的环境,该环境具有的集成和功能可帮助您在基于 Jupyter 笔记本的端到端生产环境中进行设置和工作。 (已弃用)
使用预装有最新数据科学和机器学习框架的集成式 JupyterLab 环境,供数据科学家和机器学习开发者进行实验、开发模型以及将模型部署到生产环境。 (已弃用)
跟踪和分析不同的模型架构、超参数和训练环境,让您跟踪实验运行的步骤、输入和输出,并评估模型在测试数据集上以及在训练运行期间的总体性能。
获取基于特征和基于样本的解释,以更好地理解模型决策。
为表格 AutoML 和表格自定义训练模型的模型预测输入数据中的特征偏差和偏移提供模型监控。
使用模型评估指标(例如精确率和召回率)确定模型的性能。
跟踪、直观呈现和比较机器学习实验,并与您的团队分享。
使用机器学习流水线编排机器学习工作流,以无服务器的方式自动运行、监控和管理机器学习系统。
管理机器学习模型的生命周期。

加快机器学习工作负载的速度。

通过从 Compute Engine、Google Kubernetes Engine 和 Vertex AI 访问张量处理单元 (TPU),加快机器学习工作负载的速度。

展开此部分可查看相关产品和文档。

一种超级计算机架构,采用系统级代码签名,可提升 AI 训练、调优及服务的成效和效率。
Google Cloud 提供一系列产品和工具,支持构建生成式 AI 应用的整个生命周期。
寻找面向金融服务、医疗保健、媒体和零售业的 API 和其他解决方案。
提供始终在线的协作工具,为众多 Google Cloud 用户(包括开发者、数据科学家和操作员)提供依托生成式 AI 技术的协助。
以大幅提升的速度和规模,基于结构化数据自动构建和部署先进的机器学习模型。 (已弃用)
快速、经济高效地将您的机器学习项目从构思阶段推进到生产和部署阶段。 (已弃用)