-
注释集
- 注释集包含与数据集中上传的源文件关联的标签。注释集与数据类型和目标(例如视频/分类)相关联。
-
API 端点
- API 端点是一个服务配置层面,用于指定网络地址(也称为服务端点,例如 aiplatform.googleapis.com)。
-
应用默认凭据 (ADC)
- 应用默认凭据 (ADC) 提供了一种简单的方法来获取用于调用 Google API 的授权凭据。如果在调用时,应用需要与用户无关的一致身份和授权级别,则最适合使用应用默认凭据。这是向 Google Cloud API 调用授权的推荐方法,尤其适合在构建部署于 Google App Engine (GAE) 或 Compute Engine 虚拟机的应用时使用。如需了解详情,请参阅应用默认凭据的工作原理。
-
近似最邻近 (ANN)
- 近似最邻近 (ANN) 服务是一项大规模、低延迟的解决方案,可用于针对大型语料库查找类似向量(更具体地说,是“嵌入”)。 如需了解详情,请参阅如何使用向量搜索进行语义匹配。
-
工件
- 工件是机器学习工作流生成和使用的离散实体或数据块。工件的示例包括数据集、模型、输入文件和训练日志。
-
Artifact Registry
- Artifact Registry 是通用的工件管理服务。它是在 Google Cloud 上管理容器和其他工件时推荐使用的服务。如需了解详情,请参阅 Artifact Registry。
-
人工智能 (AI)
- 人工智能(或 AI)是指研究和设计看似“智能”的机器,即模仿机械运动、推理或问题解决等人类或智力功能的机器。AI 最热门的子领域之一是机器学习,它使用统计和数据驱动的方法来创建 AI。不过,有些人会将这两个术语互换使用。
-
身份验证
- 此过程验证客户端(可能是用户或其他进程)的身份,以便获得对受保护系统的访问权限。已证明其身份的客户端即被认定为已通过身份验证。如需了解详情,请参阅 Google 的身份验证方法。
-
自动并排评估 (AutoSxS)
- 自动并排评估 (AutoSxS) 是一种模型辅助评估工具,用于并排比较两个大语言模型 (LLM)。它可用于评估 Vertex AI Model Registry 中的生成式 AI 模型或预生成的预测的性能。AutoSxS 使用自动评估器来决定哪个模型能更好地响应提示。AutoSxS 是按需提供的,用于评估语言模型,与人工标注者的评估效果相当。
-
AutoML
- 通过黑盒优化“学会学习”的机器学习算法。如需了解详情,请参阅机器学习术语表。
-
自动评估器
- 自动评估器是一种语言模型,可根据原始推理提示评估模型回答的质量。它在 AutoSxS 流水线中用于比较两个模型的预测结果,并确定哪个模型的效果最好。如需了解详情,请参阅自动评估器。
-
baseline
- 一种模型,用作比较另一个模型(通常是更复杂的模型)效果时的参考点。例如,逻辑回归模型可以作为深度模型的良好基准。对于特定问题,基准有助于模型开发者量化新模型必须达到的最低预期性能,以便新模型发挥作用。如需了解详情,请参阅基准数据集和目标数据集。
-
批次
- 在一次训练迭代中使用的一组示例。批处理大小决定了批处理中的示例数量。
-
批次大小
- 一个批次中的样本数。例如,Stochastic Gradient Descent(随机梯度下降)的批次大小为 1,而小批次的批次大小通常介于 10 到 1000 之间。批次大小在训练和推断期间通常是固定的;不过,TensorFlow 允许使用动态批次大小。
-
批量预测
- 批量预测会接受一组预测请求,并将结果输出到一个文件中。如需了解详情,请参阅获取批量预测结果。
-
偏见
- 1. 对某些事物、人或群体持有刻板印象、成见或好感。这些偏见会影响数据的收集和解读、系统设计以及用户与系统的互动方式。2. 采样或报告过程中引入的系统错误。
-
双向
- 用于描述一种系统,该系统会评估目标文本部分前后文本。与之相反,单向系统仅评估目标文本部分之前的文本。
-
基于 Transformer 的双向编码器表示法 (BERT)
- BERT 是预训练语言表示法的一种方法,这意味着我们会使用大型文本语料库(例如维基百科)训练通用的“语言理解”模型,然后将该模型用于我们关注的下游 NLP 任务(例如问答)。BERT 的表现优于之前的方法,因为它是第一个用于预训练 NLP 的无监督深度双向系统。
-
双语替换评测 (BLEU)
- 一种常用的衡量指标,用于将机器翻译算法的输出与一个或多个人工译文进行比较,以评估其质量。
-
边界框
- 视频帧中对象的边界框可通过以下两种方式之一指定:(i) 使用 2 个包含一组 x、y 坐标的顶点(如果这些点与矩形的对角线相对)。例如:x_relative_min、y_relative_min 以及 x_relative_max、y_relative_max (ii) 使用全部 4 个顶点。如需了解详情,请参阅准备视频数据。
-
存储桶
- Cloud Storage 的顶级文件夹。存储桶名称必须在所有 Cloud Storage 用户中保持唯一。存储桶包含文件。如需了解详情,请参阅 Cloud Storage 产品概览。
-
聊天
- 与机器学习系统(通常是大语言模型)进行的来回对话内容。对话中的前一次互动(您输入的内容以及大语言模型的回答方式)会成为对话后续部分的上下文。聊天机器人是大语言模型的一种应用。
-
checkpoint
- 捕获模型参数在训练期间或训练完成后的状态的数据。例如,在训练期间,您可以:1. 停止训练,可能是有意为之,也可能是由于某些错误。2. 捕获检查点。3. 稍后,重新加载检查点(可能在其他硬件上)。4. 重新开始训练。在 Gemini 中,检查点是指基于特定数据集训练的 Gemini 模型的特定版本。
-
分类模型
- 预测结果为类的模型。例如,以下都是分类模型:一个模型,用于预测输入句子的语言(法语?西班牙语?意大利语?)。一个模型,用于预测树种(枫树?橡树?Baobab?)。用于预测特定疾病的正类别或负类别的模型。
-
分类指标
- Python 版 Vertex AI SDK 中支持的分类指标是混淆矩阵和 ROC 曲线。
-
Cloud TPU
- 一种专门的硬件加速器,旨在加速 Google Cloud 上的机器学习工作负载。
-
容器映像
- 容器映像是一个软件包,其中包含组件的可执行代码和代码运行环境的定义。如需了解详情,请参阅自定义训练概览。
-
上下文
- 上下文用于将工件和执行分组到单个可查询的类型化类别下。上下文可用于表示元数据集。例如,上下文可以是机器学习流水线的运行。
-
上下文缓存
- Vertex AI 中的上下文缓存是指可在对 Gemini 模型的多次请求中使用的大量数据。缓存的内容存储在发出创建缓存请求的区域中。它可以是 Gemini 多模态模型支持的任何 MIME 类型,例如文本、音频或视频。如需了解详情,请参阅上下文缓存概览。
-
上下文窗口
- 模型在给定提示中可以处理的令牌数量。上下文时段越长,模型可以使用的信息就越多,从而为问题提供连贯一致的回答。
-
客户管理的加密密钥 (CMEK)
- 客户管理的加密密钥 (CMEK) 是一项集成功能,可让客户使用其在 Cloud KMS 中管理的密钥(也称为 Storky)加密现有 Google 服务中的数据。Cloud KMS 中的密钥是用于保护其数据的密钥加密密钥。 如需了解详情,请参阅客户管理的加密密钥 (CMEK)。
-
CustomJob
- CustomJob 是用户可创建的三种 Vertex AI 资源之一,可用于在 Vertex AI 上训练自定义模型。自定义训练作业是在 Vertex AI 中运行自定义机器学习 (ML) 训练代码的基本方法。如需了解详情,请参阅创建自定义训练作业。
-
Dask
- Dask 是一个分布式计算平台,通常与 TensorFlow、Pytorch 和其他机器学习框架搭配使用,用于管理分布式训练作业。如需了解详情,请参阅 Wikipedia。
-
数据分析
- 根据样本、测量结果和可视化内容理解数据。数据分析在首次收到数据集时且构建第一个模型之前特别有用。此外,数据分析在理解实验和调试系统问题方面也至关重要。
-
数据增强
- 通过转换现有样本创建其他样本,人为地增加训练样本的范围和数量。例如,假设图像是其中一个特征,但数据集包含的图像样本不足以供模型学习有用的关系。理想情况下,您需要向数据集添加足够的有标签图像,才能使模型正常训练。如果不可行,则可以通过数据增强旋转、拉伸和翻转每张图像,以生成原始照片的多个变体,这样可能会生成足够的有标签数据来实现很好的训练效果。
-
DataFrame
- 一种热门的 Pandas 数据类型,用于表示内存中的数据集。DataFrame 类似于表格或电子表格。DataFrame 的每一列都有一个名称(标题),每一行都由一个唯一的数字标识。DataFrame 中的每一列的结构都与二维数组类似,但每列可以分配自己的数据类型。
-
dataset(数据集)
- 数据集被广泛定义为结构化或非结构化数据记录的集合。 一组原始数据,通常(但不限于)采用以下格式之一进行整理:电子表格、CSV(逗号分隔值)格式的文件。有关详情,请参阅创建数据集
-
解码器
- 一般来说,任何从经过处理的密集或内部表示法转换为更原始、稀疏或外部表示法的机器学习系统。解码器通常是较大模型的组件,通常与编码器搭配使用。在序列到序列任务中,解码器从编码器生成的内部状态开始预测下一个序列。
-
深度神经网络 (DNN)
- 具有多个隐藏层的神经网络,通常通过深度学习技术进行编程。
-
depth
- 神经网络中以下各项的总和:1. 隐藏层数 2. 输出层数(通常为 1)3. 任何嵌入层数。例如,具有 5 个隐藏层和 1 个输出层的神经网络的深度为 6。请注意,输入层不会影响深度。
-
DevOps
- DevOps 是一套 Google Cloud Platform 产品,例如 Artifact Registry、Cloud Deploy。
-
早停法
- 一种正则化方法,涉及在训练损失完成下降之前结束训练。在早停法中,当验证数据集上的损失开始增加(即泛化性能恶化)时,您会刻意停止训练模型。
-
embedding
- 字词或文本片段的数值表示法。这些数字捕获了文本的语义含义和上下文。相似或相关的字词或文本往往具有类似的嵌入,这意味着它们在高维向量空间中彼此更靠近。
-
嵌入空间(潜在空间)
- 在生成式 AI 中,嵌入空间是指文本、图片或视频的数值表示法,用于捕获输入之间的关系。机器学习模型(尤其是生成式 AI 模型)擅长通过识别大型数据集中的模式来创建这些嵌入。应用可以利用嵌入来处理和生成语言,识别特定于内容的复杂含义和语义关系。
-
嵌入矢量
- 项的密集矢量表示(通常是低维),如果两项在语义上相似,则它们的相应嵌入在嵌入矢量空间中彼此接近。
-
编码器
- 一般来说,任何从原始、稀疏或外部表示法转换为经过更多处理、更密集或更内部表示法的机器学习系统。编码器通常是较大模型的组件,通常与解码器搭配使用。有些转换器会将编码器与解码器搭配使用,但有些转换器只使用编码器或只使用解码器。有些系统会将编码器的输出用作分类或回归网络的输入。在序列到序列任务中,编码器接受输入序列并返回内部状态(一个矢量)。然后,解码器使用该内部状态来预测下一个序列。
-
集成学习
- 一组独立训练的模型,其预测结果会被平均或汇总。在许多情况下,与单个模型相比,集成模型的预测结果更准确。例如,随机森林是从多个决策树构建的集成学习。请注意,并非所有决策树都是集成模型。
-
环境
- 在强化学习中,包含代理并允许代理观察该世界的状态。例如,所表示的世界可以是象棋这样的游戏,也可以是迷宫这样的现实世界。当代理对环境应用操作时,环境会在状态之间转换。
-
评估
- 评估是一种实验,其中记录的或合成的查询会通过两个搜索堆栈发送:一个包含您所做的更改的实验堆栈,以及一个不包含您所做的更改的基准堆栈。评估会生成差异和指标,以便您评估更改对搜索结果和 Google 用户体验的其他部分的影响、质量和其他影响。在对更改进行调整或迭代期间,系统会使用评估。它们还可用于对真实用户流量进行更改。
-
事件
- 事件描述了工件和执行之间的关系。每个工件可以由执行生成,并可供其他执行使用。事件将工件和执行链接在一起,以帮助您确定机器学习工作流中工件的来源。
-
执行
- 执行是单个机器学习工作流步骤的记录,通常带有其运行时参数注释。例如,执行可以是数据注入、数据验证、模型训练、模型评估和模型部署。
-
实验
- 实验是一个上下文,其中包含流水线运行作业以及一组 n 个实验运行作业,用户可以在其中集中调查不同的配置,如输入工件或超参数。
-
实验运行作业
- 实验运行作业可以包含用户定义的指标、参数、执行、工件和 Vertex 资源(例如 PipelineJob)。
-
探索性数据分析
- 在统计学中,探索性数据分析 (EDA) 是一种分析数据集的方法,用于汇总其主要特征(通常使用可视化方法)。并非必须使用统计模型,但 EDA 主要用于了解数据在正式建模或假设测试任务之外还可以告诉我们什么。
-
F1 得分
- F1 得分是一种用于评估模型输出准确性的指标。它对于评估模型在精确率和召回率都很重要的任务(例如信息提取)上的性能特别有用。对于生成式 AI 模型,F1 得分可用于将模型的预测结果与标准答案数据进行比较,以确定模型的准确性。不过,对于摘要和文本生成等生成任务,Rough-L 得分等其他指标可能更合适。
-
特征
- 在机器学习 (ML) 中,特征是指实例或实体(用作训练机器学习模型或进行预测的输入)的特点或属性。
-
特征工程
- 特征工程是指将原始机器学习 (ML) 数据转换为可用于训练机器学习模型或进行预测的特征的过程。
-
特征组
- 特征组是指与包含特征数据的 BigQuery 源表或视图对应的特征注册表资源。特征视图可能包含特征,可视作数据源中特征列的逻辑分组。
-
特征记录
- 特征记录是所有特征值的聚合,用于描述特定时间点的唯一实体属性。
-
特征注册表
- 特征注册表是一个中央界面,用于记录您要用于在线预测的特征数据源。 如需了解详情,请参阅特征注册表设置。
-
特征传送
- 特征传送是导出或提取存储特征值以用于训练或推理的过程。在 Vertex AI 中,有两种类型的特征传送:在线传送和离线传送。在线传送检索部分特征数据源的最新特征值来进行在线预测。离线或批量传送则是导出大量特征数据(包括历史数据)进行离线处理,例如机器学习模型训练。
-
特征时间戳
- 特征时间戳指示实体的特定特征记录中一组特征值的生成时间。
-
特征值
- 特征值对应于实例或实体的特征(属性)的实际可衡量值。唯一实体的特征值集合表示与该实体对应的特征记录。
-
特征视图
- 特征视图是从 BigQuery 数据源具体化为在线存储区实例的特征的逻辑集合。特征视图会存储并定期刷新客户的特征数据,这些数据会定期从 BigQuery 源刷新。特征视图通过与特征注册表资源关联来与特征数据存储空间关联或直接与其关联。
-
基础模型 (FM)
- 利用广泛的数据进行训练的模型,可适应各种下游任务(例如,进行微调)。
-
基础模型操作 (FMOPs)
- FMOps 扩展了 MLOps 的功能,专注于高效地将预训练(从头开始训练)或自定义(微调)的 FM 投入生产。
-
更新的
- 在生成式 AI 的上下文中,“生成”是指根据现有数据或信息创建新数据或内容的过程。生成式 AI 模型使用大型数据集进行训练,可以学习数据中的模式和关系。然后,它们可以使用这些知识生成与训练数据类似但不完全相同的全新独特内容。如需了解详情,请参阅 https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai。
-
Google Cloud 流水线组件 SDK
- Google Cloud 流水线组件 (GCPC) SDK 提供了一组预构建的 Kubeflow Pipelines 组件,它们达到生产质量、具备高性能且易于使用。您可以使用 Google Cloud 流水线组件在 Vertex AI Pipelines 和其他符合 Kubeflow Pipelines 的机器学习流水线执行后端中定义和运行机器学习流水线。如需了解详情,请参阅 Google Cloud 流水线组件简介。
-
Google 嵌入式调制解调器系统 (GEMS)
- GEMS 是一个面向调制解调器的嵌入式软件框架,以及一组随附的开发工作流和基础架构。GEMS 的核心愿景是为许多包含调制解调器的 Google 设备提供高质量且高度可重复使用的调制解调器系统代码。为了实现这一宏伟愿景,GEMS 为开发者提供了一个全面的环境,其中包含下文所述的主要组成块。
-
梯度
- 偏导数相对于所有自变量的向量。在机器学习中,梯度是模型函数偏导数的向量。梯度指向最高速上升的方向。
-
图表
- 在 Vertex AI 上下文中,图表是指表示实体及其属性之间关系的数据结构。它用于对复杂数据(例如知识图谱、社交网络和业务流程)进行建模和分析。如需了解详情,请参阅 Vertex ML Metadata 简介。
-
标准答案 (GT)
- 标准答案是一个在各个领域中使用的术语,用于指某个决策或测量问题的绝对真相,而不是某个系统的估算值。在机器学习中,“标准答案”一词是指监督式学习技术的训练集。
-
幻觉
- 生成式 AI 中的幻觉是指 AI 给出的回答无法通过其训练数据来建立依据。内容可能与事实不符。在文本生成的背景下,它是指生成的文本内容中看起来似是而非的随机虚假信息。
-
启发法
- 一种简单且可快速实现的问题解决方案。例如,“采用启发法,我们实现了 86% 准确率。 当我们改为使用深度神经网络时,准确率上升到 98%。”
-
隐藏层
- 神经网络中位于输入层(特征)和输出层(预测)之间的层。每个隐藏层都包含一个或多个神经元。深度神经网络包含多个隐藏层。
-
直方图
- 使用柱状图以图形方式显示一组数据中的变化。直方图直观呈现了在简单数字表中难以检测到的模式。
-
超参数
- 超参数是指用于管理机器学习模型训练过程的变量。这些变量可以包括学习速率、优化器中的动量值以及模型最后一个隐藏层中的单元数。Vertex AI 中的超参数调节涉及使用所选超参数的不同值(设置在指定限制范围内)运行训练应用的多次试验。目标是优化超参数设置,以最大限度提高模型的预测准确率。如需了解详情,请参阅超参数调节概览。
-
Imagen
- Imagen 是一种通过 Vertex AI 平台提供的文本转图片生成式 AI 服务。借助该工具,用户可以生成新颖的图片、编辑图片、微调样式或主题模型、为图片添加文字说明,或获得有关图片内容的问题的答案。如需了解详情,请参阅 Imagen on Vertex AI 概览。
-
图像识别
- 图像识别是对图像中的物体、图案或概念进行分类的过程。也称为图像分类。图像识别是机器学习和计算机视觉的一个子领域。
-
索引
- 为相似度搜索而部署的一组向量。可以在索引中添加或移除向量。相似度搜索查询会被发送到特定索引,并将搜索该索引中的向量。
-
推理
- 在 Vertex AI 平台中,推理是指通过机器学习模型运行数据点以计算输出(如单个数值得分)的过程。此过程也称为“将机器学习模型付诸使用”或“将机器学习模型投入生产”。推理是机器学习工作流中的重要步骤,因为它可以让模型用于对新数据进行预测。在 Vertex AI 中,您可以通过多种方式执行推理,包括批量预测和在线预测。批量预测涉及运行一组预测请求,并将结果输出到一个文件中,而在线预测则允许对单个数据点进行实时预测。
-
信息检索 (IR)
- 信息检索 (IR) 是 Vertex AI Search 的关键组成部分。搜索是指从大量数据中查找和检索相关信息的过程。在 Vertex AI 中,IR 用于根据用户的查询从语料库中检索文档。Vertex AI 提供了一套 API,可帮助您构建自己的检索增强生成 (RAG) 应用或构建自己的搜索引擎。如需了解详情,请参阅使用 RAG Engine 将 Vertex AI Search 用作检索后端。
-
学习率(步长)
- 学习速率是一个超参数,用于调整机器学习模型的优化过程。它决定了模型在训练期间更新权重的步长。学习速率越高,收敛速度就越快,但也可能导致不稳定或过拟合。相反,学习率越低,收敛速度就越慢,但有助于防止过拟合。如需了解详情,请参阅超参数调节概览。
-
损失(代价)
- 在监督式模型训练期间,用于衡量模型预测结果与标签之间的差距。损失函数用于计算损失。
-
机器学习元数据
- ML Metadata (MLMD) 是一个库,用于记录和检索与机器学习开发者和数据科学家工作流相关的元数据。虽然 MLMD 是 TensorFlow Extended (TFX) 不可或缺的一部分,但它也可以独立使用。作为更为广泛的 TFX 平台的一部分,大多数用户仅在检查流水线组件的结果时与 MLMD 交互,例如在笔记本中或 TensorBoard 中。
-
代管式数据集
- 由 Vertex AI 创建和托管的数据集对象。
-
元数据资源
- Vertex ML Metadata 提供了一个图状数据模型来表示从机器学习工作流生成和使用的元数据。涉及的主要概念包括工件、执行、事件和上下文。
-
MetadataSchema
- MetadataSchema 描述特定类型的工件、执行或上下文的架构。MetadataSchema 用于在创建元数据资源期间验证相应的键值对。系统仅对资源和 MetadataSchema 之间的匹配字段执行架构验证。类型架构使用 OpenAPI 架构对象来表示,该对象使用 YAML 进行描述。
-
MetadataStore
- MetadataStore 是元数据资源的顶级容器。MetadataStore 分区域并与特定 Google Cloud 项目关联。通常,组织会为每个项目中的元数据资源使用一个共享 MetadataStore。
-
机器学习流水线
- 机器学习流水线是基于容器的便携式和可扩缩的机器学习工作流。
-
模型
- 任何模型,无论是否经过预训练。一般来说,任何处理输入数据并返回输出的数学结构。换句话说,模型是系统进行预测所需的一组参数和结构。
-
模型蒸馏(知识蒸馏、教师-学生模型)
- 模型蒸馏是一种技术,可让较小的学生模型从较大的教师模型中学习。学生模型经过训练后会模仿教师模型的输出,然后可用于生成新数据或进行预测。模型提炼通常用于提高大型模型的效率,或使其更易于在资源有限的设备上运行。它还可以通过减少过拟合来提高模型的泛化能力。
-
模型资源名称
model
的资源名称,如下所示:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>。您可以在 Cloud 控制台中的“Model Registry”页面中找到模型的 ID。
-
网络文件系统 (NFS)
- 一种客户端/服务器系统,可让用户跨网络访问文件,并将其视为位于本地文件目录中。如需了解详情,请参阅装载 NFS 共享以进行自定义训练。
-
离线存储区
- 离线存储区是存储近期和历史特征数据的存储设施,通常用于训练机器学习模型。离线存储区还包含最新的特征值,可用于在线预测。
-
在线存储区
- 在特征管理中,在线存储区是存储用于在线预测的最新特征值的存储设施。
-
在线存储区
- 在特征管理中,在线存储区是存储用于在线预测的最新特征值的存储设施。
-
参数
- 参数是键入的输入值,它们可配置运行作业,控制运行作业的行为,并影响运行作业的结果。例如学习速率、漏失率和训练步数。
-
管道
- 机器学习流水线是基于容器的便携式和可扩缩的机器学习工作流。 如需了解详情,请参阅 Vertex AI Pipelines 简介。
-
流水线组件
- 一组独立的代码,用于在流水线工作流中执行一个步骤,例如数据预处理、数据转换和模型训练。
-
流水线作业
- 流水线作业或流水线运行对应于 Vertex AI API 中的 PipelineJob 资源。它是机器学习流水线定义的执行实例,定义为一组通过输入输出依赖项相互关联的机器学习任务。
-
流水线运行作业
- 一个实验可以关联一个或多个 Vertex PipelineJob,其中每个 PipelineJob 均表示为一个单独的运行作业。在此上下文中,运行作业的参数由 PipelineJob 的参数推断。指标从该 PipelineJob 生成的 system.Metric 工件推断。运行作业的工件从该 PipelineJob 生成的工件推断。
-
流水线模板
- 单个或多个用户可以重复使用机器学习工作流定义来创建多个流水线运行。
-
正类别
- “正类别”是指模型经过训练要预测的结果或类别。例如,如果模型要预测客户是否会购买夹克,正类别就是“客户购买夹克”。同样,在预测客户是否注册定期存款的模型中,正类别为“客户已注册”。与之相反的是“负类别”。
-
专用 Google 访问通道 (PGA)
- 借助专用 Google 访问通道,那些只具有内部(专用)IP 地址(无外部 IP 地址)的虚拟机实例将能够访问 Google API 和服务的公共 IP 地址。如需了解详情,请参阅配置专用 Google 访问通道。
-
专用服务访问通道
- 专用服务访问通道是一种专用连接,将您的虚拟私有云 (VPC) 网络与 Google 或第三方服务提供商拥有的网络连接起来。这样,您的 VPC 网络中的虚拟机 (VM) 实例就可以使用内部 IP 地址与这些服务通信,从而避免暴露到公共互联网。如需了解详情,请参阅专用服务访问通道。
-
Private Service Connect
- Private Service Connect 是一项技术,可让 Compute Engine 客户将其网络中的专用 IP 地址映射到另一个 VPC 网络或 Google API。如需了解详情,请参阅 Private Service Connect。
-
Private Service Connect 接口 (PSC-I)
- Private Service Connect 接口提供了一种方式,供提供方私下发起与使用方 VPC 中的任何网络资源的连接。
-
量化
- 量化是一种模型优化技术,用于降低表示模型参数的数字的精度。这可以缩小模型大小、降低功耗和缩短推理延迟时间。
-
随机森林
- 随机森林是一种同时用于分类和回归的机器学习算法。它本身并不是直接的生成式 AI 模型,而是可在更大的生成式 AI 系统中使用的组件。随机森林由多个决策树组成,其预测结果是这些单个树的预测结果的汇总。例如,在分类任务中,每个树都会为某个类别“投票”,最终预测结果就是获得最多票数的类别。如需了解详情,请参阅决策树。
-
Ray on Vertex AI 集群
- Vertex AI 上的 Ray 集群是一个由计算节点组成的托管式集群,可用于运行分布式机器学习 (ML) 和 Python 应用。它提供了用于为机器学习工作流执行分布式计算和并行处理的基础架构。Vertex AI 内置了 Ray 集群,可确保关键机器学习工作负载或高峰季的容量可用性。与自定义作业(训练服务在作业完成后会释放资源)不同,Ray 集群在删除之前会一直可用。如需了解详情,请参阅 Ray on Vertex AI 概览。
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI 的设计可让您使用相同的开源 Ray 代码在 Vertex AI 上编写程序和开发应用,并且只需极少的更改。如需了解详情,请参阅 Ray on Vertex AI 概览。
-
Ray on Vertex AI SDK for Python
- Ray on Vertex AI SDK for Python 是 Vertex AI SDK for Python 的一个版本,其中包含 Ray 客户端、Ray BigQuery 连接器、Vertex AI 上的 Ray 集群管理和 Vertex AI 上的预测。如需了解详情,请参阅 Vertex AI SDK for Python 简介。
-
recall
- 索引返回的真正最近邻的百分比。 例如,如果一个对 20 个最近邻的最近邻查询返回 19 个“标准答案”最近项,则召回率为 19/20x100 = 95%。
-
正则化
- 正则化是一种用于防止机器学习模型过拟合的方法。如果模型过于准确地学习了训练数据,导致在未见过的数据上表现不佳,就会出现过拟合。提到的一种特定正则化方法是提前停止,即在验证数据集上的损失开始增加(表明泛化性能下降)之前停止训练。如需了解详情,请参阅过拟合:L2 正则化。
-
限制
- 使用布尔值规则将搜索“限制”为一部分索引的功能。限制也称为“过滤”。借助 Vector Search,您可以使用数字过滤和文本属性过滤。
-
服务账号
- 在 Google Cloud 中,服务账号是由应用或虚拟机 (VM) 实例(而非真人)使用的特殊账号。应用使用服务账号来执行已获授权的 API 调用。
-
服务代理
- 服务代理是指由 Google 管理的服务账号。当某项服务需要访问由其他服务创建的资源时,就会使用此权限。例如,当 Dataflow 或 Dataproc 服务需要在运行时创建实例时,或者当 Cloud Functions 想要使用 Key Management Service (KMS) 保护 Cloud Functions 时。当服务需要服务代理时,Google Cloud 会自动创建服务代理。它们通常用于管理对资源的访问权限,并代表服务执行各种任务。如需了解详情,请参阅服务代理。
-
摘要指标
- 摘要指标是实验运行作业中每个指标键的单一值。例如,实验的测试准确率是在训练结束时根据测试数据集计算得出的,可以作为单一值摘要指标捕获。
-
TensorBoard
- TensorBoard 是一套用于直观呈现和解读 TensorFlow 运行作业和模型的 Web 应用。如需了解详情,请参阅 TensorBoard。
-
TensorBoard 实例
- TensorBoard 实例是区域化资源,用于存储与项目关联的 Vertex AI TensorBoard 实验。例如,如果您需要多个启用 CMEK 的实例,则可以在项目中创建多个 TensorBoard 实例。这与 API 中的 TensorBoard 资源相同。
-
TensorBoard 资源名称
- TensorBoard 资源名称用于完全标识 Vertex AI TensorBoard 实例。格式如下:projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID。
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) 是一个基于 TensorFlow 平台部署生产机器学习流水线的端到端平台。
-
时间偏移值
- 时间偏移值是相对于视频开头进行计算的。
-
时间段
- 时间段由开始时间和结束时间偏移值来标识。
-
时序指标
- 时序指标是纵向指标值,其中每个值表示运行作业的训练例程部分中的一步。时序指标存储在 Vertex AI TensorBoard 中。Vertex AI Experiments 存储对 Vertex TensorBoard 资源的引用。
-
token
- 语言模型中的词元是模型训练和进行预测的原子单元,即字词、语素和字符。在语言模型之外的网域中,词元可以表示其他类型的原子单元。例如,在计算机视觉中,词元可能是图片的一部分。 如需了解详情,请参阅列出和统计 token 数。
-
训练集
- 在 Vertex AI 中,训练集是用于训练机器学习模型的数据中最大的部分(通常为 80%)。模型会学习这些数据中的模式和关系,以便进行预测。训练集不同于验证集和测试集,后两者用于评估模型在训练期间和训练后的性能。
-
轨迹
- “轨迹”是指代理或模型执行的一系列步骤或操作。它通常用于评估生成式模型,评估模型生成文本、代码或其他内容的能力。有多种轨迹指标可用于评估生成式模型,包括轨迹完全匹配、轨迹按顺序匹配、轨迹任意顺序匹配和轨迹精确度。这些指标用于衡量模型输出与一组由人生成的参考输出之间的相似度。
-
Transformer
- “Transformer”是一种神经网络架构,是大多数最先进的生成模型的基础。它可用于各种语言模型应用,包括翻译。Transformer 由编码器和解码器组成;编码器会将输入文本转换为中间表示形式,解码器会将其转换为有用的输出。它们利用自注意力机制从要处理的字词周围的字词中收集上下文。虽然训练 Transformer 需要大量资源,但针对特定应用微调预训练的 Transformer 会更高效。
-
真正例
- “真正例”是指模型正确识别正类的预测。例如,如果模型经过训练可识别出将购买夹克的客户,那么真正例子就是正确预测客户会进行此类购买。
-
非代管式工件
- 位于 Vertex AI 上下文之外的工件。
-
vector
- 向量是指文本、图片或视频的数值表示法,用于捕获输入之间的关系。机器学习模型适用于通过识别大型数据集中的模式来创建嵌入。应用可以使用嵌入来处理和生成语言,识别特定于内容的复杂含义和语义关系。如需了解详情,请参阅嵌入 API 概览。
-
Vertex AI 数据类型
- Vertex AI 数据类型有“图片”“文本”“表格”和“视频”。
-
Vertex AI Experiments
- 借助 Vertex AI Experiments,用户可以跟踪以下内容:1. 实验运行作业的步骤(例如预处理和训练)。2. 输入(例如算法、参数和数据集)。3. 这些步骤的输出(例如模型、检查点和指标)。
-
Vertex AI Model Registry
- Vertex AI Model Registry 是一个中央代码库,您可以在其中管理机器学习模型的生命周期。借助 Vertex AI Model Registry,您可以大致了解模型,以便更好地组织、跟踪和训练新版本。如果您想要部署模型版本,可以直接从存储库将其分配给端点,也可以使用别名将模型部署到端点。如需了解详情,请参阅 Vertex AI Model Registry 简介。
-
Vertex AI SDK for Python
- Vertex AI SDK for Python 提供与 Vertex AI Python 客户端库类似的功能,但 SDK 级别更高且更精细。
-
Vertex AI TensorBoard 实验
- 您可以在 TensorBoard Web 应用中查看与实验相关的数据(标量、直方图、分布等)。可在 Google Cloud 控制台中查看时序标量。如需了解详情,请参阅比较和分析运行作业。
-
视频片段
- 视频片段由视频的开始时间和结束时间偏移值来标识。
-
Virtual Private Cloud (VPC)
- 虚拟私有云是一种可按需配置的共享计算资源池,在公有云环境中分配,并在使用这些资源的不同组织之间提供一定程度的隔离。