要设计出效果良好的提示,可以测试不同版本的提示,并尝试使用提示参数,以确定哪种方式能获得最佳响应。您可以使用 Codey API 以编程方式测试提示,也可以使用 Vertex AI Studio 在 Google Cloud 控制台中测试提示。
测试代码生成提示
如需测试代码生成提示,请选择以下方法之一。
REST
如需使用 Vertex AI API 测试代码生成提示,请向发布方模型端点发送 POST 请求。
在使用任何请求数据之前,请先进行以下替换:
- PROJECT_ID:您的项目 ID。
- PREFIX:对于代码模型,
prefix
表示一条有意义的编程代码的开头,或描述要生成的代码的自然语言提示。 - TEMPERATURE:温度 (temperature) 在生成回答期间用于采样。温度可以控制词元选择的随机性。较低的温度有利于需要更少开放性或创造性回复的提示,而较高的温度可以带来更具多样性或创造性的结果。温度为
0
表示始终选择概率最高的词元。在这种情况下,给定提示的回答大多是确定的,但可能仍然有少量变化。 - MAX_OUTPUT_TOKENS:回答中可生成的词元数量上限。词元约为 4 个字符。100 个词元对应大约 60-80 个单词。
指定较低的值可获得较短的回答,指定较高的值可获得可能较长的回答。
- CANDIDATE_COUNT:要返回的回答变体的数量。 对于每个请求,您需要为所有候选词元的输出词元付费,但只需为输入词元支付一次费用。
指定多个候选项是适用于
generateContent
的预览版功能(不支持streamGenerateContent
)。支持以下型号:- Gemini 1.5 Flash:
1
-8
,默认值:1
- Gemini 1.5 Pro:
1
-8
,默认值:1
- Gemini 1.0 Pro:
1
-8
,默认值:1
int
。 - Gemini 1.5 Flash:
HTTP 方法和网址:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
请求 JSON 正文:
{ "instances": [ { "prefix": "PREFIX" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
如需发送请求,请选择以下方式之一:
curl
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict"
PowerShell
将请求正文保存在名为 request.json
的文件中,然后执行以下命令:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict" | Select-Object -Expand Content
您应该收到类似以下内容的 JSON 响应。
Python
如需了解如何安装或更新 Vertex AI SDK for Python,请参阅安装 Vertex AI SDK for Python。 如需了解详情,请参阅 Python API 参考文档。
Node.js
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Node.js 设置说明执行操作。 如需了解详情,请参阅 Vertex AI Node.js API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
Java
在尝试此示例之前,请按照《Vertex AI 快速入门:使用客户端库》中的 Java 设置说明执行操作。 如需了解详情,请参阅 Vertex AI Java API 参考文档。
如需向 Vertex AI 进行身份验证,请设置应用默认凭据。 如需了解详情,请参阅为本地开发环境设置身份验证。
控制台
如需在 Google Cloud 控制台中使用 Vertex AI Studio 测试代码生成提示,请执行以下操作:
- 在 Google Cloud 控制台的 Vertex AI 部分,进入 Vertex AI Studio。
- 点击开始使用。
- 点击 创建提示。
- 在模型中,选择名称以
code-bison
开头的模型。code-bison
后面的三位数表示模型的版本号。例如,code-bison@002
是代码生成模型的版本一的名称。 - 在提示中,输入代码生成提示。
- 调整温度和词元限制,以试验它们如何影响响应。如需了解详情,请参阅代码生成模型参数。
- 点击提交以生成响应。
- 如果您想保存提示,请点击 保存
- 点击 查看代码以查看提示的 Python 代码或 curl 命令
示例 curl 命令
MODEL_ID="code-bison"
PROJECT_ID=PROJECT_ID
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:predict -d \
$"{
'instances': [
{ 'prefix': 'Write a function that checks if a year is a leap year.' }
],
'parameters': {
'temperature': 0.2,
'maxOutputTokens': 1024,
'candidateCount': 1
}
}"
如需详细了解代码生成提示设计,请参阅创建代码生成提示。
流式传输来自代码模型的响应
如需使用 REST API 查看示例代码请求和响应,请参阅使用流式传输 REST API 的示例。
如需使用 Vertex AI SDK for Python 查看示例代码请求和回答,请参阅使用 Vertex AI SDK for Python 进行流式传输的示例。
后续步骤
- 了解如何创建代码聊天提示。
- 了解如何创建代码补全提示。
- 了解负责任的 AI 最佳实践和 Vertex AI 的安全过滤条件。