发送反馈
Pathways Language Model (PaLM)
使用集合让一切井井有条
根据您的偏好保存内容并对其进行分类。
以下列出的
Pathways 语言模型 (PaLM) 和嵌入模型的提供时间已从
2024 年 10 月 9 日 延期至
2025 年 4 月 9 日 ,但存在限制。这样一来,您就有更多时间来测试和迁移到最新的 Gemini 1.5
模型 。
自 2025 年 4 月 9 日 起,这些模型将无法再访问。您必须迁移到较新的模型,以免服务中断。
我们在下文中提供了有关如何迁移到较新模型的资源。
须知事项
我们将于 2024 年 10 月 9 日 对以下旧版模型进行以下更改:
阻止新创建的项目使用这些模型。
拒绝新的配额增加请求。
将默认配额降低到 60 QPM。
阻止针对这些模型的新调优作业。
以下列出的 PaLM 模型将在新的延期日期 2025 年 4 月 9 日 之前提供:
代码
文本
聊天
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002
您需要做什么
我们强烈建议您改用 Gemini 1.5 Flash 和 Gemini 1.5 Pro ,以便在大多数任务中提高性能,大幅增加超过 100 万个词元的上下文窗口,并实现原生多模态。随着这些改进的实施,您还将看到成本大幅降低 。
此外,您还可以使用 Vertex AI 评估服务 来比较您自己的评估数据集中的模型之间的性能。
请查看我们的完整指南,了解如何在 Vertex AI 中从 PaLM API 迁移到 Gemini API 。
PaLM
Gemini
from vertexai.language_models import TextGenerationModel
model = TextGenerationModel . from_pretrained ( "text-bison@002" )
response = model . predict ( prompt = "The opposite of hot is" )
print ( response . text )
from vertexai.generative_models import GenerativeModel
model = GenerativeModel ( "gemini-1.5-flash-001" )
response = model . generate_content ( "The opposite of hot is" )
for response in responses :
print ( response . text )
发送反馈
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可 获得了许可,并且代码示例已根据 Apache 2.0 许可 获得了许可。有关详情,请参阅 Google 开发者网站政策 。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2025-02-14。
需要向我们提供更多信息?
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["很难理解","hardToUnderstand","thumb-down"],["信息或示例代码不正确","incorrectInformationOrSampleCode","thumb-down"],["没有我需要的信息/示例","missingTheInformationSamplesINeed","thumb-down"],["翻译问题","translationIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2025-02-14。"],[],[]]