自 2025 年 4 月 9 日起,这些模型将无法再访问。您必须迁移到较新的模型,以免服务中断。
我们在下文中提供了有关如何迁移到较新模型的资源。
须知事项
我们将于 2024 年 10 月 9 日对以下旧版模型进行以下更改:
- 阻止新创建的项目使用这些模型。
- 拒绝新的配额增加请求。
- 将默认配额降低到 60 QPM。
- 如果您之前已申请配额增加,则不会受到影响。
- 阻止针对这些模型的新调优作业。
- 您仍然可以使用已训练的模型。
以下列出的 PaLM 模型将在新的延期日期 2025 年 4 月 9 日之前提供:
代码 | 文本 | 聊天 |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
您需要做什么
我们强烈建议您改用 Gemini 1.5 Flash 和 Gemini 1.5 Pro,以便在大多数任务中提高性能,大幅增加超过 100 万个词元的上下文窗口,并实现原生多模态。随着这些改进的实施,您还将看到成本大幅降低。
此外,您还可以使用 Vertex AI 评估服务来比较您自己的评估数据集中的模型之间的性能。
请查看我们的完整指南,了解如何在 Vertex AI 中从 PaLM API 迁移到 Gemini API。
PaLM | Gemini |
---|---|
|
|