Pathways Language Model (PaLM)

以下列出的 Pathways 语言模型 (PaLM) 和嵌入模型的提供时间已从 2024 年 10 月 9 日延期至 2025 年 4 月 9 日,但存在限制。这样一来,您就有更多时间来测试和迁移到最新的 Gemini 1.5 模型

2025 年 4 月 9 日起,这些模型将无法再访问。您必须迁移到较新的模型,以免服务中断。

我们在下文中提供了有关如何迁移到较新模型的资源。

须知事项

我们将于 2024 年 10 月 9 日对以下旧版模型进行以下更改:

  • 阻止新创建的项目使用这些模型。
  • 拒绝新的配额增加请求。
  • 将默认配额降低到 60 QPM。
    • 如果您之前已申请配额增加,则不会受到影响。
  • 阻止针对这些模型的新调优作业。
    • 您仍然可以使用已训练的模型。

以下列出的 PaLM 模型将在新的延期日期 2025 年 4 月 9 日之前提供:

代码 文本 聊天
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

您需要做什么

我们强烈建议您改用 Gemini 1.5 FlashGemini 1.5 Pro,以便在大多数任务中提高性能,大幅增加超过 100 万个词元的上下文窗口,并实现原生多模态。随着这些改进的实施,您还将看到成本大幅降低

此外,您还可以使用 Vertex AI 评估服务来比较您自己的评估数据集中的模型之间的性能。

请查看我们的完整指南,了解如何在 Vertex AI 中从 PaLM API 迁移到 Gemini API

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)