Modelo de linguagem para programa de treinamentos (PaLM)

A disponibilidade do PaLM (Pathways Language Model) e dos modelos de incorporação listados abaixo foi estendida de 9 de outubro de 2024 para 9 de abril de 2025, com limitações. Assim, você tem mais tempo para testar e migrar para nossos modelos mais recentes do Gemini 1.5.

A partir de 9 de abril de 2025, esses modelos não estarão mais disponíveis. Você vai precisar migrar para um modelo mais recente para evitar a interrupção do serviço.

Confira abaixo recursos sobre como migrar para modelos mais recentes.

O que você precisa saber

Em 9 de outubro de 2024, vamos fazer as seguintes mudanças nos modelos legados:

  • Bloqueie o uso desses modelos em um projeto recém-criado.
  • Rejeite novas solicitações de aumento de cota.
  • Diminua a cota padrão para 60 QPM.
    • Se você já tiver solicitado um aumento de cota, ele NÃO será afetado.
  • Bloqueie novos jobs de ajuste nesses modelos.
    • Você ainda pode usar modelos já treinados.

Os modelos PaLM listados abaixo vão ficar disponíveis até a nova data estendida de 9 de abril de 2025:

Código Texto Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

O que é preciso fazer

Recomendamos que você migre para o Gemini 1.5 Flash e o Gemini 1.5 Pro para melhorar o desempenho na maioria das tarefas, aumentar significativamente a janela de contexto para mais de 1 milhão de tokens e ter multimodalidade nativa. Você também vai notar uma economia de custos significativa com essas melhorias.

Além disso, é possível usar o serviço de avaliação da Vertex AI para comparar a performance entre modelos nos seus próprios conjuntos de dados de avaliação.

Consulte nosso guia completo sobre como migrar da API PaLM para a API Gemini na Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)