A partir de 9 de abril de 2025, esses modelos não estarão mais disponíveis. Você vai precisar migrar para um modelo mais recente para evitar a interrupção do serviço.
Confira abaixo recursos sobre como migrar para modelos mais recentes.
O que você precisa saber
Em 9 de outubro de 2024, vamos fazer as seguintes mudanças nos modelos legados:
- Bloqueie o uso desses modelos em um projeto recém-criado.
- Rejeite novas solicitações de aumento de cota.
- Diminua a cota padrão para 60 QPM.
- Se você já tiver solicitado um aumento de cota, ele NÃO será afetado.
- Bloqueie novos jobs de ajuste nesses modelos.
- Você ainda pode usar modelos já treinados.
Os modelos PaLM listados abaixo vão ficar disponíveis até a nova data estendida de 9 de abril de 2025:
Código | Texto | Chat |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
O que é preciso fazer
Recomendamos que você migre para o Gemini 1.5 Flash e o Gemini 1.5 Pro para melhorar o desempenho na maioria das tarefas, aumentar significativamente a janela de contexto para mais de 1 milhão de tokens e ter multimodalidade nativa. Você também vai notar uma economia de custos significativa com essas melhorias.
Além disso, é possível usar o serviço de avaliação da Vertex AI para comparar a performance entre modelos nos seus próprios conjuntos de dados de avaliação.
Consulte nosso guia completo sobre como migrar da API PaLM para a API Gemini na Vertex AI.
PaLM | Gemini |
---|---|
|
|