Informações do modelo legado

Nesta página, você encontra informações sobre modelos legados de IA generativa na Vertex AI Os modelos em uma família de modelos legados não são mais atualizados com novas versões estáveis. Depois da desativação de todas as versões estáveis de um modelo legado, não haverá mais suporte para a família de modelos.

Modelos da API PaLM

A tabela a seguir resume os modelos legados da API PaLM:

Nome do modelo Descrição Propriedades do modelo Suporte ao ajuste
PaLM 2 para texto
(text-bison)
Ajustado para seguir instruções de linguagem natural e adequado para várias tarefas de linguagem, como classificação, resumo e extração. Máximo de tokens de entrada: 8.192
Máximo de tokens de saída: 1.024
Dados de treinamento: até fevereiro de 2023
Supervisionado: sim
RLHF: sim (Prévia)
Destilação: não
PaLM 2 para texto (text-unicorn) O modelo de texto mais avançado na família de modelos do PaLM para uso com tarefas complexas de linguagem natural. Máximo de tokens de entrada: 8.192
Máximo de tokens de saída: 1.024
Dados de treinamento: até fevereiro de 2023
Supervisionado: não
RLHF: não
Destilação: sim (Prévia)
PaLM 2 para texto 32k
(text-bison-32k)
(padrão): ajustado para seguir instruções de linguagem natural e adequado para várias tarefas de linguagem. Máximo de tokens (entrada + saída): 32.768
Máximo de tokens de saída: 8.192
Dados de treinamento: até agosto de 2023
Supervisionado: sim
RLHF: não
Destilação: não
PaLM 2 para chat
(chat-bison)
Sintonizado para casos de uso de conversa com vários turnos. Máximo de tokens de entrada: 8.192
Máximo de tokens de saída: 2.048
Dados de treinamento: até fevereiro de 2023
Máximo de turnos : 2.500
Supervisionado: sim
RLHF: não
Destilação: não
PaLM 2 para chat 32k
(chat-bison-32k)
Sintonizado para casos de uso de conversa com vários turnos. Máximo de tokens (entrada + saída): 32.768
Máximo de tokens de saída: 8.192
Dados de treinamento: até agosto de 2023
Máximo de turnos : 2.500
Supervisionado: sim
RLHF: não
Destilação: não

Modelos de APIs Codey

A tabela a seguir resume os modelos legados das APIs do Codey. O modelo de preenchimento de código code-gecko não é um modelo legado.

Nome do modelo Descrição Propriedades do modelo Suporte ao ajuste
Codey para geração de código
(code-bison)
Um modelo ajustado para gerar código com base em uma descrição de linguagem natural do código desejado. Por exemplo, ele pode gerar um teste de unidade para uma função. Máximo de tokens de entrada: 6.144
Máximo de tokens de saída: 1.024
Supervisionado: sim
RLHF: não
Destilação: não
Codey para geração de código 32k
(code-bison-32k)
Um modelo ajustado para gerar código com base em uma descrição de linguagem natural do código desejado. Por exemplo, ele pode gerar um teste de unidade para uma função. Máximo de tokens (entrada + saída): 32.768
Máximo de tokens de saída: 8.192
Supervisionado: sim
RLHF: não
Destilação: não
Codey para chat de código
(codechat-bison)
Um modelo ajustado para conversas do bot de chat que ajudam com perguntas relacionadas a códigos. Máximo de tokens de entrada: 6.144
Máximo de tokens de saída: 1.024
Supervisionado: sim
RLHF: não
Destilação: não
Codey para chat de código 32k
(codechat-bison-32k)
Um modelo ajustado para conversas do bot de chat que ajudam com perguntas relacionadas a códigos. Máximo de tokens (entrada + saída): 32.768
Máximo de tokens de saída: 8.192
Supervisionado: sim
RLHF: não
Destilação: não

Suporte ao idioma

Os modelos legados API PaLM da Vertex AI e APIs Codey oferecem suporte aos seguintes idiomas:

  • Árabe (ar)
  • Bengalês (bn)
  • Búlgaro (bg)
  • Chinês (simplificado e tradicional) (zh)
  • Croata (hr)
  • República Tcheca (cs)
  • Coreano (da)
  • Holandês (nl)
  • Inglês (en)
  • Estoniano (et)
  • Finlandês (fi)
  • Francês (fr)
  • Alemão (de)
  • Grego (el)
  • Hebraico (iw)
  • Hindi (hi)
  • Húngaro (hu)
  • Indonésio (id)
  • Italiano (it)
  • Japonês (ja)
  • Coreano (ko)
  • Letão (lv)
  • Lituano (lt)
  • Norueguês (no)
  • Polonês (pl)
  • Português (pt)
  • Romeno (ro)
  • Russo (ru)
  • Sérvio (sr)
  • Eslovaco (sk)
  • Esloveno (sl)
  • Espanhol (es)
  • Suaíli (sw)
  • Sueco (sv)
  • Tailandês (th)
  • Turco (tr)
  • Ucraniano (uk)
  • Vietnamita (vi)

Data de desativação do modelo legado

A tabela a seguir mostra a data de desativação dos modelos legados:

Modelo chat-bison Data da versão Data de desativação
chat-bison@002 6 de dezembro de 2023 9 de abril de 2025
Modelo chat-bison-32k Data da versão Data de desativação
chat-bison-32k@002 4 de dezembro de 2023 9 de abril de 2025
Modelo code-bison Data da versão Data de desativação
code-bison@002 6 de dezembro de 2023 9 de abril de 2025
Modelo code-bison-32k Data da versão Data de desativação
code-bison-32k@002 4 de dezembro de 2023 9 de abril de 2025
Modelo codechat-bison Data da versão Data de desativação
codechat-bison@002 6 de dezembro de 2023 9 de abril de 2025
Modelo codechat-bison-32k Data da versão Data de desativação
codechat-bison-32k@002 4 de dezembro de 2023 9 de abril de 2025
Modelo text-bison Data da versão Data de desativação
text-bison@002 6 de dezembro de 2023 9 de abril de 2025
Modelo text-bison-32k Data da versão Data de desativação
text-bison-32k@002 4 de dezembro de 2023 9 de abril de 2025
Modelo text-unicorn Data da versão Data de desativação
text-unicorn@001 30 de novembro de 2023 9 de abril de 2025

Modelos legados com suporte à capacidade de processamento provisionada

Esta tabela mostra os modelos legados que oferecem suporte à Capacidade de processamento provisionada, que é medida em caracteres por segundo, incrementos de compra mínimos e taxas de burndown.

Modelo Capacidade de processamento por GSU Incremento mínimo de compra de GSU Taxas de burndown
text-bison, chat-bison, code-bison, codechat-bison 4.000 1 1 caractere de entrada = 1 caractere
1 caractere de saída = 2 caracteres
text-unicorn 400 1 1 caractere de entrada = 1 caractere
1 caractere de saída = 3 caracteres