Nesta página, você encontra informações sobre modelos legados de IA generativa na Vertex AI Os modelos em uma família de modelos legados não são mais atualizados com novas versões estáveis. Depois da desativação de todas as versões estáveis de um modelo legado, não haverá mais suporte para a família de modelos.
Modelos da API PaLM
A tabela a seguir resume os modelos legados da API PaLM:
Nome do modelo | Descrição | Propriedades do modelo | Suporte ao ajuste |
---|---|---|---|
PaLM 2 para texto ( text-bison ) |
Ajustado para seguir instruções de linguagem natural e adequado para várias tarefas de linguagem, como classificação, resumo e extração. | Máximo de tokens de entrada: 8.192 Máximo de tokens de saída: 1.024 Dados de treinamento: até fevereiro de 2023 |
Supervisionado: sim RLHF: sim (Prévia) Destilação: não |
PaLM 2 para texto (text-unicorn ) |
O modelo de texto mais avançado na família de modelos do PaLM para uso com tarefas complexas de linguagem natural. | Máximo de tokens de entrada: 8.192 Máximo de tokens de saída: 1.024 Dados de treinamento: até fevereiro de 2023 |
Supervisionado: não RLHF: não Destilação: sim (Prévia) |
PaLM 2 para texto 32k ( text-bison-32k ) |
(padrão): ajustado para seguir instruções de linguagem natural e adequado para várias tarefas de linguagem. | Máximo de tokens (entrada + saída): 32.768 Máximo de tokens de saída: 8.192 Dados de treinamento: até agosto de 2023 |
Supervisionado: sim RLHF: não Destilação: não |
PaLM 2 para chat ( chat-bison ) |
Sintonizado para casos de uso de conversa com vários turnos. | Máximo de tokens de entrada: 8.192 Máximo de tokens de saída: 2.048 Dados de treinamento: até fevereiro de 2023 Máximo de turnos : 2.500 |
Supervisionado: sim RLHF: não Destilação: não |
PaLM 2 para chat 32k ( chat-bison-32k ) |
Sintonizado para casos de uso de conversa com vários turnos. | Máximo de tokens (entrada + saída): 32.768 Máximo de tokens de saída: 8.192 Dados de treinamento: até agosto de 2023 Máximo de turnos : 2.500 |
Supervisionado: sim RLHF: não Destilação: não |
Modelos de APIs Codey
A tabela a seguir resume os modelos legados das APIs do Codey. O modelo de preenchimento de código code-gecko
não é um modelo legado.
Nome do modelo | Descrição | Propriedades do modelo | Suporte ao ajuste |
---|---|---|---|
Codey para geração de código ( code-bison ) |
Um modelo ajustado para gerar código com base em uma descrição de linguagem natural do código desejado. Por exemplo, ele pode gerar um teste de unidade para uma função. | Máximo de tokens de entrada: 6.144 Máximo de tokens de saída: 1.024 |
Supervisionado: sim RLHF: não Destilação: não |
Codey para geração de código 32k ( code-bison-32k ) |
Um modelo ajustado para gerar código com base em uma descrição de linguagem natural do código desejado. Por exemplo, ele pode gerar um teste de unidade para uma função. | Máximo de tokens (entrada + saída): 32.768 Máximo de tokens de saída: 8.192 |
Supervisionado: sim RLHF: não Destilação: não |
Codey para chat de código ( codechat-bison ) |
Um modelo ajustado para conversas do bot de chat que ajudam com perguntas relacionadas a códigos. | Máximo de tokens de entrada: 6.144 Máximo de tokens de saída: 1.024 |
Supervisionado: sim RLHF: não Destilação: não |
Codey para chat de código 32k ( codechat-bison-32k ) |
Um modelo ajustado para conversas do bot de chat que ajudam com perguntas relacionadas a códigos. | Máximo de tokens (entrada + saída): 32.768 Máximo de tokens de saída: 8.192 |
Supervisionado: sim RLHF: não Destilação: não |
Suporte ao idioma
Os modelos legados API PaLM da Vertex AI e APIs Codey oferecem suporte aos seguintes idiomas:
- Árabe (
ar
) - Bengalês (
bn
) - Búlgaro (
bg
) - Chinês (simplificado e tradicional) (
zh
) - Croata (
hr
) - República Tcheca (
cs
) - Coreano (
da
) - Holandês (
nl
) - Inglês (
en
) - Estoniano (
et
) - Finlandês (
fi
) - Francês (
fr
) - Alemão (
de
) - Grego (
el
) - Hebraico (
iw
) - Hindi (
hi
) - Húngaro (
hu
) - Indonésio (
id
) - Italiano (
it
) - Japonês (
ja
) - Coreano (
ko
) - Letão (
lv
) - Lituano (
lt
) - Norueguês (
no
) - Polonês (
pl
) - Português (
pt
) - Romeno (
ro
) - Russo (
ru
) - Sérvio (
sr
) - Eslovaco (
sk
) - Esloveno (
sl
) - Espanhol (
es
) - Suaíli (
sw
) - Sueco (
sv
) - Tailandês (
th
) - Turco (
tr
) - Ucraniano (
uk
) - Vietnamita (
vi
)
Data de desativação do modelo legado
A tabela a seguir mostra a data de desativação dos modelos legados.
modelo de chat-bison | Data da versão | Data de desativação |
---|---|---|
chat-bison@002 | 6 de dezembro de 2023 | 9 de outubro de 2024 |
Modelo chat-bison-32k | Data da versão | Data de desativação |
---|---|---|
chat-bison-32k@002 | 4 de dezembro de 2023 | 9 de outubro de 2024 |
Modelo code-bison | Data da versão | Data de desativação |
---|---|---|
code-bison@002 | 6 de dezembro de 2023 | 9 de outubro de 2024 |
Modelo code-bison-32k | Data da versão | Data de desativação |
---|---|---|
code-bison-32k@002 | 4 de dezembro de 2023 | 9 de outubro de 2024 |
modelo codechat-bison | Data da versão | Data de desativação |
---|---|---|
codechat-bison@002 | 6 de dezembro de 2023 | 9 de outubro de 2024 |
Modelo codechat-bison-32k | Data da versão | Data de desativação |
---|---|---|
codechat-bison-32k@002 | 4 de dezembro de 2023 | 9 de outubro de 2024 |
modelo text-bison | Data da versão | Data de desativação |
---|---|---|
text-bison@002 | 6 de dezembro de 2023 | 9 de outubro de 2024 |
Modelo text-bison-32k | Data da versão | Data de desativação |
---|---|---|
text-bison-32k@002 | 4 de dezembro de 2023 | 9 de outubro de 2024 |
modelo de texto-unicórnio | Data da versão | Data de desativação |
---|---|---|
text-unicorn@001 | 30 de novembro de 2023 | A partir de 30 de novembro de 2024 |