En esta página, se proporciona información sobre los modelos de IA generativa heredados en Vertex AI. Los modelos de una familia de modelos heredados ya no se actualizan con nuevas versiones estables. Después de todas las versiones estables de un modelo heredado alcancen las fechas de interrupción, la familia de modelos ya no será compatible.
Modelos de API de PaLM
En la siguiente tabla, se resumen los modelos heredados de la API de PaLM:
Nombre del modelo | Descripción | Propiedades del modelo | Compatibilidad con los ajustes |
---|---|---|---|
PaLM 2 para texto ( text-bison ) |
Se ajustó para seguir las instrucciones de lenguaje natural y es adecuado para una variedad de tareas de lenguaje, como la clasificación, el resumen, y la extracción. | Cantidad máxima de tokens de entrada: 8192 Cantidad máxima de tokens de salida: 1024 Datos de entrenamiento: hasta febrero de 2023 |
Supervisado: Sí RLHF: Sí (Vista previa) Destilación: No |
PaLM 2 para texto (text-unicorn ) |
El modelo de texto más avanzado de la familia de modelos PaLM para usar con tareas complejas de lenguaje natural. | Cantidad máxima de tokens de entrada: 8192 Cantidad máxima de tokens de salida: 1024 Datos de entrenamiento: hasta febrero de 2023 |
Supervisado: No RLHF: No Destilación: Sí (Vista previa) |
PaLM 2 para texto 32k ( text-bison-32k ) |
Se ajustó para seguir las instrucciones de lenguaje natural y es adecuado para una variedad de tareas de lenguaje. | Máximo de tokens (entrada + salida): 32,768 Máximo de tokens de salida: 8192 Datos de entrenamiento: hasta agosto de 2023 |
Supervisado: Sí RLHF: No Destilación: No |
PaLM 2 para chat ( chat-bison ) |
Ajustado para casos de uso de conversaciones de varios turnos. | Máximo de tokens de entrada: 8192 Cantidad máxima de tokens de salida: 2048 Datos de entrenamiento: hasta febrero de 2023 turnos máximos: 2500 |
Supervisado: Sí RLHF: No Destilación: No |
PaLM 2 para chat 32k ( chat-bison-32k ) |
Ajustado para casos de uso de conversaciones de varios turnos. | Máximo de tokens (entrada + salida): 32,768 Máximo de tokens de salida: 8192 Datos de entrenamiento: hasta agosto de 2023 Cantidad máxima de turnos: 2500 |
Supervisado: Sí RLHF: No Destilación: No |
Modelos de APIs de Codey
En la siguiente tabla, se resumen los modelos heredados de las APIs de Codey. Ten en cuenta que
el modelo de finalización de código de code-gecko
no es un modelo heredado.
Nombre del modelo | Descripción | Propiedades del modelo | Compatibilidad con los ajustes |
---|---|---|---|
Codey para la generación de código ( code-bison ) |
Un modelo ajustado para generar código en función de una descripción de lenguaje natural del código deseado. Por ejemplo, puede generar una prueba de unidades para una función. | Cantidad máxima de tokens de entrada: 6144 Cantidad máxima de tokens de salida: 1024 |
Supervisado: Sí RLHF: No Destilación: No |
Codey para la generación de código 32k ( code-bison-32k ) |
Un modelo ajustado para generar código en función de una descripción de lenguaje natural del código deseado. Por ejemplo, puede generar una prueba de unidades para una función. | Cantidad máxima de tokens (entrada + salida): 32,768 Tokens de resultado máximo: 8192 |
Supervisado: Sí RLHF: No Destilación: No |
Codey para chat de código ( codechat-bison ) |
Un modelo ajustado para las conversaciones de chatbot que ayudan con las preguntas relacionadas con el código. | Cantidad máxima de tokens de entrada: 6144 Cantidad máxima de tokens de salida: 1024 |
Supervisado: Sí RLHF: No Destilación: No |
Codey para chat de código 32k ( codechat-bison-32k ) |
Un modelo ajustado para las conversaciones de chatbot que ayudan con las preguntas relacionadas con el código. | Cantidad máxima de tokens (entrada + salida): 32,768 Tokens de resultado máximo: 8192 |
Supervisado: Sí RLHF: No Destilación: No |
Idiomas admitidos
Los modelos heredados de API de PaLM de Vertex AI y las APIs de Codey admiten los siguientes lenguajes:
- Árabe (
ar
) - Bengalí (
bn
) - Búlgaro (
bg
) - Chino simplificado y tradicional (
zh
) - Croata (
hr
) - Checo (
cs
) - Danés (
da
) - Neerlandés (
nl
) - Inglés (
en
) - Estonio (
et
) - Finés (
fi
) - Francés (
fr
) - Alemán (
de
) - Griego (
el
) - Hebreo (
iw
) - Hindi (
hi
) - Húngaro (
hu
) - Indonesio (
id
) - Italiano (
it
) - Japonés (
ja
) - Coreano (
ko
) - Letón (
lv
) - Lituano (
lt
) - Noruego (
no
) - Polaco (
pl
) - Portugués (
pt
) - Rumano (
ro
) - Ruso (
ru
) - Serbio (
sr
) - Eslovaco (
sk
) - Esloveno (
sl
) - Español (
es
) - Suajili (
sw
) - Sueco (
sv
) - Tailandés (
th
) - Turco (
tr
) - Ucraniano (
uk
) - Vietnamita (
vi
)
Fecha de descontinuación del modelo heredado
En la siguiente tabla, se muestra la fecha de descontinuación de los modelos heredados:
modelo de chat-bison | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
chat-bison@002 | 6 de diciembre de 2023 | 9 de octubre de 2024 |
modelo de chat-bison-32k | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
chat-bison-32k@002 | Diciembre 4 de 2023 | 9 de octubre de 2024 |
modelo de code-bison | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
code-bison@002 | 6 de diciembre de 2023 | 9 de octubre de 2024 |
modelo code-bison-32k | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
code-bison-32k@002 | Diciembre 4 de 2023 | 9 de octubre de 2024 |
modelo codechat-bison | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
codechat-bison@002 | 6 de diciembre de 2023 | 9 de octubre de 2024 |
Modelo codechat-bison-32k | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
codechat-bison-32k@002 | Diciembre 4 de 2023 | 9 de octubre de 2024 |
modelo text-bison | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
text-bison@002 | 6 de diciembre de 2023 | 9 de octubre de 2024 |
Modelo text-bison-32k | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
text-bison-32k@002 | Diciembre 4 de 2023 | 9 de octubre de 2024 |
modelo unicornio de texto | Fecha de lanzamiento | Fecha de descontinuación |
---|---|---|
texto-unicornio@001 | 30 de noviembre de 2023 | A partir del 30 de noviembre de 2024 |
Modelos heredados que admiten la capacidad de procesamiento aprovisionada
En esta tabla, se muestran modelos heredados que admiten la capacidad de procesamiento aprovisionada, que se mide en caracteres por segundo, incrementos mínimos de compra y tasas de gasto.
Modelo | Capacidad de procesamiento por GSU | Aumento mínimo de compra de GSU | Tasas de consumo |
---|---|---|---|
text-bison , chat-bison ,
code-bison , codechat-bison |
4,000 | 5 | 1 carácter de entrada = 1 caracter 1 carácter de salida = 2 caracteres |
text-unicorn |
400 | 5 | 1 carácter de entrada = 1 carácter 1 carácter de salida = 3 caracteres |