Questa pagina fornisce informazioni sui modelli di IA generativa legacy su Vertex AI. I modelli di una famiglia di modelli legacy non vengono più aggiornati con nuove versioni stabili. Quando tutte le versioni stabili di un modello legacy hanno raggiunto la data di interruzione, la famiglia di modelli non è più supportata.
Modelli API PaLM
La seguente tabella riassume i modelli legacy dell'API PaLM:
Nome modello | Descrizione | Proprietà del modello | Assistenza per l'ottimizzazione |
---|---|---|---|
PaLM 2 per Text ( text-bison ) |
Ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto per una varietà di attività relative al linguaggio, come classificazione, riepilogo ed estrazione. | Numero massimo di token di input: 8192 Numero massimo di token di output: 1024 Dati di addestramento: fino a febbraio 2023 |
Supervisionato: Sì RLHF: Sì (anteprima) Distillazione: No |
PaLM 2 per Text (text-unicorn ) |
Il modello di testo più avanzato della famiglia di modelli PaLM per attività complesse di elaborazione del linguaggio naturale. | Numero massimo di token di input: 8192 Numero massimo di token di output: 1024 Dati di addestramento: fino a febbraio 2023 |
Supervisionato: no RLHF: no Distillazione: Sì (anteprima) |
PaLM 2 per Text 32k ( text-bison-32k ) |
Ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto a una varietà di attività relative alle lingue. | Numero massimo di token (input + output): 32.768 Numero massimo di token di output: 8192 Dati di addestramento: fino ad agosto 2023 |
Supervisionato: Sì RLHF: No Distillazione: No |
PaLM 2 per Chat ( chat-bison ) |
Ottimizzato per casi d'uso di conversazioni in più passaggi. | Numero massimo di token di input: 8192 Numero massimo di token di output: 2048 Dati di addestramento: fino a febbraio 2023 Numero massimo di token : 2500 |
Supervisionato: Sì RLHF: No Distillazione: No |
PaLM 2 per Chat 32k ( chat-bison-32k ) |
Ottimizzato per casi d'uso di conversazioni in più passaggi. | Numero massimo di token (input + output): 32.768 Numero massimo di token di output: 8192 Dati di addestramento: fino ad agosto 2023 Numero massimo di token : 2500 |
Supervisionato: Sì RLHF: No Distillazione: No |
Modelli di API Codey
La tabella seguente riassume i modelli legacy delle API Codey. Tieni presente che
il modello di completamento del codice code-gecko
non è un modello precedente.
Nome modello | Descrizione | Proprietà del modello | Assistenza per l'ottimizzazione |
---|---|---|---|
Codey for Codey Generation ( code-bison ) |
Un modello ottimizzato per generare codice in base a una descrizione in linguaggio naturale del codice desiderato. Ad esempio, può generare un test delle unità per una funzione. | Numero massimo di token di input: 6144 Numero massimo di token di output: 1024 |
Supervisionato: Sì RLHF: No Distillazione: No |
Codey for Codey Generation 32k ( code-bison-32k ) |
Un modello ottimizzato per generare codice in base a una descrizione in linguaggio naturale del codice desiderato. Ad esempio, può generare un test delle unità per una funzione. | Numero massimo di token (input + output): 32.768 Numero massimo di token di output: 8192 |
Supervisionato: Sì RLHF: No Distillazione: No |
Codey for Codey Chat ( codechat-bison ) |
un modello perfezionato per conversazioni con chatbot che aiuta a rispondere a domande relative al codice. | Numero massimo di token di input: 6144 Numero massimo di token di output: 1024 |
Supervisionato: Sì RLHF: No Distillazione: No |
Codey for Codey Chat 32k ( codechat-bison-32k ) |
un modello perfezionato per conversazioni con chatbot che aiuta a rispondere a domande relative al codice. | Numero massimo di token (input + output): 32.768 Numero massimo di token di output: 8192 |
Supervisionato: Sì RLHF: No Distillazione: No |
Supporto dei linguaggi
I modelli legacy delle API Vertex AI PaLM e delle API Codey supportano i seguenti linguaggi:
- Arabo (
ar
) - Bengalese (
bn
) - Bulgaro (
bg
) - Cinese semplificato e tradizionale (
zh
) - Croato (
hr
) - Ceco (
cs
) - Danese (
da
) - Olandese (
nl
) - Inglese (
en
) - Estone (
et
) - Finlandese (
fi
) - Francese (
fr
) - Tedesco (
de
) - Greco (
el
) - Ebraico (
iw
) - Hindi (
hi
) - Ungherese (
hu
) - Indonesiano (
id
) - Italiano (
it
) - Giapponese (
ja
) - Coreano (
ko
) - Lettone (
lv
) - Lituano (
lt
) - Norvegese (
no
) - Polacco (
pl
) - Portoghese (
pt
) - Rumeno (
ro
) - Russo (
ru
) - Serbo (
sr
) - Slovacco (
sk
) - Sloveno (
sl
) - Spagnolo (
es
) - Swahili (
sw
) - Svedese (
sv
) - Thailandese (
th
) - Turco (
tr
) - Ucraino (
uk
) - Vietnamita (
vi
)
Data di interruzione del modello precedente
La tabella seguente mostra la data di interruzione dei modelli precedenti.
modello chat-bison | Data di uscita | Data di interruzione |
---|---|---|
chat-bison@002 | 6 dicembre 2023 | 9 ottobre 2024 |
chat-bison@001 | 10 luglio 2023 | 6 luglio 2024 |
modello chat-bison-32k | Data di uscita | Data di interruzione |
---|---|---|
chat-bisonte-32k@002 | 4 dicembre 2023 | 9 ottobre 2024 |
modello code-bison | Data di uscita | Data di interruzione |
---|---|---|
codice-bison@002 | 6 dicembre 2023 | 9 ottobre 2024 |
code-bison@001 | 29 giugno 2023 | 6 luglio 2024 |
modello code-bison-32k | Data di uscita | Data di interruzione |
---|---|---|
codice-bison-32k@002 | 4 dicembre 2023 | 9 ottobre 2024 |
modello codechat-bison | Data di uscita | Data di interruzione |
---|---|---|
codechat-bison@002 | 6 dicembre 2023 | 9 ottobre 2024 |
codechat-bison@001 | 29 giugno 2023 | 6 luglio 2024 |
modello codechat-bison-32k | Data di uscita | Data di interruzione |
---|---|---|
codechat-bison-32k@002 | 4 dicembre 2023 | 9 ottobre 2024 |
modello text-bison | Data di uscita | Data di interruzione |
---|---|---|
text-bison@002 | 6 dicembre 2023 | 9 ottobre 2024 |
text-bison@001 | 7 giugno 2023 | 6 luglio 2024 |
modello text-bison-32k | Data di uscita | Data di interruzione |
---|---|---|
text-bison-32k@002 | 4 dicembre 2023 | 9 ottobre 2024 |
modello text-unicorn | Data di uscita | Data di interruzione |
---|---|---|
text-unicorn@001 | 30 novembre 2023 | Non prima del 30 novembre 2024 |