Questa pagina fornisce informazioni sui modelli di IA generativa precedenti su Vertex AI. I modelli di una famiglia di modelli legacy non vengono più aggiornati con nuove versioni stabili. Quando tutte le versioni stabili di un modello legacy raggiungono le date di ritiro, la famiglia di modelli non è più supportata.
Modelli dell'API PaLM
La tabella seguente riassume i modelli precedenti dell'API PaLM:
Nome modello | Descrizione | Proprietà del modello | Assistenza per l'ottimizzazione |
---|---|---|---|
PaLM 2 for Text ( text-bison ) |
È ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto per una serie di attività linguistiche, come la classificazione, il riassunto e l'estrazione. | Token di input massimi: 8192 Token di output massimi: 1024 Dati di addestramento: fino a febbraio 2023 |
Supervisionata: Sì RLHF: Sì (Anteprima) Distillazione: No |
PaLM 2 for Text (text-unicorn ) |
Il modello di testo più avanzato della famiglia di modelli PaLM da utilizzare con compiti di linguaggio naturale complessi. | Token di input massimi: 8192 Token di output massimi: 1024 Dati di addestramento: fino a febbraio 2023 |
Supervisionato: No RLHF: No Distillazione: Sì (Anteprima) |
PaLM 2 for Text 32k ( text-bison-32k ) |
Ottimizzato per seguire le istruzioni in linguaggio naturale ed è adatto per una varietà di attività relative alle lingue. | Token massimi (input + output): 32.768 Token di output massimi: 8.192 Dati di addestramento: fino ad agosto 2023 |
Supervisionata: Sì RLHF: No Distillazione: No |
PaLM 2 per Chat ( chat-bison ) |
Ottimizzato per i casi d'uso delle conversazioni multi-turno. | Token di input massimi: 8192 Token di output massimi: 2048 Dati di addestramento: fino a febbraio 2023 Giri massimi : 2500 |
Supervisionata: Sì RLHF: No Distillazione: No |
PaLM 2 per Chat 32k ( chat-bison-32k ) |
Ottimizzato per i casi d'uso delle conversazioni multi-turno. | Token massimi (input + output): 32.768 Token di output massimi: 8.192 Dati di addestramento: fino ad agosto 2023 Giri massimi : 2500 |
Supervisionata: Sì RLHF: No Distillazione: No |
Modelli delle API Codey
La tabella seguente riassume i modelli precedenti delle API Codey. Tieni presente che il
code-gecko
modello di completamento del codice non è un modello precedente.
Nome modello | Descrizione | Proprietà del modello | Assistenza per l'ottimizzazione |
---|---|---|---|
Codey per la generazione del codice ( code-bison ) |
Un modello ottimizzato per generare codice in base a una descrizione in linguaggio naturale del codice desiderato. Ad esempio, può generare un test di unità per una funzione. | Token di input massimi: 6144 Token di output massimi: 1024 |
Supervisionata: Sì RLHF: No Distillazione: No |
Codey per la generazione del codice 32k ( code-bison-32k ) |
Un modello ottimizzato per generare codice in base a una descrizione in linguaggio naturale del codice desiderato. Ad esempio, può generare un test di unità per una funzione. | Token massimi (input + output): 32.768 Token di output massimi: 8.192 |
Supervisionata: Sì RLHF: No Distillazione: No |
Codey per Chat di codice ( codechat-bison ) |
Un modello ottimizzato per le conversazioni con i chatbot che aiuta a rispondere alle domande relative al codice. | Token di input massimi: 6144 Token di output massimi: 1024 |
Supervisionata: Sì RLHF: No Distillazione: No |
Codey per Chat di codice 32k ( codechat-bison-32k ) |
Un modello ottimizzato per le conversazioni con i chatbot che aiuta a rispondere alle domande relative al codice. | Token massimi (input + output): 32.768 Token di output massimi: 8.192 |
Supervisionata: Sì RLHF: No Distillazione: No |
Supporto dei linguaggi
I modelli legacy dell'API Vertex AI PaLM e delle API Codey supportano le seguenti lingue:
- Arabo (
ar
) - Bengali (
bn
) - Bulgaro (
bg
) - Cinese semplificato e tradizionale (
zh
) - Croato (
hr
) - Ceco (
cs
) - Danese (
da
) - Olandese (
nl
) - Inglese (
en
) - Estone (
et
) - Finlandese (
fi
) - Francese (
fr
) - Tedesco (
de
) - Greco (
el
) - Ebraico (
iw
) - Hindi (
hi
) - Ungherese (
hu
) - Indonesian (
id
) - Italiano (
it
) - Giapponese (
ja
) - Coreano (
ko
) - Lettone (
lv
) - Lituano (
lt
) - Norvegese (
no
) - Polacco (
pl
) - Portoghese (
pt
) - Rumeno (
ro
) - Russo (
ru
) - Serbo (
sr
) - Slovacco (
sk
) - Sloveno (
sl
) - Spagnolo (
es
) - Swahili (
sw
) - Svedese (
sv
) - Thailandese (
th
) - Turco (
tr
) - Ucraino (
uk
) - Vietnamita (
vi
)
Data di ritiro del modello precedente
La seguente tabella mostra la data di ritiro dei modelli precedenti:
modello chat-bison | Data di uscita | Data di ritiro |
---|---|---|
chat-bison@002 | 6 dicembre 2023 | 9 aprile 2025 |
Modello chat-bison-32k | Data di uscita | Data di ritiro |
---|---|---|
chat-bison-32k@002 | 4 dicembre 2023 | 9 aprile 2025 |
modello code-bison | Data di uscita | Data di ritiro |
---|---|---|
code-bison@002 | 6 dicembre 2023 | 9 aprile 2025 |
Modello code-bison-32k | Data di uscita | Data di ritiro |
---|---|---|
code-bison-32k@002 | 4 dicembre 2023 | 9 aprile 2025 |
codechat-bison model | Data di uscita | Data di ritiro |
---|---|---|
codechat-bison@002 | 6 dicembre 2023 | 9 aprile 2025 |
modello codechat-bison-32k | Data di uscita | Data di ritiro |
---|---|---|
codechat-bison-32k@002 | 4 dicembre 2023 | 9 aprile 2025 |
modello text-bison | Data di uscita | Data di ritiro |
---|---|---|
text-bison@002 | 6 dicembre 2023 | 9 aprile 2025 |
Modello text-bison-32k | Data di uscita | Data di ritiro |
---|---|---|
text-bison-32k@002 | 4 dicembre 2023 | 9 aprile 2025 |
modello text-unicorn | Data di uscita | Data di ritiro |
---|---|---|
text-unicorn@001 | 30 novembre 2023 | 9 aprile 2025 |
Modelli precedenti che supportano la velocità effettiva sottoposta a provisioning
Questa tabella mostra i modelli precedenti che supportano la portata pianificata, misurata in caratteri al secondo, incrementi minimi di acquisto e tassi di burndown.
Modello | Throughput per GSU | Incremento minimo di acquisto di GSU | Tassi di burndown |
---|---|---|---|
text-bison , chat-bison ,
code-bison , codechat-bison |
4000 | 1 | 1 carattere di input = 1 carattere 1 carattere di output = 2 caratteri |
text-unicorn |
400 | 1 | 1 carattere di input = 1 carattere 1 carattere di output = 3 caratteri |