Informasi model lama

Halaman ini memberikan informasi tentang model AI generatif lama di Vertex AI. Model dalam kelompok model lama tidak lagi diperbarui dengan versi stabil yang baru. Setelah semua versi stabil dari model lama mencapai tanggal penghentiannya, kelompok model tidak lagi didukung.

Model PaLM API

Tabel berikut merangkum model lama PaLM API:

Nama model Deskripsi Properti model Dukungan penyesuaian
PaLM 2 untuk Text
(text-bison)
Disesuaikan untuk mengikuti petunjuk natural language dan cocok untuk berbagai tugas bahasa, seperti klasifikasi, perangkuman, dan ekstraksi. Token input maksimum: 8192
Token output maksimum: 1024
Data pelatihan: Hingga Feb 2023
Diawasi: Ya
RLHF: Ya (Pratinjau)
Distilasi: Tidak
PaLM 2 untuk Text (text-unicorn) Model teks tercanggih dalam rangkaian model PaLM untuk digunakan dengan tugas natural language yang kompleks. Token input maksimum: 8192
Token output maksimum: 1024
Data pelatihan: Hingga Feb 2023
Diawasi: Tidak ada
RLHF: Tidak
Penyaringan: Ya (Pratinjau)
PaLM 2 untuk Text 32k
(text-bison-32k)
Disesuaikan untuk mengikuti petunjuk natural language dan cocok untuk berbagai tugas bahasa. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Data pelatihan: Hingga Agustus 2023
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
PaLM 2 untuk Chat
(chat-bison)
Disesuaikan untuk kasus penggunaan percakapan multi-giliran. Token input maksimum: 8192
Token output maksimum: 2048
Data pelatihan: Hingga Feb 2023
Giliran maksimum : 2500
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
PaLM 2 untuk Chat 32k
(chat-bison-32k)
Disesuaikan untuk kasus penggunaan percakapan multi-giliran. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Data pelatihan: Hingga Agustus 2023
Giliran maks : 2500
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak

Model Codey API

Tabel berikut merangkum model lama Codey API. Perlu diketahui bahwa Model penyelesaian kode code-gecko bukan model lama.

Nama model Deskripsi Properti model Dukungan penyesuaian
Codey for Code Generasi
(code-bison)
Model yang telah disesuaikan untuk menghasilkan kode berdasarkan deskripsi natural language dari kode yang diinginkan. Misalnya, ini dapat menghasilkan pengujian unit untuk suatu fungsi. Token input maksimum: 6144
Token output maksimum: 1024
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey for Code Generasi 32k
(code-bison-32k)
Model yang telah disesuaikan untuk menghasilkan kode berdasarkan deskripsi natural language dari kode yang diinginkan. Misalnya, ini dapat menghasilkan pengujian unit untuk suatu fungsi. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey for Code Chat
(codechat-bison)
Model yang disesuaikan untuk percakapan chatbot yang membantu pertanyaan terkait kode. Token input maksimum: 6144
Token output maksimum: 1024
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak
Codey for Code Chat 32k
(codechat-bison-32k)
Model yang disesuaikan untuk percakapan chatbot yang membantu pertanyaan terkait kode. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Diawasi: Ya
RLHF: Tidak
Distilasi: Tidak

Dukungan bahasa

Vertex AI PaLM API dan Codey API model lama mendukung bahasa berikut:

  • Arab (ar)
  • Bengali (bn)
  • Bulgaria (bg)
  • China (aksara sederhana dan tradisional) (zh)
  • Kroasia (hr)
  • Ceko (cs)
  • Denmark (da)
  • Belanda (nl)
  • Inggris (en)
  • Estonia (et)
  • Finlandia (fi)
  • Prancis (fr)
  • Jerman (de)
  • Yunani (el)
  • Ibrani (iw)
  • Hindi (hi)
  • Hungaria (hu)
  • Indonesia (id)
  • Italia (it)
  • Jepang (ja)
  • Korea (ko)
  • Latvia (lv)
  • Lituania (lt)
  • Norwegia (no)
  • Polandia (pl)
  • Portugis (pt)
  • Rumania (ro)
  • Rusia (ru)
  • Serbia (sr)
  • Slovakia (sk)
  • Slovenia (sl)
  • Spanyol (es)
  • Swahili (sw)
  • Swedia (sv)
  • Thai (th)
  • Turki (tr)
  • Ukraina (uk)
  • Vietnam (vi)

Tanggal penghentian model lama

Tabel berikut menunjukkan tanggal penghentian model lama:

model chat-bison Tanggal rilis Tanggal penghentian
chat-bison@002 6 Desember 2023 9 Oktober 2024
model chat-bison-32k Tanggal rilis Tanggal penghentian
chat-bison-32k@002 4 Desember 2023 9 Oktober 2024
model code-bison Tanggal rilis Tanggal penghentian
code-bison@002 6 Desember 2023 9 Oktober 2024
model code-bison-32k Tanggal rilis Tanggal penghentian
code-bison-32k@002 4 Desember 2023 9 Oktober 2024
model codechat-bison Tanggal rilis Tanggal penghentian
codechat-bison@002 6 Desember 2023 9 Oktober 2024
model codechat-bison-32k Tanggal rilis Tanggal penghentian
codechat-bison-32k@002 4 Desember 2023 9 Oktober 2024
model teks-bison Tanggal rilis Tanggal penghentian
teks-bison@002 6 Desember 2023 9 Oktober 2024
model text-bison-32k Tanggal rilis Tanggal penghentian
text-bison-32k@002 4 Desember 2023 9 Oktober 2024
model text-unicorn Tanggal rilis Tanggal penghentian
text-unicorn@001 30 November 2023 Mulai 30 November 2024

Model lama yang mendukung Throughput yang Disediakan

Tabel ini menunjukkan model lama yang mendukung Throughput yang Disediakan, yang diukur dalam karakter per detik, peningkatan pembelian minimum, dan tingkat {i>burndown<i}.

Model Output per GSU Penambahan pembelian GSU minimum Rasio pengurangan
text-bison, chat-bison, code-bison, codechat-bison 4.000 5 1 karakter input = 1 karakter
1 karakter output = 2 karakter
text-unicorn 400 5 1 karakter input = 1 karakter
1 karakter output = 3 karakter