Informasi model lama

Halaman ini memberi Anda informasi tentang model AI generatif lama di Vertex AI. Model dalam grup model lama tidak lagi diupdate dengan versi stabil baru. Setelah semua versi stabil model lama mencapai tanggal penghentiannya, grup model tidak lagi didukung.

Model PaLM API

Tabel berikut merangkum model lama PaLM API:

Nama model Deskripsi Properti model Dukungan penyesuaian
PaLM 2 untuk Teks
(text-bison)
Disesuaikan untuk mengikuti petunjuk natural language dan cocok untuk berbagai tugas bahasa, seperti klasifikasi, peringkasan, dan ekstraksi. Token input maksimum: 8192
Token output maksimum: 1024
Data pelatihan: Hingga Feb 2023
Diawasi: Ya
RLHF: Ya (Pratinjau)
Distilasi: Tidak
PaLM 2 untuk Teks (text-unicorn) Model teks paling canggih dalam rangkaian model PaLM untuk digunakan dengan tugas bahasa alami yang kompleks. Token input maksimum: 8192
Token output maksimum: 1024
Data pelatihan: Hingga Feb 2023
Diawasi: Tidak
RLHF: Tidak
Distilasi: Ya (Pratinjau)
PaLM 2 untuk Teks 32k
(text-bison-32k)
Disesuaikan untuk mengikuti petunjuk natural language dan cocok untuk berbagai tugas bahasa. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Data pelatihan: Hingga Agustus 2023
Supervised: Yes
RLHF: No
Distillation: No
PaLM 2 untuk Chat
(chat-bison)
Disesuaikan untuk kasus penggunaan percakapan multi-giliran. Token input maksimum: 8192
Token output maksimum: 2048
Data pelatihan: Hingga Feb 2023
Giliran maksimum : 2500
Supervised: Yes
RLHF: No
Distillation: No
PaLM 2 untuk Chat 32k
(chat-bison-32k)
Disesuaikan untuk kasus penggunaan percakapan multi-giliran. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Data pelatihan: Hingga Agustus 2023
Giliran maksimum : 2500
Supervised: Yes
RLHF: No
Distillation: No

Model Codey API

Tabel berikut merangkum model lama Codey API. Perhatikan bahwa model penyelesaian kode code-gecko bukan model lama.

Nama model Deskripsi Properti model Dukungan penyesuaian
Codey for Code Generation
(code-bison)
Model yang telah disesuaikan untuk menghasilkan kode berdasarkan deskripsi natural language dari kode yang diinginkan. Misalnya, ini dapat menghasilkan pengujian unit untuk suatu fungsi. Token input maksimum: 6144
Token output maksimum: 1024
Supervised: Yes
RLHF: No
Distillation: No
Codey for Code Generation 32k
(code-bison-32k)
Model yang telah disesuaikan untuk menghasilkan kode berdasarkan deskripsi natural language dari kode yang diinginkan. Misalnya, ini dapat menghasilkan pengujian unit untuk suatu fungsi. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Supervised: Yes
RLHF: No
Distillation: No
Codey for Code Chat
(codechat-bison)
Model yang disesuaikan untuk percakapan chatbot yang membantu pertanyaan terkait kode. Token input maksimum: 6144
Token output maksimum: 1024
Supervised: Yes
RLHF: No
Distillation: No
Codey for Code Chat 32k
(codechat-bison-32k)
Model yang disesuaikan untuk percakapan chatbot yang membantu pertanyaan terkait kode. Token maksimum (input + output): 32.768
Token output maksimum: 8.192
Supervised: Yes
RLHF: No
Distillation: No

Dukungan bahasa

Model lama Vertex AI PaLM API dan Codey API mendukung bahasa berikut:

  • Arab (ar)
  • Bengali (bn)
  • Bulgaria (bg)
  • China (aksara sederhana dan tradisional) (zh)
  • Kroasia (hr)
  • Ceko (cs)
  • Denmark (da)
  • Belanda (nl)
  • Inggris (en)
  • Estonia (et)
  • Finlandia (fi)
  • Prancis (fr)
  • Jerman (de)
  • Yunani (el)
  • Ibrani (iw)
  • Hindi (hi)
  • Hungaria (hu)
  • Indonesia (id)
  • Italia (it)
  • Jepang (ja)
  • Korea (ko)
  • Latvia (lv)
  • Lituania (lt)
  • Norwegia (no)
  • Polandia (pl)
  • Portugis (pt)
  • Rumania (ro)
  • Rusia (ru)
  • Serbia (sr)
  • Slovakia (sk)
  • Slovenia (sl)
  • Spanyol (es)
  • Swahili (sw)
  • Swedia (sv)
  • Thai (th)
  • Turki (tr)
  • Ukraina (uk)
  • Vietnam (vi)

Tanggal penghentian model lama

Tabel berikut menunjukkan tanggal penghentian model lama:

model chat-bison Tanggal rilis Tanggal penghentian
chat-bison@002 6 Desember 2023 9 April 2025
model chat-bison-32k Tanggal rilis Tanggal penghentian
chat-bison-32k@002 4 Desember 2023 9 April 2025
model code-bison Tanggal rilis Tanggal penghentian
code-bison@002 6 Desember 2023 9 April 2025
model code-bison-32k Tanggal rilis Tanggal penghentian
code-bison-32k@002 4 Desember 2023 9 April 2025
model codechat-bison Tanggal rilis Tanggal penghentian
codechat-bison@002 6 Desember 2023 9 April 2025
model codechat-bison-32k Tanggal rilis Tanggal penghentian
codechat-bison-32k@002 4 Desember 2023 9 April 2025
model teks-bison Tanggal rilis Tanggal penghentian
text-bison@002 6 Desember 2023 9 April 2025
model text-bison-32k Tanggal rilis Tanggal penghentian
text-bison-32k@002 4 Desember 2023 9 April 2025
model text-unicorn Tanggal rilis Tanggal penghentian
text-unicorn@001 30 November 2023 9 April 2025

Model lama yang mendukung Provisioned Throughput

Tabel ini menampilkan model lama yang mendukung Throughput yang Disediakan, yang diukur dalam karakter per detik, penambahan pembelian minimum, dan rasio pembakaran.

Model Throughput per GSU Penambahan pembelian GSU minimum Rasio burndown
text-bison, chat-bison, code-bison, codechat-bison 4.000 1 1 karakter input = 1 karakter
1 karakter output = 2 karakter
text-unicorn 400 1 1 karakter input = 1 karakter
1 karakter output = 3 karakter