Mulai 9 April 2025, model ini tidak akan dapat diakses lagi. Anda akan harus bermigrasi ke model yang lebih baru untuk menghindari gangguan layanan.
Kami telah menyertakan referensi di bawah tentang cara bermigrasi ke model yang lebih baru.
Yang perlu Anda ketahui
Pada 9 Oktober 2024, kami akan melakukan perubahan berikut pada model lama:
- Blokir penggunaan model ini dari project yang baru dibuat.
- Menolak permintaan penambahan kuota baru.
- Turunkan kuota default menjadi 60 QPM.
- Jika sebelumnya telah meminta penambahan kuota, Anda TIDAK akan terpengaruh.
- Blokir tugas penyesuaian baru pada model ini.
- Anda tetap dapat menggunakan model yang telah dilatih.
Model PaLM yang tercantum di bawah akan tersedia hingga tanggal baru yang diperpanjang yaitu 9 April 2025:
Kode | Teks | Chat |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
Yang perlu dilakukan
Sebaiknya Anda beralih ke Gemini 1.5 Flash dan Gemini 1.5 Kelebihan untuk peningkatan performa pada sebagian besar tugas, meningkat secara signifikan lebih dari 1 juta token, dan multimodalitas native. Anda juga akan melihat penghematan biaya yang signifikan bersama dengan peningkatan ini.
Selain itu, Anda dapat menggunakan layanan Vertex AI Evaluation untuk membandingkan performa antarmodel di set data evaluasi Anda sendiri.
Harap tinjau panduan lengkap kami tentang cara bermigrasi dari PaLM API ke Gemini API di Vertex AI.
PaLM | Gemini |
---|---|
|
|