Mulai 9 April 2025, model ini tidak akan dapat diakses lagi. Anda harus melakukan migrasi ke model yang lebih baru untuk menghindari gangguan layanan.
Kami telah menyertakan referensi di bawah tentang cara bermigrasi ke model yang lebih baru.
Yang perlu Anda ketahui
Pada 9 Oktober 2024, kami akan melakukan perubahan berikut pada model lama:
- Blokir penggunaan model ini dari project yang baru dibuat.
- Menolak permintaan penambahan kuota baru.
- Turunkan kuota default menjadi 60 QPM.
- Jika sebelumnya telah meminta penambahan kuota, Anda TIDAK akan terpengaruh.
- Blokir tugas penyesuaian baru pada model ini.
- Anda tetap dapat menggunakan model yang telah dilatih.
Model PaLM yang tercantum di bawah akan tersedia hingga tanggal baru yang diperpanjang yaitu 9 April 2025:
Kode | Teks | Chat |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
Yang perlu dilakukan
Sebaiknya Anda bermigrasi ke Gemini 1.5 Flash dan Gemini 1.5 Pro untuk performa yang lebih baik di sebagian besar tugas, jendela konteks yang meningkat secara substansial lebih dari 1 juta token, dan multimodalitas native. Anda juga akan melihat penghematan biaya yang signifikan bersama dengan peningkatan ini.
Selain itu, Anda dapat menggunakan layanan Evaluasi Vertex AI untuk membandingkan performa antarmodel pada set data evaluasi Anda sendiri.
Harap tinjau panduan lengkap kami tentang cara bermigrasi dari PaLM API ke Gemini API di Vertex AI.
PaLM | Gemini |
---|---|
|
|