Pathways Language Model (PaLM)

Ketersediaan Pathways Language Model (PaLM) dan model penyematan yang tercantum di bawah telah diperpanjang dari 9 Oktober 2024 hingga 9 April 2025 dengan batasan. Hal ini memberi Anda lebih banyak waktu untuk menguji dan bermigrasi ke model Gemini 1.5 terbaru kami.

Mulai 9 April 2025, model ini tidak akan dapat diakses lagi. Anda harus melakukan migrasi ke model yang lebih baru untuk menghindari gangguan layanan.

Kami telah menyertakan referensi di bawah tentang cara bermigrasi ke model yang lebih baru.

Yang perlu Anda ketahui

Pada 9 Oktober 2024, kami akan melakukan perubahan berikut pada model lama:

  • Blokir penggunaan model ini dari project yang baru dibuat.
  • Menolak permintaan penambahan kuota baru.
  • Turunkan kuota default menjadi 60 QPM.
    • Jika sebelumnya telah meminta penambahan kuota, Anda TIDAK akan terpengaruh.
  • Blokir tugas penyesuaian baru pada model ini.
    • Anda tetap dapat menggunakan model yang telah dilatih.

Model PaLM yang tercantum di bawah akan tersedia hingga tanggal baru yang diperpanjang yaitu 9 April 2025:

Kode Teks Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

Yang perlu dilakukan

Sebaiknya Anda bermigrasi ke Gemini 1.5 Flash dan Gemini 1.5 Pro untuk performa yang lebih baik di sebagian besar tugas, jendela konteks yang meningkat secara substansial lebih dari 1 juta token, dan multimodalitas native. Anda juga akan melihat penghematan biaya yang signifikan bersama dengan peningkatan ini.

Selain itu, Anda dapat menggunakan layanan Evaluasi Vertex AI untuk membandingkan performa antarmodel pada set data evaluasi Anda sendiri.

Harap tinjau panduan lengkap kami tentang cara bermigrasi dari PaLM API ke Gemini API di Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)