Pathways Language Model (PaLM)

La disponibilità di Pathways Language Model (PaLM) e i modelli di incorporamento elencati di seguito sono stati estesi dal 9 ottobre 2024 alle 9 aprile 2025 con limitazioni. In questo modo, avrai più tempo per eseguire test e migrare ai nostri modelli Gemini 1.5 più recenti.

A partire dal 9 aprile 2025, questi modelli non saranno più accessibili. Dovrai eseguire la migrazione a un modello più recente per evitare interruzioni del servizio.

Di seguito, abbiamo incluso delle risorse su come eseguire la migrazione ai modelli più recenti.

Informazioni importanti

Il 9 ottobre 2024 apporteremo le seguenti modifiche ai modelli precedenti:

  • Blocca l'utilizzo di questi modelli in un progetto appena creato.
  • Rifiutare le nuove richieste di aumento della quota.
  • Riduci la quota predefinita a 60 QPM.
    • Se in precedenza hai richiesto un aumento della quota, NON ne risentirai.
  • Blocca i nuovi job di ottimizzazione su questi modelli.
    • Puoi comunque utilizzare i modelli già addestrati.

I modelli PaLM elencati di seguito saranno disponibili fino alla nuova data estesa di 9 aprile 2025:

Codice Testo Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

Che cosa devi fare

Ti consigliamo vivamente di eseguire la migrazione a Gemini 1.5 Flash e Gemini 1.5. Pro per prestazioni migliorate nella maggior parte delle attività, con un notevole incremento finestra contestuale su 1 milione di token e multimodalità nativa. Oltre a questi miglioramenti, registrerai anche risparmi significativi sui costi.

Inoltre, puoi utilizzare il servizio Vertex AI Evaluation per confrontare tra i modelli in base ai tuoi set di dati di valutazione.

Consulta la nostra guida completa su come eseguire la migrazione dall'API PaLM all'API Gemini in Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)