Pathways Language Model (PaLM)

La disponibilità del Pathways Language Model (PaLM) e dei modelli di embedding elencati di seguito è stata estesa dal 9 ottobre 2024 al 9 aprile 2025 con limitazioni. In questo modo, avrai più tempo per eseguire test e migrare ai nostri modelli Gemini 1.5 più recenti.

A partire dal 9 aprile 2025, questi modelli non saranno più accessibili. Dovrai eseguire la migrazione a un modello più recente per evitare interruzioni del servizio.

Di seguito sono riportate alcune risorse su come eseguire la migrazione ai modelli più recenti.

Informazioni importanti

Il 9 ottobre 2024 apporteremo le seguenti modifiche ai modelli precedenti:

  • Bloccare l'utilizzo di questi modelli da un progetto appena creato.
  • Rifiutare nuove richieste di aumento della quota.
  • Riduci la quota predefinita a 60 QPM.
    • Se in precedenza hai richiesto un aumento della quota, NON ne risentirai.
  • Blocca i nuovi job di ottimizzazione su questi modelli.
    • Puoi comunque utilizzare i modelli già addestrati.

I modelli PaLM elencati di seguito saranno disponibili fino alla nuova data estesa del 9 aprile 2025:

Codice Testo Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

Che cosa devi fare

Ti invitiamo vivamente a eseguire la migrazione a Gemini 1.5 Flash e Gemini 1.5 Pro per migliorare le prestazioni nella maggior parte delle attività, aumentare notevolmente la finestra contestuale oltre 1 milione di token e usufruire della multimodalità nativa. Oltre a questi miglioramenti, registrerai anche risparmi significativi sui costi.

Inoltre, puoi utilizzare il servizio di valutazione di Vertex AI per confrontare le prestazioni tra i modelli nei tuoi set di dati di valutazione.

Consulta la nostra guida completa su come eseguire la migrazione dall'API PaLM all'API Gemini in Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)