PaLM (Pathways Language Model)

La disponibilité du modèle de langage Pathways (PaLM) et des modèles d'embedding listés ci-dessous a été prolongée du 9 octobre 2024 au 9 avril 2025 avec des restrictions. Vous disposez ainsi de plus de temps pour tester et migrer vers nos derniers modèles Gemini 1.5.

À partir du 9 avril 2025, ces modèles ne seront plus accessibles. Vous devrez migrer vers un modèle plus récent pour éviter toute interruption de service.

Vous trouverez ci-dessous des ressources expliquant comment migrer vers des modèles plus récents.

À savoir

Le 9 octobre 2024, nous apporterons les modifications suivantes aux anciens modèles :

  • Blocage de l'utilisation de ces modèles à partir d'un projet nouvellement créé.
  • Rejet des nouvelles demandes d'augmentation de quota.
  • Réduction du quota par défaut à 60 RPM.
    • Si vous avez déjà demandé une augmentation de quota, vous ne serez PAS concerné.
  • Blocage des nouveaux jobs de réglage sur ces modèles
    • Vous pouvez toujours utiliser des modèles déjà entraînés.

Les modèles PaLM listés ci-dessous seront disponibles jusqu'à la nouvelle date du 9 avril 2025 :

Code Texte Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

Que devez-vous faire ?

Nous vous encourageons vivement à migrer vers Gemini 1.5 Flash et Gemini 1.5 Pro pour améliorer les performances de la plupart des tâches, augmenter considérablement la fenêtre de contexte à plus d'un million de jetons et bénéficier d'une multimodalité native. Vous constaterez également des économies de coûts importantes grâce à ces améliorations.

Vous pouvez également utiliser le service d'évaluation Vertex AI pour comparer les performances des modèles sur vos propres ensembles de données d'évaluation.

Veuillez consulter notre guide complet sur la migration de l'API PaLM vers l'API Gemini dans Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)