À partir du 9 avril 2025, ces modèles ne seront plus accessibles. Vous devrez migrer vers un modèle plus récent pour éviter toute interruption de service.
Vous trouverez ci-dessous des ressources expliquant comment migrer vers des modèles plus récents.
À savoir
Le 9 octobre 2024, nous apporterons les modifications suivantes aux anciens modèles :
- Blocage de l'utilisation de ces modèles à partir d'un projet nouvellement créé.
- Rejet des nouvelles demandes d'augmentation de quota.
- Réduction du quota par défaut à 60 RPM.
- Si vous avez déjà demandé une augmentation de quota, vous ne serez PAS concerné.
- Blocage des nouveaux jobs de réglage sur ces modèles
- Vous pouvez toujours utiliser des modèles déjà entraînés.
Les modèles PaLM listés ci-dessous seront disponibles jusqu'à la nouvelle date du 9 avril 2025 :
Code | Texte | Chat |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
Que devez-vous faire ?
Nous vous encourageons vivement à migrer vers Gemini 1.5 Flash et Gemini 1.5 Pro pour améliorer les performances de la plupart des tâches, augmenter considérablement la fenêtre de contexte à plus d'un million de jetons et bénéficier d'une multimodalité native. Vous constaterez également des économies de coûts importantes grâce à ces améliorations.
Vous pouvez également utiliser le service d'évaluation Vertex AI pour comparer les performances des modèles sur vos propres ensembles de données d'évaluation.
Veuillez consulter notre guide complet sur la migration de l'API PaLM vers l'API Gemini dans Vertex AI.
PaLM | Gemini |
---|---|
|
|