2025 年 4 月 9 日以降、これらのモデルにアクセスできなくなります。サービスが中断されないようにするには、新しいモデルに移行する必要があります。
新しいモデルに移行する方法については、下記のリソースをご覧ください。
ご注意いただきたい点
2024 年 10 月 9 日に、以前のモデルに以下の変更が適用されます。
- 新しく作成されたプロジェクトで、これらのモデルの使用がブロックされます。
- 新しい割り当て増加リクエストが拒否されます。
- デフォルトの割り当てが 60 QPM に減ります。
- 割り当ての増加を以前にリクエストしている場合は、影響を受けません。
- これらのモデルで、新しいチューニング ジョブがブロックされます。
- すでにトレーニング済みのモデルは引き続き使用できます。
以下の PaLM モデルは、新しい利用期限である 2025 年 4 月 9 日までご利用いただけます。
コード | テキスト | チャット |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
ご対応のお願い
Gemini 1.5 Flash と Gemini 1.5 Pro に移行することを強くおすすめします。ほとんどのタスクでパフォーマンスが向上します。コンテキスト ウィンドウが 100 万トークンを超えて大幅に拡大し、ネイティブ マルチモーダル機能が利用可能になります。また、これらの改善に加えて、大幅な費用削減も実現できます。
Vertex AI Evaluation Service を使用して、独自の評価データセットでモデル間のパフォーマンスを比較することもできます。
Vertex AI で PaLM API から Gemini API に移行する方法のガイドをご覧ください。
PaLM | Gemini |
---|---|
|
|