Pathways Language Model(PaLM)

以下の Pathways Language Model(PaLM)とエンベディング モデルの提供期限が 2024 年 10 月 9 日から 2025 年 4 月 9 日(制限付き)に延長されました。これにより、最新の Gemini 1.5 モデルをテストして移行するための時間を確保できます。

2025 年 4 月 9 日以降、これらのモデルにアクセスできなくなります。サービスが中断されないようにするには、新しいモデルに移行する必要があります。

新しいモデルに移行する方法については、下記のリソースをご覧ください。

ご注意いただきたい点

2024 年 10 月 9 日に、以前のモデルに以下の変更が適用されます。

  • 新しく作成されたプロジェクトで、これらのモデルの使用がブロックされます。
  • 新しい割り当て増加リクエストが拒否されます。
  • デフォルトの割り当てが 60 QPM に減ります。
    • 割り当ての増加を以前にリクエストしている場合は、影響を受けません。
  • これらのモデルで、新しいチューニング ジョブがブロックされます。
    • すでにトレーニング済みのモデルは引き続き使用できます。

以下の PaLM モデルは、新しい利用期限である 2025 年 4 月 9 日までご利用いただけます。

コード テキスト チャット
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

ご対応のお願い

Gemini 1.5 FlashGemini 1.5 Pro に移行することを強くおすすめします。ほとんどのタスクでパフォーマンスが向上します。コンテキスト ウィンドウが 100 万トークンを超えて大幅に拡大し、ネイティブ マルチモーダル機能が利用可能になります。また、これらの改善に加えて、大幅な費用削減も実現できます。

Vertex AI Evaluation Service を使用して、独自の評価データセットでモデル間のパフォーマンスを比較することもできます。

Vertex AI で PaLM API から Gemini API に移行する方法のガイドをご覧ください。

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)