Vertex AI PaLM API と Vertex AI Codey API を使用して、Google の生成 AI 言語モデルにアクセスし、チューニングとデプロイを行うことができます。API を使用してモデルを操作し、モデルを Jupyter ノートブックにデプロイするなど、言語モデルを使用して Vertex AI からさまざまなワークフローを実行できます。また、モデルのチューニングを行い、特定のユースケースに合わせて言語モデルをカスタマイズすることもできます。このページでは、使用可能な言語モデル、モデルとのやり取りに使用する API、モデルの動作のカスタマイズ方法について説明します。
モデルの命名スキーム
基盤モデル名は、ユースケースとモデルサイズの 2 つの要素から構成されています。名前は <use case>-<model size>
の形式になっています。たとえば、text-bison
は Bison テキストモデルを表します。
モデルサイズは次のとおりです。
- Unicorn: PaLM ファミリー最大のモデル。Unicorn モデルは、モデルに組み込まれた幅広い知識とその推論機能により、コーディングや思考の連鎖(CoT)などの複雑なタスクに適しています。
- Bison: 幅広い言語タスク(分類、要約など)を処理する最適な PaLM モデル。精度とレイテンシが妥当なコストで最適化されます。テキスト、チャット、コード、コードチャットのインターフェースにより、デプロイとアプリケーションへのインテグレーションが簡素化されます。
- Gecko: 最小サイズで、費用が最も少ないモデル。シンプルなタスク向けです。
モデルの安定版または最新バージョンを使用できます。詳細については、モデルのバージョンとライフサイクルをご覧ください。
Vertex AI PaLM API
Vertex AI PaLM API を使用すると、自然言語テキスト、テキスト エンベディング、コードの生成をサポートする PaLM 2 モデル ファミリーにアクセスできます(コードの生成には Vertex AI Codey API をおすすめします)。PaLM 2 は、Google Labs が開発した第 2 世代の Pathways Language Model です。Vertex AI PaLM API を使用すると、Vertex AI が提供する MLOps ツール、エンタープライズ レベルのセキュリティ、安全性、プライバシー、スケーラビリティの利点が得られます。
Vertex AI PaLM API は、Google Cloud プロジェクトごとに固有のグローバル パブリッシャー エンドポイントを使用して、PaLM 2 モデルを公開します。以下に、パブリッシャー モデルのエンドポイントの例を示します。
https://us-central1-aiplatform.googleapis.com/v1/projects/your_project_id/locations/us-central1/publishers/google/models/text-bison:predict
Vertex AI PaLM API には、次の PaLM 2 モデルのパブリッシャー エンドポイントがあります。
text-bison
: 分類、要約、抽出、コンテンツ作成、アイディエーションなどの自然言語タスクの実行向けに最適化されています。chat-bison
: マルチターン チャット用に微調整されています。チャット内の以前のメッセージを追跡して、新しいレスポンスを生成するためのコンテキストとして使用します。textembedding-gecko
: 指定されたテキストのテキスト エンベディングを生成します。エンベディングは、セマンティック検索、レコメンデーション、分類、外れ値検出などのタスクに使用できます。
これらのモデルの詳細については、使用可能なモデルをご覧ください。
Vertex AI Codey API
Vertex AI Codey API は、いくつかのプログラミング言語のコード生成、コードチャット、コード補完をサポートするように最適化されています。Vertex AI Codey API は、PaLM 2 ファミリーのモデルに基づいています。詳細については、コードモデルの概要をご覧ください。
プロンプト設計
PaLM 2 などの基盤モデルとやり取りするには、自然言語で記述した命令(プロンプト)を送信して、生成したい内容をモデルに指示します。しかし、LLM は予期しない動作をすることがあります。プロンプト設計は試行錯誤を繰り返すプロセスであり、習熟までに時間と練習が必要です。一般的なプロンプト設計戦略については、プロンプト設計の概要をご覧ください。タスク固有のテキスト プロンプトの設計ガイダンスについては、テキスト プロンプトを設計するをご覧ください。
モデルのチューニング
特定のユースケース用に PaLM 2 モデルをカスタマイズする必要がある場合は、入力例と出力例のデータセットを使用してモデルをチューニングします。チューニングされたモデルは、リクエストを処理するために、プロジェクトの新しいエンドポイントに自動的にデプロイされます。モデルのチューニングの詳細については、基盤モデルをチューニングするをご覧ください。
次のステップ
- テキスト プロンプトの設計方法を学習する。
- チャット プロンプトの設計方法を学習する。
- コードモデルについてさらに学習する。
- モデルからのレスポンスのストリーミングについて学習する。