生成 AI は、膨大な量のデータで事前トレーニングされた大規模な ML モデルに依存することがよくあります。これらは基盤モデルと呼ばれ、さまざまなタスクのベースとして機能します。Vertex AI の生成 AI を使用して基盤モデルをカスタマイズする方法は多数あります。
チューニング: チューニングでは、選択したダウンストリーム タスクに関連する特定のサンプルのトレーニング データセットをモデルに提供します。
- 教師ありチューニング: この手法では、ラベル付きの例を使用してモデルをファインチューニングします。各例は、推論中に特定の入力に対して選択された出力を示しています。教師ありチューニングは、分類、感情分析、エンティティ抽出、複雑でないコンテンツの要約、ドメイン固有のクエリの生成など、想定される出力が過度に複雑ではなく、明確に定義できるタスクに効果的です。教師あり学習を使用して、テキスト、画像、音声、ドキュメントのデータ型をチューニングできます。
- 人間からのフィードバックを用いた強化学習(RLHF)のチューニング: この方法は、選択したモデルの出力が複雑な場合に適しています。RLHF チューニングは、質問応答、複雑なコンテンツの要約、クリエイティブ コンテンツの生成など、教師ありチューニングでは簡単に区別できない目標に適しています。
蒸留: 蒸留では、大規模で機能が豊富な「教師」モデルの動作を模倣するように、小規模な「生徒」モデルをトレーニングすることがよくあります。
アダプター モデルのトレーニング: 基盤モデルと連携して動作する小規模なアダプター モデル(またはレイヤ)をトレーニングし、専門的なタスクのパフォーマンスを向上させます。多くの場合、元の基盤モデルのパラメータはフリーズされたままで、トレーニング中に更新されるのはアダプタの重みのみです。
グラウンディング: トレーニング方法ではありませんが、グラウンディングは生成 AI の出力の信頼性を確保するうえで重要な要素です。グラウンディングでは、モデルの出力を検証可能な情報源に接続し、コンテンツが捏造される可能性を低減します。多くの場合、推論中にモデルに特定のデータソースへのアクセス権を付与する必要があります。