Gemini のモデル チューニングの概要

モデルのチューニングは、Gemini を適応させて特定のタスクをより正確に実行するための重要なプロセスです。モデルのチューニングは、特定のダウンストリーム タスクのサンプルセットが含まれるトレーニング データセットをモデルに提供することで行われます。

このページでは、Gemini のモデル チューニングの概要、Gemini で利用可能なチューニング オプションについて説明します。また、各チューニング オプションを使用するタイミングについても説明します。

モデルをチューニングするメリット

モデルのチューニングは、大規模なモデルをタスクに合わせてカスタマイズする効果的な方法です。これは、モデルの品質と効率性を改善するための重要なステップです。モデルのチューニングには次の利点があります。

  • 特定のタスクの品質が向上する。
  • モデルの堅牢性が向上する。
  • プロンプトが短くなるため、推論のレイテンシとコストが低減される。

チューニングとプロンプト設計の比較

チューニングには、次のような点でプロンプト設計よりもメリットがあります。

  • モデルを詳細にカスタマイズでき、特定のタスクでパフォーマンスが向上します。
  • 一貫性と信頼性の高い結果が得られます。
  • 複数のサンプルを一度に処理できます

パラメータ効率チューニング

パラメータ効率チューニング(アダプタ チューニングとも呼ばれます)を使用すると、大規模なモデルを特定のタスクやドメインに効率的に適応させることができます。パラメータ効率チューニングでは、チューニング プロセス中にモデルのパラメータの比較的小さなサブセットを更新します。

Vertex AI がアダプタ チューニングとサービングをサポートする方法については、ホワイトペーパー、大規模な基盤モデルの適応をご覧ください。

完全なファインチューニングと比較したパラメータ効率チューニング

パラメータ効率チューニングと完全なファインチューニングは、大規模なモデルをカスタマイズするための 2 つのアプローチです。どちらの方法にも、モデルの品質とリソース効率の点でメリットと影響があります。

完全なファインチューニングでは、モデルのすべてのパラメータが更新されるため、モデルを高度な複雑なタスクに適応させることができ、より高い品質を実現できる可能性があります。ただし、完全なファインチューニングを行うと、チューニングとサービングの両方でコンピューティング リソースが大量に必要になり、全体的なコストが高くなります。

パラメータ効率チューニングは、完全なファインチューニングよりもリソース効率と費用対効果に優れています。トレーニングに必要な計算リソースが大幅に少なくなります。小規模なデータセットでモデルをより迅速に適応させることができます。パラメータ効率チューニングは、大規模な再トレーニングを必要としないため、マルチタスク学習に適したソリューションとなります。

Vertex AI は、さまざまなシナリオで、パラメータ効率チューニングと完全なファインチューニングをサポートしています。

Gemini モデルのチューニング

パラメータ効率チューニングを使用した教師ありチューニングは、次の Gemini モデルでサポートされています。

  • gemini-1.0-pro-002

教師ありのファインチューニングは、ラベル付きデータが利用可能な、明確に定義されたタスクがある場合に適しています。これは、言語やコンテンツが、大規模モデルのトレーニングに使用されたデータと大きく異なるドメイン固有のアプリケーションに特に有効です。

教師ありチューニングでは、ラベル付きデータセットを使用してモデルの動作を調整します。このプロセスでは、予測と実際のラベルの差を最小限に抑えるために、モデルの重みを調整します。次のタイプのタスクでモデルのパフォーマンスを向上させることができます。

  • 分類
  • 感情分析
  • エンティティの抽出
  • 複雑でないコンテンツの要約
  • ドメイン固有のクエリの作成

Gemini モデルのチューニングの割り当て

同時チューニング ジョブの数に割り当てが適用されます。どのプロジェクトにも、少なくとも 1 つのチューニング ジョブを実行するためのデフォルトの割り当てがあります。これはグローバル割り当てであり、利用可能なすべてのリージョンで共有されます。複数のジョブを同時に実行する場合は、Global concurrent tuning jobs追加の割り当てをリクエストする必要があります。