翻訳 LLM モデルの教師ありファインチューニングについて

教師ありファインチューニングは、ラベル付きテキストデータが利用可能な翻訳タスクがある場合に適しています。これは、翻訳が、大規模モデルのトレーニングに使用された一般的なデータと大きく異なるドメイン固有のアプリケーションに特に有効です。

教師ありファインチューニングでは、ラベル付きデータセットを使用してモデルの動作を調整します。このプロセスでは、予測と実際のラベルの差を最小限に抑えるために、モデルの重みを調整します。

サポートされているモデル

教師ありチューニングは、次の翻訳 LLM モデルでサポートされています。

  • translation-llm-002(パブリック プレビュー版。テキストのみをサポート)

制限事項

  • 入力トークンと出力トークンの最大数:
    • サービング: 1,000(約 4,000 文字)
  • 検証データセットのサイズ: 1,024 個のサンプル
  • トレーニング データセット ファイルサイズ: JSONL の場合、最大 1 GB
  • トレーニング サンプルの長さ: 1,000(約 4,000 文字)
  • アダプタサイズ:
    • Translation LLM V2: サポートされている値は 4 のみです。他の値(1 または 8)を使用すると、失敗します。

教師ありファインチューニングを使用するユースケース

一般的な事前トレーニング済み翻訳モデルは、翻訳するテキストが、モデルが学習した一般的な一般的なテキスト構造に基づいている場合に適しています。一般的な翻訳から逸脱するニッチな、またはドメイン固有の情報をモデルに学習させる場合は、そのモデルのチューニングを検討してください。たとえば、モデルのチューニングを使用して、モデルに次のことを学習させられます。

  • 専門用語やスタイルが含まれる業界ドメインの特定のコンテンツ
  • 出力を生成するための特定の構造や形式
  • 場合に応じて出力を簡潔または詳細にするなどの、特定の動作
  • 入力のタイプに合わせてカスタマイズされた特定の出力

チューニング ジョブのリージョンを構成する

変換済みデータセットやチューニング済みモデルなどのユーザーデータは、チューニング ジョブのリージョンに保存されます。サポートされているリージョンは us-central1 だけです。

  • Vertex AI SDK を使用する場合は、初期化時にリージョンを指定できます。例:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • tuningJobs.create メソッドで POST リクエストを送信して教師ありファインチューニング ジョブを作成する場合は、URL を使用してチューニング ジョブが実行されるリージョンを指定します。たとえば、次の URL で、TUNING_JOB_REGION の両方のインスタンスを、ジョブが実行されるリージョンに置き換えてリージョンを指定します。

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Google Cloud コンソールを使用している場合は、[モデルの詳細] ページの [リージョン] プルダウン フィールドでリージョン名を選択できます。これは、ベースモデルとチューニング済みモデル名を選択するページと同じです。

割り当て

同時チューニング ジョブの数に割り当てが適用されます。どのプロジェクトにも、少なくとも 1 つのチューニング ジョブを実行するためのデフォルトの割り当てがあります。これはグローバル割り当てであり、利用可能なすべてのリージョンとサポートされているモデルで共有されます。複数のジョブを同時に実行する場合は、Global concurrent tuning jobs追加の割り当てをリクエストする必要があります。

料金

translation-llm-002 の教師ありファインチューニングはプレビュー版です。チューニングがプレビュー版の場合、モデルのチューニングや推論に使用するのに料金はかかりません。

トレーニング トークンの数は、トレーニング データセット内のトークンの合計数にエポック数を掛けて計算されます。

次のステップ