À propos du réglage supervisé

L'optimisation supervisée est une bonne option lorsque vous avez une tâche bien définie avec des données étiquetées disponibles. Elle est particulièrement efficace pour les applications spécifiques à un domaine dont la langue ou le contenu diffère considérablement des données sur lesquelles le grand modèle a été initialement entraîné.

L'optimisation supervisée adapte le comportement du modèle à un ensemble de données étiquetées. Ce processus ajuste les pondérations du modèle pour minimiser la différence entre ses prédictions et les étiquettes réelles. Il peut améliorer les performances du modèle pour les types de tâches suivants:

  • Classification
  • Analyse des sentiments
  • Extraction d'entités
  • Synthèse de contenu simple
  • Écrire des requêtes spécifiques à un domaine

Modèles compatibles

Les modèles de textes Gemini suivants sont compatibles avec le réglage supervisé :

  • gemini-1.0-pro-002

Cas d'utilisation du réglage supervisé sur des modèles de texte

Les modèles de texte de fondation fonctionnent bien lorsque la sortie ou la tâche attendue peut être définie de manière claire et concise dans une requête et que celle-ci génère systématiquement le résultat attendu. Si vous souhaitez qu'un modèle apprenne quelque chose de spécifique ou de différent des modèles généraux de langage, vous pouvez envisager de régler ce modèle. Vous pouvez par exemple utiliser les réglages de modèles pour apprendre au modèle ce qui suit :

  • Structures ou formats spécifiques pour générer la sortie.
  • Comportements spécifiques, par exemple lorsqu'il s'agit de fournir une sortie sobre ou détaillée.
  • Sorties personnalisées spécifiques pour des types d'entrées spécifiques.

Les exemples suivants sont des cas d'utilisation difficiles à capturer seulement avec des instructions de requête :

  • Classification : la réponse attendue est un mot ou une expression spécifique.

     :

    Le réglage du modèle peut empêcher le modèle de générer des réponses détaillées.

  • Synthèse : le résumé respecte un format spécifique. Par exemple, vous devrez peut-être supprimer d'un résumé de chat les informations permettant d'identifier personnellement l'utilisateur.

     :

    Ce format de remplacement des noms des locuteurs par #Person1 et #Person2 est difficile à décrire, et le modèle de fondation peut ne pas produire naturellement une telle réponse.

  • Systèmes de questions-réponses extractifs : la question porte sur un contexte et la réponse est une sous-chaîne du contexte.

     :

    La réponse "Dernière période glaciaire la plus longue" est une expression spécifique du contexte.

  • Chat : vous devez personnaliser la réponse du modèle pour suivre un persona, un rôle ou un caractère.

Vous pouvez également régler un modèle dans les situations suivantes :

  • Les requêtes ne produisent pas suffisamment les résultats souhaités.
  • La tâche est trop compliquée à définir dans une requête. Par exemple, vous souhaitez que le modèle effectue un clonage de comportement pour un comportement difficile à expliquer dans une requête.
  • Vous avez des intuitions complexes sur une tâche facile à déclencher, mais difficile à formaliser dans une requête.
  • Vous souhaitez réduire la longueur du contexte en supprimant les exemples few-shot.

Étapes suivantes