À propos du réglage supervisé pour les modèles Gemini

L'optimisation supervisée est une bonne option lorsque vous avez une tâche bien définie avec des données étiquetées disponibles. Cette approche est particulièrement efficace pour les applications spécifiques à un domaine, où le langage ou le contenu diffèrent considérablement des données sur lesquelles le modèle volumineux a été initialement entraîné.

Le réglage supervisé adapte le comportement du modèle à un ensemble de données étiquetées. Ce processus ajuste les pondérations du modèle afin de minimiser la différence entre ses prédictions et les étiquettes réelles. Par exemple, cela peut améliorer les performances du modèle pour les types de tâches suivants :

  • Classification
  • Synthèse
  • Systèmes de questions-réponses extractifs
  • Chat

Modèles compatibles

Les modèles de textes Gemini suivants sont compatibles avec le réglage supervisé :

  • gemini-1.0-pro-002

Cas d'utilisation du réglage supervisé sur des modèles de texte

Les modèles de texte de fondation fonctionnent bien lorsque la sortie ou la tâche attendue peut être définie de manière claire et concise dans une requête et que celle-ci génère systématiquement le résultat attendu. Si vous souhaitez qu'un modèle apprenne quelque chose de spécifique ou de différent des modèles généraux de langage, vous pouvez envisager de régler ce modèle. Vous pouvez par exemple utiliser les réglages de modèles pour apprendre au modèle ce qui suit :

  • Structures ou formats spécifiques pour générer la sortie.
  • Comportements spécifiques, par exemple lorsqu'il s'agit de fournir une sortie sobre ou détaillée.
  • Sorties personnalisées spécifiques pour des types d'entrées spécifiques.

Les exemples suivants sont des cas d'utilisation difficiles à capturer seulement avec des instructions de requête :

  • Classification : la réponse attendue est un mot ou une expression spécifique.

     :

    Le réglage du modèle peut empêcher le modèle de générer des réponses détaillées.

  • Synthèse : le résumé respecte un format spécifique. Par exemple, vous devrez peut-être supprimer d'un résumé de chat les informations permettant d'identifier personnellement l'utilisateur.

     :

    Ce format de remplacement des noms des locuteurs par #Person1 et #Person2 est difficile à décrire, et le modèle de fondation peut ne pas produire naturellement une telle réponse.

  • Systèmes de questions-réponses extractifs : la question porte sur un contexte et la réponse est une sous-chaîne du contexte.

     :

    La réponse "Dernière période glaciaire la plus longue" est une expression spécifique du contexte.

  • Chat : vous devez personnaliser la réponse du modèle pour suivre un persona, un rôle ou un caractère.

Vous pouvez également régler un modèle dans les situations suivantes :

  • Les requêtes ne produisent pas suffisamment les résultats souhaités.
  • La tâche est trop compliquée à définir dans une requête. Par exemple, vous souhaitez que le modèle effectue un clonage de comportement pour un comportement difficile à expliquer dans une requête.
  • Vous avez des intuitions complexes sur une tâche facile à déclencher, mais difficile à formaliser dans une requête.
  • Vous souhaitez réduire la longueur du contexte en supprimant les exemples few-shot.

Quota

Le quota est appliqué au nombre de jobs de réglage simultanés. Chaque projet est associé à un quota par défaut pour exécuter au moins un job de réglage. Il s'agit d'un quota mondial, partagé entre toutes les régions disponibles. Si vous souhaitez exécuter plus de jobs simultanément, vous devez demander un quota supplémentaire pour Global concurrent tuning jobs.

Tarifs

L'affinage supervisé pour gemini-1.0-pro-002 est en preview.

  • Lorsque le réglage est en version preview, le réglage d'un modèle n'engendre aucuns frais.
  • Après le réglage d'un modèle, les coûts d'inférence du modèle réglé continuent de s'appliquer. Les tarifs d'inférence sont les mêmes pour chaque version stable de Gemini 1.0 Pro.

Pour en savoir plus, consultez les sections Tarifs de Vertex AI et Versions de modèles stables Gemini disponibles.

Étape suivante