L'optimisation supervisée est une bonne option lorsque vous avez une tâche bien définie avec des données étiquetées disponibles. Cette approche est particulièrement efficace pour les applications spécifiques à un domaine, où le langage ou le contenu diffèrent considérablement des données sur lesquelles le modèle volumineux a été initialement entraîné. Vous pouvez ajuster les types de données texte, image, audio et document.
Le réglage supervisé adapte le comportement du modèle à un ensemble de données étiquetées. Ce processus ajuste les pondérations du modèle afin de minimiser la différence entre ses prédictions et les étiquettes réelles. Par exemple, cela peut améliorer les performances du modèle pour les types de tâches suivants :
- Classification
- Synthèse
- Systèmes de questions-réponses extractifs
- Chat
Modèles compatibles
Les modèles Gemini suivants sont compatibles avec le réglage supervisé :
gemini-1.5-pro-002
(en DG, compatible avec le texte, les images, l'audio et les documents)gemini-1.5-flash-002
(en DG, compatible avec le texte, les images, l'audio et les documents)gemini-1.0-pro-002
(en version bêta, compatible uniquement avec le réglage du texte)
Limites
- Nombre maximal de jetons d'entrée et de sortie :
- Exemples d'entraînement : 32 000
- Diffusion : 32 000
- Taille de l'ensemble de données de validation : 256 exemples
- Taille de fichier de l'ensemble de données d'entraînement : jusqu'à 1 Go pour JSONL
- Taille de l'adaptateur :
Gemini 1.5 Pro
: les valeurs compatibles sont 1 et 4 (la valeur par défaut est 4). Utiliser des valeurs plus élevées (par exemple, 8 ou 16) entraîne un échec.Gemini 1.5 Flash
: les valeurs compatibles sont 1, 4, 8 et 16 (la valeur par défaut est 8).
Cas d'utilisation du réglage supervisé
Les modèles de fondation fonctionnent bien lorsque la sortie ou la tâche attendue peut être définie de manière claire et concise dans une requête et que celle-ci génère systématiquement le résultat attendu. Si vous souhaitez qu'un modèle apprenne quelque chose de spécifique ou de différent des modèles généraux, vous pouvez envisager de régler ce modèle. Vous pouvez par exemple utiliser les réglages de modèles pour apprendre au modèle ce qui suit :
- Structures ou formats spécifiques pour générer la sortie.
- Comportements spécifiques, par exemple lorsqu'il s'agit de fournir une sortie sobre ou détaillée.
- Sorties personnalisées spécifiques pour des types d'entrées spécifiques.
Les exemples suivants sont des cas d'utilisation difficiles à capturer seulement avec des instructions de requête :
Classification : la réponse attendue est un mot ou une expression spécifique.
:
Le réglage du modèle peut empêcher le modèle de générer des réponses détaillées.
Synthèse : le résumé respecte un format spécifique. Par exemple, vous devrez peut-être supprimer d'un résumé de chat les informations permettant d'identifier personnellement l'utilisateur.
:
Ce format de remplacement des noms des locuteurs par
#Person1
et#Person2
est difficile à décrire, et le modèle de fondation peut ne pas produire naturellement une telle réponse.Systèmes de questions-réponses extractifs : la question porte sur un contexte et la réponse est une sous-chaîne du contexte.
:
La réponse "Dernière période glaciaire la plus longue" est une expression spécifique du contexte.
Chat : vous devez personnaliser la réponse du modèle pour suivre un persona, un rôle ou un caractère.
Vous pouvez également régler un modèle dans les situations suivantes :
- Les requêtes ne produisent pas suffisamment les résultats souhaités.
- La tâche est trop compliquée à définir dans une requête. Par exemple, vous souhaitez que le modèle effectue un clonage de comportement pour un comportement difficile à expliquer dans une requête.
- Vous avez des intuitions complexes sur une tâche facile à déclencher, mais difficile à formaliser dans une requête.
- Vous souhaitez réduire la longueur du contexte en supprimant les exemples few-shot.
Configurer une région de job de réglage
Les données utilisateur, telles que l'ensemble de données transformé et le modèle réglé, sont stockées dans la région du job d'optimisation. Lors de l'ajustement, le calcul peut être transféré vers d'autres régions US
ou EU
pour les accélérateurs disponibles. Le déchargement est transparent pour les utilisateurs.
Si vous utilisez le SDK Vertex AI, vous pouvez spécifier la région lors de l'initialisation. Exemple :
import vertexai vertexai.init(project='myproject', location='us-central1')
Si vous créez un job de réglage supervisé en envoyant une requête POST à l'aide de
tuningJobs.create
, vous utilisez l'URL pour spécifier la région dans laquelle le job de réglage est exécuté. Par exemple, dans l'URL suivante, vous spécifiez une région en remplaçant les deux instances deTUNING_JOB_REGION
par la région où le job est exécuté.https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Si vous utilisez la console Google Cloud, vous pouvez sélectionner le nom de la région dans le champ déroulant Région de la page Informations sur le modèle. Il s'agit de la même page que celle sur laquelle vous sélectionnez le modèle de base et le nom d'un modèle réglé.
Quota
Le quota est appliqué au nombre de jobs de réglage simultanés. Chaque projet est associé à un quota par défaut pour exécuter au moins un job de réglage. Il s'agit d'un quota mondial, partagé entre toutes les régions disponibles et tous les modèles compatibles. Si vous souhaitez exécuter plus de jobs simultanément, vous devez demander un quota supplémentaire pour Global concurrent tuning jobs
.
Tarifs
Pour connaître les tarifs de réglage de Gemini 1.5 Flash et Gemini 1.5 Pro, consultez Tarifs Vertex AI.
Pour tous les modèles, les coûts d'inférence du modèle réglé continuent de s'appliquer après le réglage. Les tarifs d'inférence sont les mêmes pour chaque version stable de Gemini.
L'affinage supervisé pour gemini-1.0-pro-002
est en preview.
Lorsque le réglage est en version preview, le réglage d'un modèle n'engendre aucuns frais.
Pour en savoir plus, consultez les sections Tarifs de Vertex AI et Versions de modèles stables Gemini disponibles.
Étape suivante
- Préparer un ensemble de données pour le réglage supervisé