Le réglage de modèle est un processus essentiel pour adapter Gemini afin d'effectuer des tâches spécifiques avec plus de précision. Pour affiner les réglages d'un modèle, fournissez-lui un ensemble de données d'entraînement contenant un ensemble d'exemples de tâches spécifiques en aval.
Cette page présente le réglage de modèle pour Gemini, décrit les options de réglage disponibles pour Gemini et vous aide à déterminer quand utiliser chaque option de réglage.
Avantages du réglage du modèle
Le réglage de modèle est un moyen efficace de personnaliser les modèles volumineux pour vos tâches. Il s'agit d'une étape clé pour améliorer la qualité et l'efficacité du modèle. Le réglage du modèle offre les avantages suivants :
- Une qualité supérieure pour vos tâches spécifiques.
- Robustesse accrue du modèle.
- Réduction de la latence et du coût d'inférence grâce à des requêtes plus courtes.
Réglage par rapport à la conception de l'invite
- Requête avec des modèles Gemini pré-entraînés : la requête consiste à élaborer des instructions efficaces pour guider les modèles d'IA comme Gemini afin de générer les résultats souhaités.
Il s'agit de concevoir des requêtes qui indiquent clairement la tâche, le format souhaité et tout contexte pertinent. Vous pouvez utiliser les fonctionnalités de Gemini avec une configuration minimale.
Elles sont particulièrement adaptées aux cas d'utilisation suivants :
- Données étiquetées limitées : si vous disposez d'une petite quantité de données étiquetées ou si vous ne pouvez pas vous permettre un processus de mise au point long.
- Prototypage rapide : lorsque vous devez tester rapidement un concept ou obtenir des performances de référence sans investir massivement dans l'affinage.
- Affinage personnalisé des modèles Gemini : pour obtenir des résultats plus personnalisés, Gemini vous permet d'affiner ses modèles sur vos ensembles de données spécifiques. Pour créer un modèle d'IA qui excelle dans votre domaine spécifique, envisagez d'affiner le modèle. Cela implique de réentraîner le modèle de base sur votre propre ensemble de données étiquetées, en adaptant ses pondérations à votre tâche et à vos données. Vous pouvez adapter Gemini à vos cas d'utilisation. L'affinage est plus efficace lorsque :
- Vous disposez de données étiquetées : un ensemble de données assez volumineux pour l'entraînement (environ 100 exemples ou plus), qui permet au modèle d'apprendre en profondeur les spécificités de votre tâche.
- Tâches complexes ou uniques : pour les scénarios où les stratégies de requêtes avancées ne sont pas suffisantes et qu'un modèle adapté à vos données est essentiel.
Nous vous recommandons de commencer par faire des requêtes pour trouver la requête optimale. Passez ensuite à l'affinage (si nécessaire) pour améliorer les performances ou corriger les erreurs récurrentes. Bien qu'il soit utile d'ajouter d'autres exemples, il est important d'évaluer les erreurs du modèle avant d'ajouter d'autres données. Des données de haute qualité et bien étiquetées sont essentielles pour de bonnes performances. La qualité est plus importante que la quantité. De plus, les données que vous utilisez pour l'affinage doivent refléter la distribution, le format et le contexte des requêtes que le modèle rencontrera en production.
Le réglage offre les avantages suivants par rapport à la conception des requêtes :
- Permet une personnalisation approfondie du modèle et améliore les performances pour des tâches spécifiques.
- Alignez le modèle avec une syntaxe, des instructions et des règles sémantiques spécifiques au domaine personnalisées.
- Offre des résultats plus cohérents et fiables.
- Permet de gérer plusieurs exemples à la fois.
- Réduire les coûts lors de l'inférence en supprimant les exemples few-shot et les instructions longues dans les requêtes
Approches du réglage
Le réglage des paramètres avec optimisation et l'affinage complet sont deux approches de personnalisation des modèles volumineux. Les deux méthodes présentent des avantages et des implications en termes de qualité du modèle et d'efficacité des ressources.
La méthode avec optimisation
Le réglage des paramètres avec optimisation, également appelé réglage des adaptateurs, permet d'adapter efficacement les modèles volumineux à vos tâches ou domaines spécifiques. Le réglage des paramètres avec optimisation met à jour un sous-ensemble relativement restreint des paramètres du modèle au cours du processus d'ajustement.
Pour comprendre comment Vertex AI prend en charge le réglage et la diffusion des adaptateurs, consultez le livre blanc Adaptation de modèles de fondation de grande taille.
Affinage complet
L'affinage complet met à jour tous les paramètres du modèle, ce qui permet de l'adapter à des tâches très complexes, avec la possibilité d'obtenir une qualité supérieure. Toutefois, un affinage complet nécessite des ressources de calcul plus importantes pour l'ajustement et la diffusion, ce qui entraîne des coûts globaux plus élevés.
Paramètres avec optimisation par rapport à affinage complet
Le réglage des paramètres avec optimisation est plus économe en ressources et plus économique par rapport à l'affinage complet. Il utilise des ressources de calcul beaucoup moins importantes pour l'entraînement. Il peut adapter le modèle plus rapidement avec un ensemble de données plus petit. La flexibilité du réglage des paramètres avec optimisation offre une solution d'apprentissage multitâche sans nécessiter de réentraînement approfondi.
Méthodes de réglage compatibles
Vertex AI permet de personnaliser les modèles de base à l'aide de l'affinage supervisé.
Réglage supervisé
L'affinage supervisé améliore les performances du modèle en lui apprenant une nouvelle compétence. Des données contenant des centaines d'exemples étiquetés sont utilisées pour apprendre au modèle à simuler un comportement ou une tâche souhaité. Chaque exemple étiqueté montre ce que vous souhaitez que le modèle génère lors de l'inférence.
Lorsque vous exécutez un job d'affinage supervisé, le modèle apprend des paramètres supplémentaires qui lui permettent d'encoder les informations nécessaires pour effectuer la tâche souhaitée ou apprendre le comportement souhaité. Ces paramètres sont utilisés lors de l'inférence. Le résultat de la tâche de réglage est un nouveau modèle qui combine les paramètres nouvellement appris avec le modèle d'origine.
L'affinage supervisé d'un modèle de texte est une bonne option lorsque la sortie de votre modèle est complexe et relativement facile à définir. Il est recommandé d'utiliser un affinage supervisé pour la classification, l'analyse des sentiments, l'extraction d'entités, la synthèse de contenu non complexe et l'écriture de requêtes spécifiques à un domaine. Pour les modèles de code, le réglage supervisé est la seule option.
Modèles compatibles avec l'affinage supervisé
gemini-1.5-pro-002
(en DG)gemini-1.5-flash-002
(en DG)gemini-1.0-pro-002
(en version bêta, compatible uniquement avec le réglage du texte)
Pour en savoir plus sur l'utilisation de l'affinage supervisé avec chaque modèle, consultez les pages suivantes : ajuster les types de données texte, image, audio et document.
Étape suivante
- Pour en savoir plus sur la capacité de compréhension des documents des modèles Gemini, consultez la présentation de la compréhension des documents.
- Pour commencer à régler vos modèles, consultez Régler des modèles Gemini à l'aide des réglages supervisés.
- Pour savoir comment utiliser le réglage supervisé dans une solution qui crée une base de connaissances d'IA générative, consultez la page Solution de démarrage rapide : base de connaissances d'IA générative.