Présentation du réglage des modèles PaLM

Le réglage d'un modèle de fondation peut améliorer ses performances. Les modèles de fondation sont entraînés à des fins générales et n'effectuent parfois pas les tâches comme vous le souhaitez. Cela peut être dû au fait que les tâches que vous souhaitez que le modèle exécute sont des tâches spécialisées difficiles à enseigner au modèle avec une conception d'invite. Dans ce cas, vous pouvez utiliser les réglages de modèles afin d'améliorer les performances d'un modèle pour des tâches spécifiques. Le réglage du modèle peut également l'aider à respecter des exigences spécifiques de sortie lorsque les instructions sont insuffisantes. Cette page présente le réglage de modèle, décrit les options de réglage disponibles dans Vertex AI et vous aide à déterminer quand utiliser chaque option de réglage.

Présentation du réglage des modèles

Pour affiner les réglages d'un modèle, fournissez-lui un ensemble de données d'entraînement contenant de nombreux exemples d'une tâche unique. Pour les tâches de niche, vous pouvez obtenir des améliorations significatives des performances du modèle en ajustant le modèle sur un petit nombre d'exemples. Une fois que vous avez ajusté un modèle, vous avez besoin de moins d'exemples dans ses invites.

Vertex AI accepte les méthodes suivantes pour ajuster les modèles de fondation :

  • Réglage supervisé : le réglage supervisé d'un modèle de texte est une bonne option lorsque la sortie de votre modèle est complexe et relativement facile à définir. Il est recommandé d'utiliser un réglage supervisé pour la classification, l'analyse des sentiments, l'extraction d'entités, la synthèse de contenu non complexe et l'écriture de requêtes spécifiques à un domaine. Pour les modèles de code, le réglage supervisé est la seule option.

  • Apprentissage automatique par renforcement qui utilise le feedback humain (RLHF) : le réglage RLHF est une bonne option lorsque la sortie de votre modèle est complexe et n'est pas facile à réaliser avec le réglage supervisé. Le réglage RLHF est recommandé pour les systèmes de questions-réponses, la synthèse de contenu complexe et la création de contenu (par exemple, une réécriture). Le réglage RLHF n'est pas pris en charge par les modèles de code.

  • Distillation du modèle : la distillation est une bonne option si vous souhaitez réduire la taille d'un modèle volumineux sans dégrader ses capacités. Le processus de distillation d'un modèle crée un modèle entraîné plus petit, dont l'utilisation coûte moins cher et dont la latence est inférieure à celle du modèle d'origine.

Quota

Chaque projet Google Cloud nécessite un quota suffisant pour exécuter un job de réglage, et un job de réglage utilise huit GPU. Si votre projet ne dispose pas d'un quota suffisant pour un job de réglage ou si vous souhaitez exécuter plusieurs jobs de réglage simultanés dans votre projet, vous devez demander un quota supplémentaire.

Le tableau suivant indique le type et le montant de quota à demander en fonction de la région où vous avez effectué le réglage :

Région Quota de ressources Montant par tâche simultanée

us-central1

Restricted image training Nvidia A100 80GB GPUs per region

8

Restricted image training CPUs for A2 CPU types per region

96

europe-west4

Restricted image training TPU V3 pod cores per region

64

Tarification

Lorsque vous réglez ou distillez un modèle de fondation, vous payez le coût d'exécution du pipeline de réglage ou de distillation. Lorsque vous déployez un modèle de fondation réglé ou distillé sur un point de terminaison Vertex AI, l'hébergement ne vous est pas facturé. Pour réaliser des prédictions, vous payez le même prix que pour l'inférence des prédictions à l'aide d'un modèle de fondation non ajusté (pour le réglage) ou d'un modèle élève (pour la distillation). Pour savoir quels modèles de fondation peuvent être réglés et distillés, consultez Modèles de fondation. Pour en savoir plus, consultez la page Tarifs de l'IA générative sur Vertex AI.

Étapes suivantes