Présentation des modèles de langage

Vous pouvez accéder aux modèles de langages d'IA générative de Google, les régler et les déployer avec l'API Vertex AI PaLM et les API Vertex AI Codey. Utilisez les modèles de langage pour mettre en œuvre divers workflows à partir de Vertex AI, par exemple pour utiliser les API afin d'interagir avec les modèles et déployer les modèles sur un notebook Jupyter. Vous pouvez également personnaliser les modèles de langage en fonction de votre cas d'utilisation spécifique avec le réglage de modèle. Cette page vous offre un aperçu des modèles de langage disponibles, des API que vous utilisez pour interagir avec les modèles et des moyens de personnaliser leurs comportements.

Schéma de nommage de modèle

Les noms des modèles de fondation comprennent deux composants : le cas d'utilisation et la taille du modèle. La convention de nommage est au format <use case>-<model size>. Par exemple, text-bison représente le modèle de texte Bison.

Les tailles du modèle sont les suivantes :

  • Unicorn: modèle le plus grand dans la famille PaLM. Les modèles Unicorn excellent dans les tâches complexes, telles que le codage et la chaîne de pensée, en raison des connaissances approfondies intégrées au modèle et de ses capacités de raisonnement.
  • Bison: modèle PaLM à valeur optimale qui gère un large éventail de tâches linguistiques, telles que la classification et la synthèse. Il est optimisé pour la précision et la latence à un coût raisonnable. Les interfaces de texte, de chat, de code et de chat de code simplifient le déploiement et l'intégration à votre application.
  • Gecko : modèle le plus petit et le plus économique pour des tâches simples.

Vous pouvez utiliser la version stable ou la dernière version d'un modèle. Pour en savoir plus, consultez la page Versions et cycle de vie des modèles.

API Vertex AI PaLM

L'API Vertex AI PaLM vous donne accès à la famille de modèles PaLM 2, qui prend en charge la génération de texte en langage naturel, d'embeddings de texte et de code (nous vous recommandons d'utiliser les API Vertex AI Codey pour la génération de code. PaLM 2 est la deuxième génération du modèle de langage Pathways développé par Google Labs. En utilisant l'API Vertex AI PaLM, vous pouvez exploiter pleinement les outils MLOps, la sécurité de niveau entreprise, la sécurité, la confidentialité et l'évolutivité proposés par Vertex AI.

L'API Vertex AI PaLM expose les modèles PaLM 2 à l'aide de points de terminaison de diffuseur globaux qui sont uniques pour chaque projet Google Cloud. Voici un exemple de point de terminaison de modèle de diffuseur :

https://us-central1-aiplatform.googleapis.com/v1/projects/your_project_id/locations/us-central1/publishers/google/models/text-bison:predict

L'API Vertex AI PaLM dispose de points de terminaison de diffuseur pour les modèles PaLM 2 suivants :

  • text-bison : optimisé pour les tâches de langage naturel telles que la classification, la synthèse, l'extraction, la création de contenu et la conceptualisation.
  • chat-bison : optimisé pour le chat multitour, dans lequel le modèle effectue le suivi des messages précédents dans la conversation et utilise ces messages comme contexte pour générer de nouvelles réponses.
  • textembedding-gecko : génère des embeddings textuels pour un texte donné. Vous pouvez utiliser des embeddings pour des tâches telles que la recherche sémantique, la recommandation, la classification et la détection des anomalies.

Pour en savoir plus sur ces modèles, consultez la page Modèles disponibles.

API Vertex AI Codey

Les API Vertex AI Codey sont optimisées pour la génération de code, le chat de code et la complétion de code dans plusieurs langages de programmation. Les API Vertex AI Codey sont basées sur la famille de modèles PaLM 2. Pour en savoir plus, consultez la présentation des modèles de code.

Conception de requête

Pour interagir avec des modèles de fondation tels que PaLM 2, vous devez envoyer des instructions en langage naturel, également appelées requêtes, qui indiquent au modèle ce que vous souhaitez générer. Cependant, les LLM peuvent parfois se comporter de manière imprévisible. La conception d'invites est un processus itératif empirique qui ne peut être maîtrisé qu'avec du temps et de l'entraînement. Pour en savoir plus sur les stratégies générales de conception d'invites, consultez la page Présentation de la conception d'invites. Pour obtenir des conseils de conception de requêtes spécifiques pour le texte, consultez la section Concevoir des requêtes textuelles.

Réglage de modèle

Si vous devez personnaliser des modèles PaLM 2 pour un cas d'utilisation spécifique, vous pouvez les ajuster à l'aide d'un ensemble de données contenant des exemples d'entrée et de sortie. Les modèles réglés sont automatiquement déployés sur un nouveau point de terminaison de votre projet pour diffuser des requêtes. Pour en savoir plus sur le réglage des modèles, consultez la section Régler les modèles de fondation.

Étapes suivantes