Utilisation d'un LLM pré-entraîné

Cette page explique comment utiliser un grand modèle de langage (LLM) textuel dans les modèles de recommandation personnalisés. Nous entraînons ces modèles pour vous. Vous pouvez activer les fonctionnalités préentraînées dans les modèles de recommandation personnalisés.

Les recommandations utilisent le champ produit description pour l'envoyer aux LLM et l'intégrer à vos modèles de recommandations.

Nouvelles fonctionnalités textuelles du LLM

Bien qu'il soit possible d'obtenir des représentations vectorielles continues de texte en configurant manuellement un modèle génératif Vertex AI, vous pouvez intégrer les nouvelles fonctionnalités de LLM dans vos modèles de recommandation pour améliorer les performances.

Les représentations vectorielles continues de texte sont plus descriptives, plus longues et non répétitives, et elles offrent des fonctionnalités d'interprétation multilingue. Cette fonctionnalité est basée sur une liste d'autorisation. Contactez l'assistance pour activer cette fonctionnalité.

L'utilisation des embeddings de texte est gratuite et est incluse dans les tarifs de Vertex AI Search.

Les représentations vectorielles continues pré-entraînées par LLM améliorent la compréhension sémantique des recherches textuelles longues, telles que les descriptions.

Pour en savoir plus sur l'utilisation des embeddings et de l'IA générative seuls dans votre propre entraînement de ML personnalisé, consultez les ressources suivantes:

Compatibilité des modèles

La fonctionnalité LLM est compatible avec tous les types et objectifs de modèles de ML, y compris les suivants:

  • OYML
  • FBT
  • et plus encore.

Pour en savoir plus sur les différents types de modèles de recommandation compatibles avec Vertex AI Search for Commerce, consultez À propos des modèles de recommandation.