Cette page explique comment utiliser un grand modèle de langage (LLM) textuel dans les modèles de recommandation personnalisés. Nous entraînons ces modèles pour vous. Vous pouvez activer les fonctionnalités préentraînées dans les modèles de recommandation personnalisés.
Les recommandations utilisent le champ produit description
pour l'envoyer aux LLM et l'intégrer à vos modèles de recommandations.
Nouvelles fonctionnalités textuelles du LLM
Bien qu'il soit possible d'obtenir des représentations vectorielles continues de texte en configurant manuellement un modèle génératif Vertex AI, vous pouvez intégrer les nouvelles fonctionnalités de LLM dans vos modèles de recommandation pour améliorer les performances.
Les représentations vectorielles continues de texte sont plus descriptives, plus longues et non répétitives, et elles offrent des fonctionnalités d'interprétation multilingue. Cette fonctionnalité est basée sur une liste d'autorisation. Contactez l'assistance pour activer cette fonctionnalité.
L'utilisation des embeddings de texte est gratuite et est incluse dans les tarifs de Vertex AI Search.
Les représentations vectorielles continues pré-entraînées par LLM améliorent la compréhension sémantique des recherches textuelles longues, telles que les descriptions.
Pour en savoir plus sur l'utilisation des embeddings et de l'IA générative seuls dans votre propre entraînement de ML personnalisé, consultez les ressources suivantes:
- Documentation sur l'IA générative Vertex AI
- Cours d'initiation au machine learning: représentations vectorielles continues
Compatibilité des modèles
La fonctionnalité LLM est compatible avec tous les types et objectifs de modèles de ML, y compris les suivants:
- OYML
- FBT
- et plus encore.
Pour en savoir plus sur les différents types de modèles de recommandation compatibles avec Vertex AI Search for Commerce, consultez À propos des modèles de recommandation.