Cette page explique comment utiliser un grand modèle de langage textuel (LLM).
Nouvelles fonctionnalités textuelles LLM
Bien qu'il soit possible d'obtenir des représentations vectorielles continues de texte en configurant manuellement un modèle génératif Vertex AI, nous vous conseillons de couvrir plus spécifiquement votre cas d'utilisation marchand. Pour ce faire, vous pouvez utiliser des modèles génératifs Vertex AI pré-entraînés sur les métadonnées des marchands afin d'améliorer les performances des modèles de l'outil de recommandation.
Les représentations vectorielles continues de texte sont plus descriptives, plus longues et ne sont pas répétitives. De plus, elles offrent des fonctionnalités d'interprétation multilingue. Cette fonctionnalité est basée sur une liste d'autorisation. Contactez l'assistance pour activer cette fonctionnalité.
L'utilisation des embeddings de texte est gratuite et est incluse dans les tarifs de Vertex AI Search.
Les représentations vectorielles continues pré-entraînées par LLM améliorent la compréhension sémantique des recherches textuelles longues, telles que les descriptions.
Compatibilité du modèle
La fonctionnalité LLM est compatible avec tous les types et tous les objectifs de modèles de ML, y compris:
- OYML
- FBT
- et plus encore.