Esta página descreve como usar um modelo de linguagem grande (LLM) textual nos modelos de recomendação personalizados. Nós treinamos esses modelos para você. É possível ativar os recursos pré-treinados nos modelos de recomendação personalizados.
As recomendações usam o campo description
do produto para alimentar os LLMs e colocá-los nos modelos de recomendações.
Novos recursos textuais do LLM
Embora seja possível receber embeddings de texto configurando manualmente um modelo generativo da Vertex AI, talvez seja melhor integrar os novos recursos de LLM aos seus modelos de recomendações para melhorar o desempenho.
Os embeddings de texto são mais descritivos, mais longos e não são repetitivos, além de ter recursos de interpretação multilíngue. Esse recurso é baseado em uma lista de permissões. Entre em contato com o suporte para ativar esse recurso.
Não há cobrança pelo uso dos embeddings de texto, e eles estão incluídos nos preços da Pesquisa da Vertex AI.
Os embeddings pré-treinados com LLM melhoram a compreensão semântica de pesquisas de texto longo, como descrições.
Confira os recursos a seguir para mais informações sobre como usar embeddings e IA generativa no seu próprio treinamento de ML personalizado:
Compatibilidade de modelo
O recurso LLM é compatível com todos os tipos e objetivos de modelos de ML, incluindo:
- OYML
- FBT
- e mais.
Para mais informações sobre os diferentes tipos de modelos de recomendação que a Pesquisa da Vertex AI para comércio oferece suporte, consulte Sobre os modelos de recomendação.