Cette page décrit une fonctionnalité de recherche guidée dans la recherche conversationnelle Vertex AI Search pour le commerce.
La recherche conversationnelle permet aux marchands de proposer une expérience de recherche plus interactive à leurs utilisateurs. La fonctionnalité de recherche conversationnelle fonctionne dans le cadre du package de recherche guidée. Elle permet aux clients d'affiner leurs requêtes et de présenter plus rapidement des produits pertinents.
Pour en savoir plus, consultez les articles suivants:
- Fonctionnement de la recherche conversationnelle
- Expérience de diffusion via l'API principale (requête)
- Expérience de l'administrateur via l'API de contrôle et la console
Fonctionnement de la recherche conversationnelle
Lorsqu'elle est activée, la recherche conversationnelle Vertex AI Search pour le commerce guide les acheteurs dans leur recherche de produits sur les sites des marchands à l'aide d'une conversation. Après une requête textuelle initiale dans Vertex AI Search pour le commerce, l'acheteur en ligne reçoit une question de suivi pertinente et des options de choix multiples. L'utilisateur peut répondre à la question de suivi sous forme de texte libre ou en cliquant sur une option de choix multiples conversationnelle.
Si la recherche conversationnelle est activée sur le site du marchand, les questions de suivi génèrent une conversation qui se poursuit jusqu'à l'un des trois scénarios suivants:
- Un nombre minimal de produits préconfiguré est atteint (une conversation n'est pas utile lorsque seuls deux produits s'affichent, par exemple).
- L'utilisateur clique sur un produit et l'ajoute à son panier (objectif).
- Les questions générées par IA pour la recherche et la navigation dans le commerce ne sont plus disponibles.
dans le détail
La recherche conversationnelle consiste à engager l'utilisateur dans une conversation en plusieurs tours. Par conséquent, au moins une deuxième réponse est requise pour que la recherche conversationnelle fonctionne. Une question de suivi et des réponses suggérées sont présentées à l'utilisateur dans la réponse. L'utilisateur peut répondre à cette question de suivi en saisissant sa réponse ou en cliquant sur une réponse suggérée (option à choix multiples).
Choix multiples L'option "Choix multiples" fonctionne en coulisses comme un facette (un filtre de type d'événement), qui affine la requête à l'aide d'un filtrage. En arrière-plan, lorsqu'un utilisateur clique sur une réponse à choix multiples, un filtre est appliqué à la requête. Appliquer un filtre à l'aide d'une question à choix multiples conversationnelle est identique à l'application du même filtre à l'aide de facettes ou de cartes dynamiques.
Texte libre Si l'utilisateur répond en texte libre, une nouvelle requête plus ciblée est générée. Découvrez comment la recherche conversationnelle enrichit la capture des filtres et des événements utilisateur dans le parcours utilisateur.
Avantages de la recherche conversationnelle
L'ajout de la recherche conversationnelle à l'expérience Vertex AI Search pour le commerce offre plusieurs avantages aux marchands et aux utilisateurs.
affiner les requêtes en quelques clics seulement ;
La recherche conversationnelle permet de filtrer plus efficacement 10 000 produits pour n'en obtenir que moins de 100. L'utilisateur est ainsi plus susceptible de décider d'effectuer un achat, ce qui augmente le taux de revenus par recherche.
Alternative aux attributs dynamiques
Les facettes dynamiques sont associées aux requêtes larges qui génèrent de faibles revenus par requête. Les clients peuvent être submergés lorsqu'ils voient des dizaines de milliers de résultats, ce qui peut les amener à abandonner leur expérience de recherche. En particulier, les requêtes de recherche qui renvoient un nombre élevé de produits enregistrent des revenus par requête inhabituellement faibles. La recherche conversationnelle permet d'affiner les requêtes et peut être utilisée avec des attributs dynamiques. La recherche conversationnelle présente certains avantages par rapport aux facettes dynamiques, car elle est plus humaine, plus interactive et utilise moins d'espace sur la page.
Questions génératives personnalisables adaptées aux préférences des marchands
La recherche conversationnelle encourage une interaction humaine avec les questions d'IA générative en permettant aux marchands de modifier, d'écraser ou de désélectionner les questions générées par IA en fonction de leurs préférences, en fonction du catalogue importé. Les questions peuvent être modifiées ou désactivées individuellement ou de manière groupée dans la console Search for Commerce ou dans l'API afin d'adapter les questions qu'ils souhaitent voir apparaître dans la recherche.
Console: expérience administrateur
La console permet aux marchands de gérer les questions génératives dans une expérience conversationnelle Vertex AI Search pour le commerce. Découvrez comment utiliser des questions génératives dans la recherche conversationnelle.
Procédure à suivre pour utiliser le service de questions génératives
respecter les exigences concernant les données ;
Configurez des remplacements manuels.
Exigences en matière de données
Dans la console, sous Recherche et navigation conversationnelles, dans l'onglet Contrôles de couverture ou sous Qualité des données > Conversation, vous pouvez vérifier si vos données de recherche sont prêtes pour la recherche conversationnelle.
Pour activer la recherche conversationnelle, vous devez respecter certaines exigences concernant les données.
Les voici :
- 1 000 requêtes par jour: lorsque vous atteignez ce premier seuil, un plan de conversation est généré pour évaluer vos entrées et sorties :
- En entrées: nombre de filtres dans les événements
- Sorties: couverture conversationnelle
- Couverture conversationnelle de 25%: calculée par les modèles Vertex AI Search pour le commerce, la couverture conversationnelle correspond au pourcentage de requêtes comportant une seule question. Au moins 25% (par volume) des requêtes pondérées en fonction de la fréquence doivent avoir au moins une première question correspondante.
Si vous n'avez pas encore atteint 25% de couverture conversationnelle, mais que vous avez atteint les 1 000 requêtes par jour requises, des vérifications de blocage et d'avertissement commencent à être appliquées à vos sorties et entrées, respectivement. Vertex AI Search for commerce commence alors à calculer de combien vos filtres appliqués aux événements utilisateur doivent augmenter pour atteindre le seuil de couverture des conversations de 25 %. Plus vous importez de filtres, plus la couverture est élevée.
Pour consulter votre aptitude à la conversation:
Accédez à l'onglet Conversation de la page Qualité des données dans la console Search for Commerce. Vous y verrez la vérification critique qui indique si au moins 25% des requêtes de recherche comportent au moins une question de suivi, ainsi que des vérifications indicatives sur le pourcentage d'événements utilisateur avec des filtres valides nécessaire pour atteindre cet objectif de couverture des conversations.
Si vous passez la vérification critique, avec suffisamment d'événements utilisateur avec des filtres valides, passez à l'étape suivante.
Pour contrôler la diffusion des questions génératives, accédez à la page Recherche et navigation conversationnelles dans la console Search for Commerce.
Contrôles des questions génératives
L'IA générative rédige une question pour chaque attribut indexable du catalogue, en utilisant à la fois les noms et les valeurs des attributs pour les attributs système et personnalisés. Ces questions sont générées par un LLM et visent à améliorer l'expérience de recherche. Par exemple, pour le type de mobilier, les valeurs peuvent être "intérieur" ou "extérieur". L'IA synthétisera une question sur le type de mobilier que vous recherchez.
Chaque facette comporte une question générée. En fonction de l'historique des événements utilisateur et de l'engagement des facettes à partir des données d'événements de recherche passés, les questions sont triées en fonction de la fréquence attendue de leur apparition. L'IA examine d'abord les questions en haut de la page, puis trouve ce qui est pertinent par attribut. La liste des questions est générée une seule fois. Si vous ajoutez un attribut, il apparaîtra dans la liste sous deux heures.
Accédez à la page Recherche et navigation conversationnelles dans la console Search for Commerce.
Accédez à la page "Recherche conversationnelle et navigation".Dans l'onglet Gérer les questions générées par IA, vous pouvez voir toutes les questions triées en fonction de leur fréquence d'utilisation, en fonction de la fréquence pondérée par les requêtes, c'est-à-dire de la fréquence à laquelle elles sont diffusées avec des requêtes courantes. Le classement utilise le champ "fréquence" de l'
GenerativeQuestionConfig
. Ce champ permet de trier les questions générées par IA en fonction de leur fréquence d'utilisation.Vous pouvez utiliser l'option de filtre pour filtrer les questions.
Cochez la case pour activer la visibilité des questions pour chaque attribut.
Cliquez sur edit à la fin de chaque ligne pour ouvrir un panneau de modification pour chaque question.
Pour effectuer des modifications groupées, procédez comme suit:
Cochez ou décochez les cases à côté des questions que vous souhaitez inclure ou exclure de la conversation.
Cliquez sur les boutons addAutoriser dans la conversation ou removeInterdire dans la conversation en haut de la liste. Vous pouvez également modifier une question individuelle en cliquant sur edit, puis en décochant ou en cochant à nouveau la case à côté de Autorisé dans la conversation dans le volet qui s'ouvre:
Utiliser des questions génératives dans la recherche conversationnelle
L'API du service de questions génératives fournit des commandes permettant de limiter les incohérences potentielles dans la sortie du LLM. Vous pouvez les gérer depuis la console. Les marchands peuvent également configurer la recherche conversationnelle en activant ou désactivant cette fonctionnalité et en définissant le nombre minimal de produits requis pour la déclencher.
Vous pouvez définir les questions, en spécifiant la question elle-même, les réponses potentielles et si la question est autorisée dans la conversation. Des questions individuelles peuvent être générées par un LLM ou remplacées par le marchand. La console permet d'examiner les questions générées par l'IA, ce qui permet aux marchands de les remplacer ou d'activer ou de désactiver leur état de conversation. Vous pouvez également modifier les questions de manière groupée.
Modifier des questions spécifiques
Vous pouvez également utiliser des commandes pour sélectionner les questions individuelles. Nous vous recommandons de le faire avant d'activer la recherche conversationnelle.
Pour chaque question, deux options sont proposées. Cliquez sur edit dans la dernière colonne pour accéder aux questions visibles par les utilisateurs dans le panneau:
- Désactiver une question pour toutes les requêtes: la question sera activée par défaut. Décochez (ou cochez à nouveau) la case Autorisé dans la conversation. Cette option ignore complètement la question. Un marchand peut choisir de désactiver complètement une question si elle n'a pas de rapport avec les attributs interrogés ou si elle peut être interprétée comme inappropriée d'une manière ou d'une autre (une question telle que "Quelle taille de robe recherchez-vous ?" peut être perçue comme indiscrète sur le poids d'un acheteur).
- Réécrire une question:dans le volet, vous pouvez voir la question générée par l'IA, l'attribut auquel elle est associée et les valeurs de l'attribut. Cliquez sur le crayon pour le réécrire.
Activer la recherche conversationnelle
Une fois que vous avez modifié vos questions d'IA générative dans la console, vous pouvez activer la recherche conversationnelle.
Pour activer la recherche conversationnelle, accédez à la page Recherche et navigation conversationnelles dans la console Search for Commerce.
Accédez à la page Recherche et navigation conversationnelles dans la console Search for Commerce.
Accédez à la page "Recherche conversationnelle et navigation".Dans l'onglet Configurer de la recherche pour le commerce, vous trouverez le paramètre à l'échelle du système. Cela inclut la définition du nombre minimal de produits requis pour correspondre à la requête avant qu'une conversation puisse avoir lieu, c'est-à-dire lorsque des questions sont générées. Ce nombre minimal est de =>2. La valeur minimale peut être configurée pour être supérieure, mais elle ne doit jamais être inférieure à 2. Déterminez le nombre de produits de votre catalogue que vous souhaitez afficher dans la recherche pour que les utilisateurs puissent démarrer une conversation. Par exemple, une ligne par page est un nombre idéal pour que les résultats de recherche déclenchent une conversation.
Activez l'option. Cette page fournit également des informations sur l'état de vos vérifications de blocage et d'avertissement. Si vous avez suffisamment de requêtes de recherche contenant au moins une question de suivi, la recherche conversationnelle est désormais activée sur votre site.
Évaluer et tester
Évaluer vous permet d'avoir un aperçu de l'expérience de diffusion en effectuant une recherche test et en testant vos questions sur les facettes affichées. Cette partie de la console vous offre un aperçu de votre expérience de diffusion avec la recherche conversationnelle.
Pour ce faire, recherchez ce module dans les onglets Recherche ou Parcourir de la page Évaluer de la console Search for Commerce.
Accédez à la page Évaluer dans la console Search for Commerce.
Accéder à la page "Évaluer"Dans le champ "Évaluation de la recherche", saisissez une requête de test pertinente en fonction du catalogue que vous avez importé pour la recherche. Cliquez sur Aperçu de la recherche. Les résultats de recherche s'affichent. Si la recherche conversationnelle est activée, des questions génératives s'affichent dans le panneau de droite.
Dans le panneau de droite, vous trouverez la liste des questions du test.
API de questions génératives: expérience pour les administrateurs
Cette section explique comment utiliser l'API de questions génératives pour intégrer l'API de recherche conversationnelle à votre UI, gérer les questions génératives et diffuser la fonctionnalité sur votre site.
Intégration d'API
- Gérez l'API GenerativeQuestion depuis la recherche pour le commerce à l'aide des éléments suivants :
Objets :
- GenerativeQuestionsFeatureConfig
- GenerativeQuestionConfig
- Service GenerativeQuestions
- UpdateGenerativeQuestionsFeatureConfiguration
- UpdateGenerativeQuestionConfig
- ListGenerativeQuestionConfigs
- GetGenerativeQuestionFeatureConfig
- BatchUpdateGenerativeQuestionConfigs
L'intégration de cette fonctionnalité repose principalement sur la définition de la ressource "question". Cela inclut la question elle-même et si elle est autorisée dans la conversation. La question est générée par défaut par un LLM, mais l'administrateur peut la remplacer.
Activer la fonctionnalité
Objet :
- GenerativeQuestionsFeatureConfig
Cet objet est un fichier de configuration de contrôle permettant d'activer la fonctionnalité pour les questions génératives afin de gérer l'expérience de diffusion globale de la recherche conversationnelle. GenerativeQuestionsFeatureConfig obtient à l'aide d'une méthode GET des informations sur les attributs et si les attributs sont indexables ou non à partir du catalogue associé au projet.
Le bouton feature_enabled
détermine si les questions sont utilisées au moment de la diffusion. Il gère les boutons d'activation/de désactivation de niveau supérieur dans la console.
Découvrez comment activer la recherche conversationnelle dans la console.
Gérer les questions génératives
Objet:
- GenerativeQuestionConfig
Il peut être activé pour les conversations avec le champ booléen allowed_in_conversation
. Il contrôle la configuration d'une seule question générée.
Champs (les comportements de contrôle de la conversation sont mis en évidence) | |
catalogue | chaîne Permet d'identifier l'ensemble d'attributs (et par extension les questions) disponibles. Ces valeurs sont toutes définies dans le catalogue. Champ obligatoire. |
attribut | chaîne Attribut auquel une question est associée. Champ obligatoire. |
generated_question | chaîne La question par défaut générée par le LLM. Uniquement en sortie. |
final_question | chaîne La question qui sera posée. Il peut comporter jusqu'à 300 octets. Champ facultatif. |
example_values | Valeurs de chaîne répétées pouvant être utilisées pour répondre à la question. Sortie uniquement |
fréquence | float : ratio de la fréquence à laquelle une question a été posée. Uniquement en sortie. |
allowed_in_conversation | booléen Indique si la question est posée au moment de la diffusion. Ce champ est facultatif. |
Expérience de diffusion activée par cette fonctionnalité
Le service de questions génératives (service GenerativeQuestionService{...}
) permet de gérer les questions générées par le LLM. Son objet parent est le catalogue, où il récupère des informations pour renvoyer des questions pour un catalogue donné. Ce service permet de gérer l'état global de la fonctionnalité de questions génératives, d'effectuer des modifications individuelles ou groupées, et d'activer ou de désactiver des questions. Les exigences concernant les données doivent être respectées pour interagir avec l'API du service. Les questions doivent d'abord être initialisées avant de pouvoir être gérées.
Le service interagit avec les configurations au niveau des fonctionnalités et des questions à l'aide de deux ensembles de gestionnaires:
Générateurs de questions (niveau de fonctionnalité):
- Mise à jour: vous pouvez modifier le nombre minimum de produits et activer des champs
- Get: renvoie un objet
Générateurs de questions (niveau de la question):
- "List" : renvoie toutes les questions d'un catalogue donné
- Mise à jour: Gestion des questions individuelles
- Mise à jour groupée: gestion des questions groupées
Le service renvoie une question sémantiquement appropriée en fonction de la requête initiale.
Une question de suivi est générée par le modèle LLM et peut être remplacée. Les questions sont affichées en fonction de la probabilité qu'elles soient utilisées par les clients en appelant l'historique des événements de recherche. Si aucun historique des événements de recherche n'est disponible, les journaux de recherche du marchand sont utilisés.
Différentes questions sont générées en fonction de la requête précédente. Il n'y a pas de poids fixes. L'IA qui génère les questions avec le LLM apprend des requêtes et modifie le poids de chaque requête. Par exemple, "chemise" est très fortement pondéré dans la catégorie, tandis que "chemise rouge taille XL" est pondéré dans la catégorie, la taille et la couleur.
API de configuration de la recherche conversationnelle: expérience de diffusion
L'API de configuration de la recherche conversationnelle est intégrée à l'API de recherche de l'API Vertex AI.
Intégration d'API
L'API de configuration ConversationalSearchSpec
de la fonctionnalité se trouve au-dessus de l'API Vertex AI Search pour le commerce existante. Pour prendre en charge la nouvelle fonctionnalité de recherche conversationnelle, les modifications suivantes ont été apportées à l'API principale (requête) Vertex AI Search for commerce:
ConversationalSearchSpec
: ce champ facultatif a été ajouté dans SearchRequest, mais il est obligatoire si vous souhaitez utiliser la fonctionnalité de recherche conversationnelle. Le champ réutilise les champs SearchRequest, la requête et le filtre. Il comprend également un champ permettant d'envoyer une question de suivi à l'utilisateur après une requête initiale et unconversation_id
pour maintenir l'état de la conversation entre le client et le serveur.ConversationalSearchResult
: un fichier proto contient des informations supplémentaires à renvoyer pour le flux de CRS conversationnel dansSearchResponse
. Cela inclutconversation_id
,refined_query
,additional_filters
,follow_up_question
etsuggested_answers
(voir la section Parcours utilisateur).
Parcours utilisateur
Le flux de conversation fonctionne comme suit: l'utilisateur lance une recherche avec une requête initiale et l'indicateur followup_conversation_requested
est défini sur "true". L'utilisateur sélectionne ensuite une réponse ou fournit une entrée en texte libre, qui est renvoyée à l'API à l'aide du champ user_answer
. L'API affine ensuite les résultats de recherche en fonction de l'entrée de l'utilisateur et pose une nouvelle question de suivi, ce qui déclenche une requête de suivi et poursuit la conversation en plusieurs tours jusqu'à ce que l'utilisateur trouve ce qu'il cherche sur le site Web du marchand.
Si la recherche conversationnelle est activée sur le site Web, le parcours utilisateur et l'interaction ultérieure avec Vertex AI Search pour le commerce suivent ce chemin:
- Étape 1. La première requête provient de l'utilisateur
- Étape 1a. Demande de conversation de suivi envoyée à la recherche
- Étape 1b. Réponse initiale de la recherche avec requête affinée et réponses suggérées
- Scénario 2: L'utilisateur sélectionne une question à choix multiples
- Étape 2a. Filtre de réponse sélectionné envoyé à la recherche
- Étape 2b. Recherche exécutée à nouveau avec un filtre appliqué
- Scénario 3: L'utilisateur sélectionne du texte libre
- Étape 3a Réponse envoyée à la recherche
- Étape 3b Recherche exécutée à nouveau avec une requête modifiée
Étape 1. La première requête provient de l'utilisateur
conversational_search_spec
: l'introduction de ce champ dans le message SearchRequest
permet au système de faire la distinction entre les recherches conversationnelles et les recherches régulières. Cette détermination détermine si les utilisateurs reçoivent des réponses conversationnelles supplémentaires, ce qui permet de préserver les fonctionnalités de recherche d'origine tout en les étendant aux interactions conversationnelles. Le champ conversational_search_spec
est au format de message et contient les informations nécessaires au flux de conversation, telles que les réponses de l'utilisateur, les ID de conversation et si l'utilisateur souhaite une conversation de suivi. Ces informations aident le système à comprendre le contexte et les interactions des utilisateurs.
Si la valeur booléenne followup_conversation_requested
de ce champ est définie sur "TRUE", l'API renvoie un premier ensemble de résultats et une question de suivi. L'utilisateur bénéficiera d'une expérience conversationnelle dans sa recherche. Si la valeur de ce champ est "FALSE", aucune question de suivi n'est envoyée.
Étape 1a. Marchand → recherche: requête initiale avec la conversation activée
Étape 1b. Recherche → marchand: ID de conversation, requête affinée, question de suivi, réponses suggérées
Scénario 2: L'utilisateur sélectionne une option à choix multiples
Si un utilisateur a sélectionné une réponse à choix multiples yellow
:
conversation_id
est restauré à partir du stockage de la session.followup_conversation_requested
est défini sur "true".- La chaîne
user_answer
utilise "selected_answer", qui contient une paire clé-valeur product_attribute_value, outext_answer
, qui contient la valeur de saisie de texte libre pour indiquer le choix de l'utilisateur. Ce champ se trouve dans le champconversational_search_spec
et contient d'autres messages imbriqués tels que "SelectedAnswer" pour spécifier les types de saisie utilisateur (texte ou réponses sélectionnées). - Le résultat revient à appeler l'objet
SearchResults
et ses champs. selected_answer
Ce champ transmet les attributs des produits pour guider la recherche conversationnelle.
Étape 2a. Marchand → recherche: filtre de réponse sélectionné
Étape 2b. Recherche → Marchand: filtres appliqués
Scénario 3: L'utilisateur sélectionne une entrée de texte libre
Si un utilisateur saisit lavender
:
conversation_id
est restauré à partir du stockage de la session.followup_conversation_requested
est défini sur "true"user_answer
est défini pour ce que l'utilisateur saisit (avec le préfixetext_answer:
).