Cette page décrit une fonctionnalité de recherche guidée de Vertex AI Search pour la recherche conversationnelle pour le commerce.
La recherche conversationnelle permet aux marchands de proposer une expérience de recherche plus interactive à leurs utilisateurs. La fonctionnalité de recherche conversationnelle fait partie du package de recherche guidée. Elle offre des avantages aux clients en affinant les requêtes des utilisateurs et en présentant les produits pertinents plus rapidement.
Pour en savoir plus, consultez les articles suivants :
- Fonctionnement de la recherche conversationnelle
- Expérience de diffusion via l'API principale (requête)
- Expérience de l'administrateur via l'API de contrôle et la console
Fonctionnement de la recherche conversationnelle
Lorsqu'elle est activée, la recherche conversationnelle Vertex AI Search pour le commerce guide les acheteurs dans leur recherche de produits sur les sites des marchands à l'aide d'une conversation. Après une première requête textuelle dans Vertex AI Search pour le commerce, l'acheteur en ligne reçoit une question complémentaire pertinente et des options à choix multiples. L'utilisateur peut répondre à la question complémentaire soit en texte libre, soit en cliquant sur une option de conversation à choix multiples.
Si la recherche conversationnelle est activée sur le site du marchand, les questions de suivi déclenchent la conversation jusqu'à ce que l'un des trois scénarios suivants se produise:
- Un nombre minimal de produits préconfiguré est atteint (une conversation n'est pas utile lorsque seuls deux produits s'affichent, par exemple).
- L'utilisateur clique sur un produit et l'ajoute à son panier (objectif).
- Les questions générées par IA ne sont plus disponibles lorsque vous recherchez et parcourez des produits.
dans le détail
La recherche conversationnelle consiste à engager l'utilisateur dans une conversation en plusieurs tours. Par conséquent, au moins une seconde réponse est nécessaire pour que la recherche conversationnelle fonctionne. Une question de suivi et des réponses suggérées sont présentées à l'utilisateur dans la réponse. L'utilisateur peut répondre à cette question complémentaire en saisissant sa réponse ou en cliquant sur une réponse suggérée (option à choix multiples).
Choix multiples L'option à choix multiples fonctionne en arrière-plan comme un attribut (un filtre de type d'événement), qui affine la requête à l'aide de filtres. En arrière-plan, lorsque l'utilisateur clique sur une réponse à choix multiples, un filtre est appliqué à la requête. L'application d'un filtre à l'aide d'un choix multiple conversationnel revient à appliquer le même filtre à l'aide d'attributs ou de tuiles dynamiques.
Texte libre Si l'utilisateur répond en texte libre, une nouvelle requête plus ciblée est générée. Découvrez comment la recherche conversationnelle enrichit les filtres et la capture d'événements utilisateur dans le parcours utilisateur.
Avantages de la recherche conversationnelle
L'ajout de la recherche conversationnelle à l'expérience Vertex AI Search pour le commerce offre plusieurs avantages aux marchands et aux utilisateurs.
Affiner les requêtes en quelques clics
La recherche conversationnelle permet de filtrer plus efficacement 10 000 produits pour n'en obtenir que moins de 100. L'utilisateur est ainsi plus susceptible de décider d'effectuer un achat, ce qui augmente le taux de revenus par recherche.
Alternative aux attributs dynamiques
Les attributs dynamiques sont associés aux requêtes larges qui génèrent de faibles revenus par requête. Les clients peuvent être submergés lorsqu'ils voient des dizaines de milliers de résultats, ce qui peut les amener à abandonner leur expérience de recherche. En particulier, les requêtes de recherche qui renvoient un nombre élevé de produits enregistrent des revenus par requête inhabituellement faibles. La recherche conversationnelle permet d'affiner les requêtes et peut être utilisée conjointement avec des attributs dynamiques. La recherche conversationnelle présente certains avantages par rapport aux facettes dynamiques, car elle est plus humaine, plus interactive et utilise moins d'espace sur la page.
Questions génératives personnalisables adaptées aux préférences des marchands
La recherche conversationnelle encourage une interaction humaine avec les questions sur l'IA générative en permettant aux retailers de modifier, d'écraser ou de désélectionner ces questions en fonction de leurs préférences, en fonction du catalogue importé. Vous pouvez modifier ou désactiver les questions individuellement ou de manière groupée dans Console Search for Retail ou dans l'API afin d'adapter les questions qu'elles souhaitent afficher dans la recherche.
Console : expérience administrateur
La console permet aux marchands de gérer les questions génératives dans une expérience conversationnelle Vertex AI Search pour le commerce. Découvrez comment utiliser des questions génératives dans la recherche conversationnelle.
Procédure d'utilisation du service de questions génératives
Respectez les exigences concernant les données.
Configurez des remplacements manuels.
Exigences en matière de données
Dans la console, accédez à Recherche et navigation conversationnelles, dans l'onglet Vérifications de la couverture ou sous Qualité des données > Conversation, vous verrez si vos données de recherche sont prêtes pour la recherche conversationnelle.
Pour activer la recherche conversationnelle, vous devez répondre à certaines exigences concernant les données.
Les voici :
- 1 000 requêtes par jour : lorsque vous atteignez ce premier seuil, un plan de conversation est généré pour évaluer vos entrées et sorties :
- Entrées: filtrer le nombre dans les événements
- Sorties : couverture conversationnelle
- Couverture conversationnelle de 25%: calculée par les modèles Vertex AI Search pour le commerce, la couverture conversationnelle correspond au pourcentage de requêtes comportant une question. Un pourcentage pondéré en fonction de la fréquence de 25% (en volume) des requêtes doit comporter au moins une première question correspondante.
Si vous ne disposez pas encore d'une couverture des conversations de 25 %, mais que vous disposez des 1 000 premières requêtes préalables requises par jour, des vérifications de blocage et des vérifications consultatives commencent à être appliquées respectivement à vos sorties et vos entrées. Ici, Vertex AI Search pour le commerce commence à calculer le pourcentage d'augmentation des filtres appliqués aux événements utilisateur pour atteindre le seuil de couverture des conversations de 25 %. Plus vous importez de filtres, plus la couverture atteinte est élevée.
Pour consulter votre aptitude à la conversation :
Accédez à l'onglet Conversation de la page Qualité des données dans les Recherchez la console Retail. Vous y découvrirez la vérification critique qui consiste à déterminer si au moins 25% des requêtes de recherche comportent au moins une question complémentaire, ainsi qu'à vérifier le pourcentage d'événements utilisateur avec des filtres valides nécessaires pour atteindre cet objectif de couverture des conversations.
Si vous passez la vérification critique, avec suffisamment d'événements utilisateur avec des filtres valides, passez à l'étape suivante.
Pour contrôler le mode de réponse des questions génératives, accédez à Page de recherche et de navigation conversationnelle du Recherchez la console Retail.
Contrôle des questions génératives
L'IA générative rédige une question pour chaque attribut indexable du catalogue, en utilisant à la fois les noms et les valeurs des attributs pour les attributs système et personnalisés. Ces questions sont générées par un LLM et visent à améliorer l'expérience de recherche. Par exemple, pour le type de mobilier, les valeurs peuvent être "intérieur" ou "extérieur". L'IA synthétisera une question sur le type de mobilier que vous recherchez.
Chaque facette comporte une question générée. En fonction de l'historique des événements utilisateur et de l'engagement des facettes issus des données d'événements de recherche passés, les questions sont triées en fonction de la fréquence attendue de leur apparition. L'IA examine d'abord les questions en haut de la page, puis trouve ce qui est pertinent par attribut. La liste des questions est générée une fois. Si un nouvel attribut est ajouté, il est répercuté dans la liste au bout de deux heures.
Accédez à la page Recherche conversationnelle et navigation dans la console Search for Retail.
Accédez à la page de recherche et de navigation conversationnelle.Dans l'onglet Gérer les questions générées par IA, vous pouvez consulter toutes les questions, triées en fonction de leur fréquence d'utilisation (pondérée selon la fréquence à laquelle elles sont diffusées avec des requêtes courantes). Le classement utilise le champ "fréquence" de l'
GenerativeQuestionConfig
. Ce champ permet de trier les questions générées par IA selon leur fréquence d'utilisation.Vous pouvez utiliser l'option de filtre pour filtrer les questions.
Cochez la case afin d'activer la visibilité des questions pour chaque attribut.
Cliquez sur edit à la fin de chaque ligne pour ouvrir un panneau de configuration pour chaque question.
Pour effectuer des modifications groupées, procédez comme suit :
Cochez ou décochez les cases correspondant aux questions que vous souhaitez inclure ou exclure dans la conversation.
Cliquez sur les boutons addAutoriser dans la conversation ou removeInterdire dans la conversation en haut de la liste. Vous pouvez également modifier une question spécifique en cliquant sur edit, puis décocher ou recocher la case Autorisé dans la conversation dans le volet qui s'ouvre:
Utiliser les questions génératives dans la recherche conversationnelle
L'API du service de questions génératives fournit des commandes permettant de limiter les éventuelles incohérences dans la sortie du LLM. Vous pouvez les gérer depuis la console. Ici, les marchands peuvent également configurer la recherche conversationnelle en activant/désactivant son état et en définissant le nombre minimal de produits requis pour la déclencher.
Vous pouvez définir les questions en spécifiant la question elle-même, les réponses potentielles et si la question est autorisée dans la conversation. Les questions individuelles peuvent être générées par un LLM ou remplacées par le revendeur. La console permet d'examiner les questions générées par IA, ce qui permet aux marchands de les ignorer ou d'activer/désactiver leur statut de conversation. Les questions peuvent également être modifiées de manière groupée.
Modifier des questions spécifiques
Vous pouvez également utiliser des commandes pour sélectionner les questions individuelles. Nous vous recommandons de le faire avant d'activer la recherche conversationnelle.
Pour chaque question, deux options sont proposées. Cliquez sur edit dans la dernière colonne pour accéder aux questions visibles par les utilisateurs dans le panneau :
- Désactiver une question pour toutes les requêtes : la question sera activée par défaut. Décochez (ou cochez à nouveau) la case Autorisées dans la conversation. Cette option permet d'ignorer la question. Un marchand peut choisir de désactiver complètement une question si elle n'a pas de rapport avec les attributs interrogés ou si elle peut être interprétée comme inappropriée d'une manière ou d'une autre (une question telle que "Quelle taille de robe recherchez-vous ?" peut être perçue comme indiscrète sur le poids d'un acheteur).
- Réécrire une question : dans le volet, vous pouvez voir la question générée par l'IA, l'attribut auquel elle est associée et les valeurs de l'attribut. Cliquez sur le crayon pour le réécrire.
Activer la recherche conversationnelle
Une fois que vous avez modifié vos questions sur l'IA générative dans la console, vous pouvez activer la recherche conversationnelle.
Pour activer la recherche conversationnelle, accédez à la page Recherche et navigation conversationnelles dans la console Search for Retail.
Accédez à la page Recherche et navigation conversationnelles dans la console Search for Retail.
Accédez à la page "Recherche conversationnelle et navigation".Dans l'onglet Configurer de Search for Retail, vous trouverez le paramètre applicable à l'ensemble du système. Vous devez, entre autres, définir le nombre minimal de produits requis pour correspondre à la requête avant qu'une conversation puisse avoir lieu, et donc lorsque des questions sont générées. Ce nombre minimal est de 2. La valeur minimale peut être configurée pour être supérieure mais jamais inférieure à 2. Tenez compte du nombre de produits de votre catalogue que vous souhaitez voir renvoyés dans la recherche pour que les utilisateurs entament une conversation. Par exemple, ce chiffre peut se situer sur une ligne par page, avec un nombre minimal de résultats de recherche permettant de déclencher une conversation.
Activez l'option. Cette page fournit également des informations sur l'état de vos vérifications de blocage et de conseils. Si vous avez suffisamment de requêtes de recherche associées à au moins une question complémentaire, la recherche conversationnelle est désormais activée sur votre site.
Évaluer et tester
L'option Évaluer vous permet de prévisualiser l'expérience de diffusion en effectuant un test de recherche et en testant vos questions par rapport aux attributs affichés. Cette partie de la console vous offre un aperçu de votre expérience de diffusion avec la recherche conversationnelle.
Pour ce faire, recherchez ce module dans les onglets Rechercher ou Parcourir de la page Évaluer de la console de recherche pour le commerce.
Accédez à la page Évaluer de la console Search for Retail.
Accéder à la page "Évaluation"Dans le champ Search Evaluation (Évaluation de la recherche), saisissez une requête de test pertinente en fonction du catalogue que vous avez importé pour effectuer la recherche. Cliquez sur Rechercher un aperçu. Les résultats de recherche s'affichent. Si la recherche conversationnelle est activée, des questions génératives s'affichent dans le panneau de droite.
Dans le panneau de droite, vous trouverez la liste des questions du test.
API de questions génératives : expérience pour les administrateurs
Cette section explique comment utiliser l'API de question générative pour intégrer l'API de recherche conversationnelle dans votre interface utilisateur, gérer les questions génératives et publier la fonctionnalité sur votre site.
Intégration d'API
- Gérez l'API GenerativeQuestion depuis la recherche pour le commerce à l'aide des éléments suivants :
Objets:
- GenerativeQuestionsFeatureConfig
- GenerativeQuestionConfig
- Service GenerativeQuestions
- UpdateGenerativeQuestionsFeatureConfiguration
- UpdateGenerativeQuestionConfig
- ListGenerativeQuestionConfigs
- GetGenerativeQuestionFeatureConfig
- BatchUpdateGenerativeQuestionConfigs
L'objectif principal de l'intégration de cette fonctionnalité est de définir la "question" ressource. Cela inclut la question elle-même et si elle est autorisée dans la conversation. Par défaut, la question est générée par un LLM, mais l'administrateur peut la remplacer.
Activer la fonctionnalité
Objet :
- GenerativeQuestionsFeatureConfig
Cet objet est un fichier de configuration de contrôle permettant d'activer la fonctionnalité pour les questions génératives afin de gérer l'expérience de diffusion globale de la recherche conversationnelle. GenerativeQuestionsFeatureConfig obtient à l'aide d'une méthode GET des informations sur les attributs et si les attributs sont indexables ou non à partir du catalogue associé au projet.
Le bouton bascule feature_enabled
détermine si les questions sont utilisées au moment de l'inférence. Il gère les boutons d'activation/de désactivation de niveau supérieur dans la console.
Découvrez comment activer la recherche conversationnelle dans la console.
Gérer les questions génératives
Objet:
- GenerativeQuestionConfig
Le champ booléen allowed_in_conversation
peut activer les conversations. Il contrôle la configuration d'une seule question générée.
Champs (les comportements des commandes de la conversation sont mis en surbrillance) | |
catalogue | chaîne Permet d'identifier l'ensemble d'attributs (et par extension les questions) disponibles. Ces valeurs sont toutes définies dans le catalogue. Champ obligatoire. |
attribut | chaîne Attribut auquel une question est associée. Champ obligatoire. |
generated_question | string Question par défaut générée par le LLM. Uniquement en sortie. |
final_question | chaîne La question qui sera posée. Il peut comporter jusqu'à 300 octets. Champ facultatif. |
example_values | Valeurs de chaîne répétées pouvant être utilisées pour répondre à la question. Sortie uniquement |
fréquence | float Le ratio entre la fréquence à laquelle une question a été posée. Uniquement en sortie. |
allowed_in_conversation | booléen Indique si la question est posée au moment de la diffusion. Ce champ est facultatif. |
Expérience de diffusion activée par cette fonctionnalité
Le service de questions génératives (service GenerativeQuestionService{...}
) permet de gérer les questions générées par LLM. Son objet parent est le catalogue, dans lequel il récupère des informations pour renvoyer des questions pour un catalogue donné. Ce service permet de gérer l'état global de la fonctionnalité de questions génératives, d'effectuer des modifications individuelles ou groupées, et d'activer ou de désactiver des questions. Les exigences concernant les données doivent être respectées pour interagir avec l'API du service. Les questions doivent d'abord être initialisées avant de pouvoir être gérées.
Le service interagit avec les configurations au niveau des fonctionnalités et des questions à l'aide de deux ensembles de gestionnaires :
Générateurs de questions (niveau de fonctionnalité) :
- Mise à jour: vous permet de modifier le nombre minimal de produits et d'activer des champs
- Get : renvoie un objet
Générateurs de questions (niveau de la question) :
- List (Liste) : renvoie toutes les questions d'un catalogue donné
- Mise à jour : Gestion des questions individuelles
- Mise à jour groupée : gestion des questions groupées
Le service renvoie une question sémantiquement appropriée en fonction de la requête initiale.
Une question complémentaire est générée par le modèle LLM et peut être remplacée. Les questions s'affichent en fonction de la probabilité qu'elles soient utilisées par les clients en appelant l'historique des événements de recherche. Si aucun historique des événements de recherche n'est disponible, les journaux de recherche du marchand sont utilisés.
Différentes questions sont générées en fonction de la requête précédente. Il n'existe pas de pondération fixe. L'IA qui génère les questions avec le LLM apprend des requêtes et modifie le poids de chaque requête. Par exemple, "chemise" est très fortement pondéré dans la catégorie, tandis que "chemise rouge taille XL" est pondéré dans la catégorie, la taille et la couleur.
API de configuration de la recherche conversationnelle : expérience de diffusion
L'API de configuration de la recherche conversationnelle est intégrée à l'API de recherche de l'API Vertex AI.
Intégration d'API
L'API de configuration ConversationalSearchSpec
de la fonctionnalité se trouve au-dessus de l'API Vertex AI Search for retail existante. Pour prendre en charge la nouvelle fonctionnalité, la recherche conversationnelle, les modifications suivantes ont été apportées à l'API principale (requête) de Vertex AI Search pour le commerce déjà existante:
ConversationalSearchSpec
: ce champ facultatif a été ajouté dans SearchRequest, mais il est obligatoire si vous souhaitez utiliser la fonctionnalité de recherche conversationnelle. Le champ réutilise les champs SearchRequest, la requête et le filtre. Il comprend également un champ permettant d'activer une question de suivi présentée à l'utilisateur après une requête initiale et un champconversation_id
pour conserver l'état de la conversation entre le client et le serveur.ConversationalSearchResult
: un fichier proto contient des informations supplémentaires qui doivent être renvoyées pour le flux CRS conversationnel dansSearchResponse
. Cela inclut les élémentsconversation_id
,refined_query
,additional_filters
,follow_up_question
etsuggested_answers
(consultez la section Parcours utilisateur).
Parcours utilisateur
Le flux de conversation fonctionne comme suit: l'utilisateur lance une recherche à l'aide d'une requête initiale et de l'option followup_conversation_requested
définie sur "true". L'utilisateur sélectionne ensuite une réponse ou fournit une entrée en texte libre, qui est renvoyée à l'API à l'aide du champ user_answer
. L'API affine ensuite les résultats de recherche en fonction de l'entrée de l'utilisateur et pose une nouvelle question de suivi, ce qui déclenche une requête de suivi et poursuit la conversation en plusieurs tours jusqu'à ce que l'utilisateur trouve ce qu'il cherche sur le site Web du marchand.
En supposant que la recherche conversationnelle soit activée sur le site Web, le parcours utilisateur et l'interaction ultérieure avec Vertex AI Search pour le commerce suivent le chemin suivant:
- Étape 1. La première requête vient de l'utilisateur
- Étape 1a. Conversation de suivi demandée envoyée pour la recherche
- Étape 1b. Réponse initiale à la recherche avec une requête affinée et des réponses suggérées
- Scénario 2 : L'utilisateur sélectionne une question à choix multiples
- Étape 2a : Filtre de réponse sélectionné envoyé à la recherche
- Étape 2b. Recherche exécutée à nouveau avec un filtre appliqué
- Scénario 3: L'utilisateur sélectionne du texte libre
- Étape 3a : Réponse textuelle envoyée à la recherche
- Étape 3b. Recherche exécutée à nouveau avec une requête modifiée
1. La première requête provient de l'utilisateur
conversational_search_spec
: l'introduction de ce champ dans le message SearchRequest
permet au système de faire la distinction entre les recherches conversationnelles et les recherches régulières. Cette détermination détermine si les utilisateurs reçoivent des réponses conversationnelles supplémentaires, ce qui permet de préserver les fonctionnalités de recherche d'origine tout en les étendant aux interactions conversationnelles. Le champ conversational_search_spec
est au format de message et contient les informations nécessaires au flux de conversation, telles que les réponses de l'utilisateur, les ID de conversation et si l'utilisateur souhaite une conversation de suivi. Ces informations aident le système à comprendre le contexte et les interactions utilisateur.
Si la valeur booléenne followup_conversation_requested
est définie sur "TRUE", l'API répond par un ensemble initial de résultats et une question de suivi. L'utilisateur se verra proposer une expérience de conversation lors de sa recherche. Si ce champ est défini sur "FALSE", aucune question de suivi n'est envoyée.
Étape 1a. Marchand → Recherche: requête initiale avec conversation activée
Étape 1b : Recherche → marchand : ID de conversation, requête affinée, question de suivi, réponses suggérées
Scénario 2: L'utilisateur sélectionne une option à choix multiples
Si un utilisateur a sélectionné une réponse à choix multiples yellow
:
- Le
conversation_id
est restauré à partir du stockage de session. followup_conversation_requested
est défini sur "true".- Chaîne
user_answer
, utilise "selected_answer", qui contient une paire clé-valeur product_attribute_value, outext_answer
qui contient la valeur saisie en texte libre pour indiquer le choix de l'utilisateur. Ce champ se trouve dans le champconversational_search_spec
et contient d'autres messages imbriqués tels que "SelectedAnswer" pour spécifier les types de saisie utilisateur (texte ou réponses sélectionnées). - Le résultat revient à appeler l'objet
SearchResults
et ses champs. selected_answer
Ce champ transmet les attributs des produits pour guider la recherche conversationnelle.
Étape 2a : Marchand → recherche : filtre de réponse sélectionné
Étape 2b : Recherche → Marchand : filtres appliqués
Scénario 3: L'utilisateur sélectionne du texte libre
Si un utilisateur saisit lavender
:
- le
conversation_id
est restauré à partir du stockage de la session. followup_conversation_requested
est défini sur "true"user_answer
est défini pour ce que l'utilisateur saisit (avec le préfixetext_answer:
).