Auf dieser Seite wird eine Funktion für die interaktive Suche in Vertex AI Search für die kontextbezogene Suche im Einzelhandel beschrieben.
Mit der Konversationssuche können Einzelhändler ihren Nutzern eine interaktivere Suchfunktion bieten. Die konversationelle Suche ist Teil des Pakets „Geführte Suche“. Kunden können damit Suchanfragen eingrenzen und relevante Produkte schneller präsentieren.
Weitere Informationen zu folgenden Themen:
- So funktioniert die konversationelle Suche
- Bereitstellung über die Haupt-API (Abfrage-API)
- Administratoroberfläche über die Control API und die Konsole
So funktioniert die konversationelle Suche
Wenn die Funktion aktiviert ist, führt die Conversational Vertex AI Search for Retail-Technologie Nutzer durch die Produktsuche auf Händlerwebsites. Nach einer ersten Textabfrage in Vertex AI Search for Retail erhält der Onlinekäufer eine relevante Anschlussfrage und mehrere Antwortoptionen. Die Anschlussfrage kann vom Nutzer entweder in Freitext beantwortet oder auf eine konversationelle Multiple-Choice-Option geklickt werden.
Wenn die Konversationssuche auf der Website des Einzelhändlers aktiviert ist, leiten Folgefragen ein Gespräch an, das so lange dauert, bis eines der folgenden drei Szenarien eintritt:
- Eine vorkonfigurierte Mindestanzahl von Produkten wird erreicht. Eine Unterhaltung ist beispielsweise nicht sinnvoll, wenn nur zwei Produkte angezeigt werden.
- Der Nutzer klickt auf ein Produkt und legt es in den Einkaufswagen (Zielvorhaben).
- Bei der Suche und im Suchergebnis für den Einzelhandel sind keine KI-generierten Fragen mehr verfügbar.
Funktionsweise
Die Konversationssuche basiert auf der Interaktion des Nutzers mit einer laufenden Unterhaltung, die sich in mehreren Runden befindet. Daher ist mindestens eine zweite Antwort erforderlich, damit die dialogorientierte Suche funktioniert. Der Nutzer wird in der Antwort auf eine Folgefrage und vorgeschlagene Antworten hingewiesen. Der Nutzer kann auf diese Anschlussfrage entweder durch Eingabe einer Antwort oder durch Klicken auf eine vorgeschlagene Antwort (Multiple-Choice-Option) antworten.
Multiple-Choice-Frage Die Multiple-Choice-Option funktioniert im Hintergrund wie ein Attribut (ein Ereignistypfilter), mit dem die Abfrage durch Filter eingegrenzt wird. Wenn der Nutzer im Hintergrund auf eine Multiple-Choice-Antwort klickt, wird ein Filter auf die Abfrage angewendet. Das Anwenden eines Filters mithilfe der dialogorientierten Multiple-Choice-Frage ist identisch mit dem Anwenden desselben Filters mit dynamischen Attributen oder Tiles.
Freier Text Wenn der Nutzer in einem Freitext antwortet, wird eine neue und enger gefasste Anfrage generiert. Weitere Informationen dazu, wie die Konversationssuche die Erfassung von Filtern und Nutzerereignissen im Nutzerfluss bereichert
Vorteile der dialogorientierten Suche
Die Vertex AI Search for Retail durch die kontextbezogene Suche zu ergänzen, bietet sowohl Einzelhändlern als auch Nutzern mehrere Vorteile.
Abfragen mit wenigen Klicks eingrenzen
Mit der Konversationssuche können Sie 10.000 Produkte schnell und effizienter auf weniger als 100 Produkte eingrenzen. So ist es wahrscheinlicher, dass sich der Nutzer für einen Kauf entscheidet, was den Umsatz pro Suchanfrage erhöht.
Alternative zu dynamischen Attributen
Dynamische Attribute sind mit allgemeinen Suchanfragen verknüpft, die einen geringen Umsatz pro Abfrage haben. Zehntausende von Suchergebnissen können den Nutzer überfordern und riskieren, dass sie die Suche abbrechen. Insbesondere bei Suchanfragen mit einer hohen Anzahl an Produkten ist der Umsatz pro Anfrage ungewöhnlich niedrig. Die Konversationssuche kann Abfragen verfeinern und kann in Verbindung mit dynamischen Attributen verwendet werden. Die Konversationssuche bietet einige Vorteile gegenüber dynamischen Attributen, da sie menschlicher und interaktiver ist und weniger Platz auf der Seite einnimmt.
Anpassbare generative Fragen, die an die Präferenzen des Einzelhändlers angepasst sind
Die konversationelle Suche fördert die Interaktion zwischen Mensch und KI bei den generativen KI-Fragen, da Einzelhändler KI-generierte Fragen basierend auf dem hochgeladenen Katalog nach ihren Wünschen bearbeiten, überschreiben oder die Auswahl aufheben können. Fragen können in der Console Search for Retail oder in der API einzeln oder im Bulk-Verfahren bearbeitet oder deaktiviert werden, um die Fragen anzupassen, die in der Suche erscheinen sollen.
Console: Verwaltung
Über die Console können Einzelhändler generative Fragen in einer konversationellen Vertex AI Search for Retail-Umgebung verwalten. Weitere Informationen zur Verwendung generativer Fragen in der Konversationssuche
Schritte zur Verwendung des Diensts für generative Fragen
Erfüllen Sie die Datenanforderungen.
Konfigurieren Sie manuelle Überschreibungen.
Datenanforderungen
In der Console sehen Sie unter Unterhaltungssuche und -suche auf dem Tab Abdeckungsprüfungen oder unter Datenqualität > Unterhaltung, ob Ihre Suchdaten für die Unterhaltungssuche bereit sind.
Um die dialogorientierte Suche zu aktivieren, müssen Sie bestimmte Datenanforderungen erfüllen.
Diese sind:
- 1.000 Abfragen pro Tag: Wenn Sie diesen ersten Grenzwert erreichen,wird ein Unterhaltungsplan erstellt, der Ihre Eingaben und Ausgaben bewertet:
- Inputs: Filteranzahl in Ereignissen
- Ausgaben: Gesprächsabdeckung
- 25 % Konversationsabdeckung: Dieser Wert wird von Vertex AI Search für Einzelhandelsmodelle berechnet und gibt den Prozentsatz der Suchanfragen an, die eine Frage enthalten. Bei einer nach Volumen gewichteten Häufigkeit von 25 % der Suchanfragen sollte mindestens eine erste passende Frage vorhanden sein.
Wenn Sie noch keine Konversationsabdeckung von 25% haben, aber die ersten 1.000 Abfragen pro Tag haben, werden Blockierungs- und Empfehlungsprüfungen auf Ihre Ausgaben bzw. Eingaben angewendet. Hier beginnt Vertex AI Search for Retail zu berechnen, um wie viel Prozent die Filter zu erhöhen sind, die anhand von Nutzerereignissen angewendet werden, um den Grenzwert von 25 % für die Abdeckung von Unterhaltungen zu erreichen. Je mehr Filter hochgeladen werden, desto höher ist die Abdeckung.
So zeigst du deine Tagesform auf:
Wechseln Sie auf der Seite Datenqualität zum Tab Unterhaltung in der Search for Retail-Konsole. Hier sehen Sie die kritische Prüfung, ob bei mindestens 25% der Suchanfragen mindestens eine Anschlussfrage vorhanden ist, sowie Hinweise dazu, welcher Prozentsatz der Nutzerereignisse mit gültigen Filtern erforderlich ist, um dieses Ziel für die Gesprächsabdeckung zu erreichen.
Wenn Sie die kritische Prüfung bestanden haben und genügend Nutzerereignisse mit gültigen Filtern vorhanden sind, fahren Sie mit dem nächsten Schritt fort.
Um zu steuern, wie generative Fragen ausgeliefert werden, gehe zu Seite zum Suchen und Surfen im Modus Search for Retail-Konsole.
Generative Fragesteuerung
Die generative KI schreibt für jedes indexierbare Attribut im Katalog eine Frage und verwendet dabei sowohl Namen als auch Werte von Attributen für System- und benutzerdefinierte Attribute. Diese Fragen werden von einem LLM generiert und sollen die Sucherfahrung verbessern. Für Möbeltypen können die Werte beispielsweise „Innenraum“ oder „Außenbereich“ sein. Die KI erstellt dann eine Frage dazu, nach welcher Art von Möbeln Sie suchen.
Für jedes Attribut wird eine Frage generiert. Basierend auf bisherigen Nutzerereignissen und Facetteninteraktionen aus früheren Suchereignisdaten werden die Fragen nach der erwarteten Häufigkeit sortiert, mit der die Frage angezeigt wird. Die KI sieht sich zuerst die Fragen oben an und ermittelt dann anhand der Attribute, was relevant ist. Die Liste der Fragen wird einmal erstellt. Wenn ein neues Attribut hinzugefügt wird, wird es innerhalb von zwei Stunden in der Liste angezeigt.
Rufen Sie in der Search for Retail-Konsole die Seite Conversational Search and Browse auf.
Rufen Sie die Seite „Dialogbasiertes Suchen und Surfen“ auf.Auf dem Tab KI-generierte Fragen verwalten sehen Sie alle Fragen sortiert nach Häufigkeit der Verwendung, gewichtet nach Suchanfragen, d. h. wie oft sie bei häufigen Suchanfragen präsentiert werden. Für die Reihenfolge wird das Feld „Häufigkeit“ in der
GenerativeQuestionConfig
verwendet. In diesem Feld werden die KI-generierten Fragen nach der Häufigkeit ihrer Verwendung sortiert.Mit der Filteroption können Sie die Fragen filtern.
Klicken Sie das Kästchen an, um die Sichtbarkeit von Fragen für jedes Attribut zu aktivieren.
Klicken Sie am Ende jeder Zeile auf edit, um für jede Frage ein Bearbeitungsfeld zu öffnen.
So nehmen Sie Bulk-Änderungen vor:
Klicken Sie die Kästchen neben den Fragen an, die Sie in die Unterhaltung ein- oder ausschließen möchten.
Klicken Sie oben in der Liste auf die Schaltfläche addIn Unterhaltungen zulassen oder removeIn Unterhaltungen nicht zulassen. Wenn Sie eine einzelne Frage bearbeiten möchten, klicken Sie im angezeigten Fenster auf edit und entfernen oder aktivieren Sie das Kästchen neben In Unterhaltung zugelassen:
Generierte Fragen in der konversationellen Suche verwenden
Die API für den generativen Fragedienst bietet Steuerelemente, mit denen potenzielle Inkonsistenzen in der LLM-Ausgabe minimiert werden können. Sie können über die Console verwaltet werden. Hier können Einzelhändler auch die dialogorientierte Suche konfigurieren, indem sie den Status „Aktiviert“ ändern und die Mindestanzahl von Produkten festlegen, die zum Auslösen der Suche erforderlich sind.
Sie können die Fragen definieren, indem Sie die Frage selbst, mögliche Antworten und ob die Frage im Gespräch zulässig ist, angeben. Einzelne Fragen können von einem LLM generiert oder vom Händler überschrieben werden. Die Konsole unterstützt die Überprüfung von KI-generierten Fragen. Einzelhändler können sie überschreiben oder ihren Konversationsstatus ändern. Fragen können auch im Bulk-Verfahren bearbeitet werden.
Einzelne Fragen bearbeiten
Mit den Steuerelementen lassen sich auch einzelne Fragen auswählen. Wir empfehlen, dies zu tun, bevor Sie die Konversationssuche aktivieren.
Für jede Frage gibt es zwei Optionen. Klicken Sie in der letzten Spalte auf edit, um auf das Steuerfeld „Für Nutzer sichtbare Fragen“ zuzugreifen:
- Eine Frage für alle Suchanfragen deaktivieren: Die Frage ist standardmäßig aktiviert. Entfernen Sie das Häkchen neben In Unterhaltungen erlaubt oder setzen Sie es wieder. Bei dieser Option wird die Frage vollständig übersprungen. Händler können eine Frage auch vollständig deaktivieren, wenn sie sich nicht auf die abgefragten Attribute bezieht oder auf irgendeine Weise als unangemessen ausgelegt werden könnte. Eine Frage wie „Welche Kleidergröße suchen Sie?“ könnte beispielsweise als unzulässige Frage zum Gewicht eines Käufers wahrgenommen werden.
- Frage umformulieren: Im Bereich sehen Sie die KI-generierte Frage, mit welchem Attribut sie verknüpft ist und welche Werte das Attribut hat. Klicken Sie auf das Stiftsymbol, um den Text neu zu schreiben.
Konversationssuche aktivieren
Nachdem Sie Ihre Fragen zu generativer KI in der Console bearbeitet haben, können Sie die konversationelle Suche aktivieren.
Wenn Sie die dialogbasierte Suche aktivieren möchten, rufen Sie in der Search for Retail-Konsole die Seite Dialogbasierte Suche und Suche auf.
Rufen Sie in der Console „Suchen für Einzelhandel“ die Seite Unterhaltungssuche und -suche auf.
Rufen Sie die Seite „Dialogbasiertes Suchen und Surfen“ auf.Sie finden sie in der Retail Search auf dem Tab Konfigurieren. Dazu gehört auch die Festlegung der Mindestanzahl von Produkten, die mit der Suchanfrage übereinstimmen müssen, bevor eine Unterhaltung gestartet werden kann, also wann Fragen generiert werden. Die Mindestanzahl ist = > 2. Der Mindestwert kann höher konfiguriert werden, darf aber nicht unter 2 liegen. Überlegen Sie, wie viele Produkte in Ihrem Katalog bei der Suche für Nutzer zurückgegeben werden sollen, um eine Unterhaltung zu beginnen. Ein guter Wert für diese Zahl ist beispielsweise eine Zeile pro Seite, damit die Anzahl der Suchergebnisse möglichst gering ist, um eine Unterhaltung auszulösen.
Aktivieren Sie die Funktion über die Ein/Aus-Schaltfläche. Auf dieser Seite finden Sie auch Informationen zum Status Ihrer Blockierungs- und Empfehlungsprüfungen. Wenn Sie genügend Suchanfragen mit mindestens einer Anschlussfrage haben, ist die Konversationssuche jetzt auf Ihrer Website aktiviert.
Bewerten und testen
Mit Bewerten können Sie sich eine Vorschau der Anzeigenbereitstellung ansehen, indem Sie eine Testsuche durchführen und Ihre Fragen anhand der angezeigten Attribute testen. In diesem Teil der Console sehen Sie eine Vorschau der Bereitstellung mit der dialogorientierten Suche.
Dieses Modul finden Sie dazu auf der Seite Bewerten des Moduls auf den Tabs Suchen oder Durchsuchen Search for Retail-Konsole.
Rufen Sie in der Search for Retail-Konsole die Seite Bewerten auf.
Zur Seite „Bewerten“Geben Sie in das Feld „Suchbewertung“ eine Testabfrage ein, die für den Katalog sinnvoll ist, den Sie für die Suche hochgeladen haben. Klicken Sie auf Suchvorschau. Sie sehen Suchergebnisse und wenn Sie die Konversationssuche aktiviert haben, werden Ihnen im rechten Bereich generative Fragen angezeigt.
Im rechten Bereich sehen Sie eine Liste mit Testfragen.
Generative Question API: Admin-Oberfläche
In diesem Abschnitt wird beschrieben, wie Sie mit der API für generative Fragen die API für die konversationelle Suche in Ihre UI einbinden, die generativen Fragen verwalten und die Funktion auf Ihrer Website bereitstellen.
API-Integration
- Sie können die GenerativeQuestion API über die Search for Retail API mit folgenden Methoden verwalten:
Objekte:
- GenerativeQuestionsFeatureConfig
- GenerativeQuestionConfig
- GenerativeQuestions-Dienst
- UpdateGenerativeQuestionsFeatureConfiguration
- UpdateGenerativeQuestionConfig
- ListGenerativeQuestionConfigs
- GetGenerativeQuestionFeatureConfig
- BatchUpdateGenerativeQuestionConfigs
Der Kern der Integration dieser Funktion besteht darin, die Ressource „question“ zu definieren. Dazu gehören die Frage selbst und ob sie in der Unterhaltung zulässig ist. Die Frage wird standardmäßig von einem LLM generiert, kann aber vom Administrator überschrieben werden.
Feature aktivieren
Objekt:
- GenerativeQuestionsFeatureConfig
Dieses Objekt ist eine Kontrollkonfigurationsdatei, mit der die Funktion für generative Fragen aktiviert wird, um die Bereitstellung der Conversational Search insgesamt zu verwalten. GenerativeQuestionsFeatureConfig ruft mithilfe einer GET-Methode Attributinformationen und Informationen dazu ab, ob die Attribute indexierbar sind, aus dem mit dem Projekt verknüpften Katalog.
Mit dem Schalter feature_enabled
wird festgelegt, ob Fragen bei der Auslieferung verwendet werden. Hier werden die Ein-/Aus-Schaltflächen auf oberster Ebene in der Console verwaltet.
Weitere Informationen zum Aktivieren der konversationellen Suche in der Console
Generative Fragen verwalten
Objekt:
- GenerativeQuestionConfig
Sie kann mit dem booleschen Feld allowed_in_conversation
für Unterhaltungen aktiviert werden. Sie steuert die Konfiguration einer einzelnen generierten Frage.
Felder (Verhalten für Unterhaltungen hervorgehoben) | |
Katalog | string Wird verwendet, um festzulegen, welche Attribute (und durch Erweiterungsfragen) verfügbar sind. Diese Werte sind alle im Katalog definiert. Pflichtfeld. |
Attribut | string Facette, mit der eine Frage verknüpft ist. Pflichtfeld. |
generated_question | string Die vom LLM generierte Standardfrage. Nur Ausgabe. |
final_question | string Die Frage, die gestellt wird. Er darf eine maximale Länge von 300 Byte haben. Optionales Feld. |
Beispielwerte | Wiederholte Stringwerte, die zur Beantwortung der Frage verwendet werden können. Nur Ausgabe |
frequency | float Das Verhältnis, wie oft eine Frage gestellt wurde. Nur Ausgabe. |
allowed_in_conversation | boolean Gibt an, ob die Frage bei der Auslieferung gestellt wird. Dieses Feld ist optional. |
Durch diese Funktion aktivierte Bereitstellung
Der Dienst für generative Fragen (service GenerativeQuestionService{...}
) wird zum Verwalten von LLM-generierten Fragen verwendet. Das übergeordnete Objekt ist der Katalog, aus dem Informationen abgerufen werden, um Fragen für einen bestimmten Katalog zurückzugeben. Mit dem Dienst können Sie den Gesamtstatus der generativen Fragenfunktion verwalten, einzelne oder Batchänderungen vornehmen und Fragen aktivieren oder deaktivieren. Für die Verknüpfung mit der Service API müssen Datenanforderungen erfüllt sein. Außerdem müssen die Fragen zuerst initialisiert werden, bevor sie verwaltet werden können.
Der Dienst interagiert mit den Konfigurationen auf Feature- und Frageebene über zwei Handler-Sätze:
GenerativeQuestionsFeatureConfig-Handler (Funktionsebene):
- Aktualisierung: Mindestproduktmenge ändern und Felder aktivieren
- Get: Gibt ein Objekt zurück.
GenerativeQuestion-Konfigurations-Handler (Frageebene):
- Liste: Gibt alle Fragen für einen bestimmten Katalog zurück
- Update: Verwaltung einzelner Fragen
- Batch-Aktualisierung: Verwaltung gruppierter Fragen
Der Dienst gibt basierend auf der ursprünglichen Abfrage eine semantisch passende Frage zurück.
Eine Anschlussfrage wird vom LLM-Modell generiert und kann überschrieben werden. Die Fragen basieren darauf, wie wahrscheinlich es ist, dass Kunden sie verwenden, wenn sie den Suchverlauf des Suchverlaufs aufrufen. Wenn kein Suchereignisverlauf vorhanden ist, erfolgt der Rückfall auf die Suchprotokolle des Einzelhändlers.
Basierend auf der vorherigen Abfrage werden unterschiedliche Fragen generiert. Es gibt keine festen Gewichte. Die KI, die die LLM-generierten Fragen bestimmt, lernt aus den Abfragen und ändert die Gewichtung für jede Suchanfrage, sodass beispielsweise „shirt“ die Kategorie sehr stark gewichtet, aber „XL rotes Shirt“ Kategorie, Größe und Farbe.
Conversational Search Configuration API: Darstellung
Die Konfigurations-API für die konversationelle Suche ist in die Vertex AI API Search API eingebunden.
API-Integration
Die Konfigurations-API ConversationalSearchSpec
für das Feature basiert auf der vorhandenen Vertex AI Search for Retail API. Zur Unterstützung des neuen Features „Conversational Search“ wurden die folgenden Änderungen an der bereits vorhandenen Vertex AI Search for Retail API (Abfrage-API) vorgenommen:
ConversationalSearchSpec
: Dieses optionale Feld wurde in SearchRequest hinzugefügt, ist aber erforderlich, wenn Sie die Konversationssuche verwenden möchten. Für das Feld werden die Felder „SearchRequest“, „query“ und „filter“ wiederverwendet. Außerdem enthält es ein Feld, mit dem nach einer ersten Anfrage eine Anschlussfrage an den Nutzer gesendet werden kann, und einconversation_id
, um den Status der Unterhaltung zwischen Client und Server aufrechtzuerhalten.ConversationalSearchResult
: Eine Proto-Datei enthält zusätzliche Informationen, die für den Konversations-CRS-Ablauf inSearchResponse
zurückgegeben werden müssen. Dazu gehörenconversation_id
,refined_query
,additional_filters
,follow_up_question
undsuggested_answers
(siehe Abschnitt User Journey).
Nutzerpfad
Der Konversationsablauf funktioniert so: Der Nutzer initiiert eine Suche mit einer anfänglichen Abfrage und dem Flag followup_conversation_requested
, das auf „true“ gesetzt ist. Der Nutzer wählt dann eine Antwort aus oder gibt einen Freitext ein, der über das Feld user_answer
an die API zurückgesendet wird. Die API verfeinert dann die Suchergebnisse basierend auf den Eingaben des Nutzers und gibt eine neue Anschlussfrage ein. Dabei wird eine Folgefrage ausgelöst und die Unterhaltung in mehreren Runden fortgesetzt, bis der Nutzer das Gesuchte auf der Händlerwebsite findet.
Angenommen, die konversationelle Suche ist auf der Website aktiviert, verläuft der User Journey und die nachfolgende Interaktion mit Vertex AI Search for Retail so:
- Schritt 1: Erste Suchanfrage stammt vom Nutzer
- Schritt 1a: Follow-up-Unterhaltung für die Suche angefordert
- Schritt 1b: Erste Antwort in der Google Suche mit verfeinerter Suchanfrage und vorgeschlagenen Antworten
- Szenario 2: Der Nutzer wählt eine Multiple-Choice-Frage
- Schritt 2a: Der ausgewählte Antwortfilter wurde an die Suche gesendet
- Schritt 2b: Suche noch einmal mit angewendetem Filter ausführen
- Szenario 3: Der Nutzer wählt einen freien Text aus.
- Schritt 3a: Textantwort wurde an die Google Suche gesendet
- Schritt 3b: Suchlauf mit geänderter Abfrage noch einmal ausführen
Schritt 1: Die erste Suchanfrage stammt von einem Nutzer.
conversational_search_spec
: Durch die Einführung dieses Felds in der SearchRequest
-Nachricht kann das System zwischen dialogorientierten und regulären Suchen unterscheiden. Diese Bestimmung wirkt sich darauf aus, ob Nutzer zusätzliche Antworten in Form von Unterhaltungen erhalten. So bleiben die ursprünglichen Suchfunktionen erhalten und werden gleichzeitig für Unterhaltungsinteraktionen erweitert. Das Feld conversational_search_spec
ist im Nachrichtenformat und enthält Details, die für den Gesprächsablauf erforderlich sind, z. B. Nutzerantworten, Unterhaltungs-IDs und ob der Nutzer eine weitere Unterhaltung wünscht. Diese Informationen helfen dem System, den Kontext und die Nutzerinteraktionen zu verstehen.
Wenn der boolesche Wert followup_conversation_requested
auf TRUE gesetzt ist, antwortet die API mit einer ersten Gruppe von Ergebnissen und einer Folgefrage. Der Nutzer erhält bei der Suche einen Dialog. Ist dieses Feld auf "FALSE" gesetzt, wird keine Folgefrage beantwortet.
Schritt 1a: Einzelhändler → Suche: Erste Abfrage mit aktivierter Unterhaltung
Schritt 1b: Suche → Händler: Konversations-ID, optimierte Suchanfrage, Anschlussfrage, vorgeschlagene Antworten
Szenario 2: Der Nutzer wählt eine Multiple-Choice-Option
Wenn ein Nutzer eine Multiple-Choice-Antwort ausgewählt hat, yellow
:
conversation_id
wird aus dem Sitzungsspeicher wiederhergestellt.followup_conversation_requested
ist auf „true“ festgelegt.- String „
user_answer
“, verwendet entweder „selected_answer“, mit einem Schlüssel/Wert-Paar „product_attribute_value“ odertext_answer
mit wertfreiem Text, mit dem die Auswahl des Nutzers angegeben wird. Dieses Feld befindet sich im Feldconversational_search_spec
und enthält weitere verschachtelte Nachrichten wie "SelectedAnswer" , um die Nutzereingabetypen (Text oder ausgewählte Antworten) festzulegen. - Als Ergebnis werden wieder das
SearchResults
-Objekt und seine Felder aufgerufen. selected_answer
In diesem Feld werden die Produktattribute übergeben, um die konversationelle Suche zu steuern.
Schritt 2a: Händler → Suche: Filter für ausgewählte Antwort
Schritt 2b: Suche → Händler: Filter angewendet
Szenario 3: Der Nutzer wählt eine Freitexteingabe aus
Wenn ein Nutzer lavender
eingibt:
conversation_id
wird aus dem Sitzungsspeicher wiederhergestelltfollowup_conversation_requested
ist auf „true“ festgelegtuser_answer
wird für die Eingaben des Nutzers festgelegt (mit dem Präfixtext_answer:
).