Auf dieser Seite wird eine Funktion für die interaktive Suche in der kontextbezogenen Suche von Vertex AI Search for Commerce beschrieben.
Mit der Konversationssuche können Einzelhändler ihren Nutzern eine interaktivere Suchfunktion bieten. Die Konversationssuche ist Teil des Pakets „Interaktive Suche“. Sie hilft Kunden, Suchanfragen einzugrenzen und relevante Produkte schneller zu finden.
Weitere Informationen zu folgenden Themen:
- So funktioniert die konversationelle Suche
- Bereitstellung über die Haupt-API (Abfrage-API)
- Verwaltung über die Control API und die Console
So funktioniert die konversationelle Suche
Wenn die Funktion aktiviert ist, führt die Conversational Vertex AI Search for Commerce Nutzer durch die Produktsuche auf Händlerwebsites. Nach einer ersten Textabfrage in Vertex AI Search for Commerce erhält der Onlinekäufer eine relevante Anschlussfrage und mehrere Antwortoptionen. Die Anschlussfrage kann entweder durch Eingabe von Freitext oder durch Klicken auf eine Antwortoption aus der Konversation beantwortet werden.
Wenn die konversationelle Suche auf der Website des Einzelhändlers aktiviert ist, werden durch Folgefragen Unterhaltungen gestartet, die so lange fortgesetzt werden, bis eines der folgenden drei Szenarien eintritt:
- Eine vorkonfigurierte Mindestanzahl von Produkten wird erreicht. Eine Unterhaltung ist beispielsweise nicht sinnvoll, wenn nur zwei Produkte angezeigt werden.
- Der Nutzer klickt auf ein Produkt und legt es in den Einkaufswagen (Zielvorhaben).
- Bei der Suche und im Suchverlauf für den Einzelhandel sind keine KI-generierten Fragen mehr verfügbar.
Funktionsweise
Die Konversationssuche basiert auf einer laufenden Unterhaltung mit mehreren Gesprächsrunden. Daher ist mindestens eine zweite Antwort erforderlich, damit die Konversationssuche funktioniert. Der Nutzer wird in der Antwort auf eine Folgefrage und vorgeschlagene Antworten hingewiesen. Der Nutzer kann auf diese Anschlussfrage entweder durch Eingabe einer Antwort oder durch Klicken auf eine vorgeschlagene Antwort (Multiple-Choice-Option) antworten.
Multiple-Choice-Frage Die Option „Multiple-Choice-Frage“ funktioniert im Hintergrund wie eine Facette (ein Ereignistypfilter), mit der die Abfrage durch Filterung eingegrenzt wird. Wenn der Nutzer im Hintergrund auf eine Multiple-Choice-Antwort klickt, wird ein Filter auf die Abfrage angewendet. Das Anwenden eines Filters mithilfe der Konversationsfunktion „Multiple-Choice-Frage“ entspricht dem Anwenden desselben Filters mithilfe dynamischer Facetten oder Kacheln.
Freier Text Wenn der Nutzer in Form von freiem Text antwortet, wird eine neue und engere Suchanfrage generiert. Weitere Informationen dazu, wie die Konversationssuche die Erfassung von Filtern und Nutzerereignissen im Nutzerfluss bereichert
Vorteile der konversationellen Suche
Die Vertex AI Search for Commerce durch die Konversationssuche zu ergänzen, bietet sowohl Einzelhändlern als auch Nutzern mehrere Vorteile.
Abfragen mit wenigen Klicks eingrenzen
Mit der Konversationssuche können Sie 10.000 Produkte schnell und effizienter auf weniger als 100 Produkte eingrenzen. So ist es wahrscheinlicher, dass der Nutzer einen Kauf tätigt, was den Umsatz pro Suchanfrage erhöht.
Alternative zu dynamischen Facetten
Dynamische Facetten sind mit weitgehend passenden Suchanfragen verknüpft, bei denen der Umsatz pro Suchanfrage niedrig ist. Wenn Nutzer Zehntausende von Ergebnissen sehen, kann das zu Überforderung führen und sie brechen die Suche ab. Insbesondere bei Suchanfragen mit einer hohen Anzahl von Produkten ist der Umsatz pro Suchanfrage ungewöhnlich niedrig. Mit der Konversationssuche können Suchanfragen verfeinert und in Kombination mit dynamischen Facetten verwendet werden. Die Konversationssuche bietet einige Vorteile gegenüber dynamischen Facetten: Sie ist persönlicher, interaktiver und benötigt weniger Platz auf der Seite.
Anpassbare generative Fragen, die an die Präferenzen des Einzelhändlers angepasst sind
Die konversationelle Suche fördert die Interaktion zwischen Mensch und KI bei den generativen KI-Fragen, da Einzelhändler KI-generierte Fragen basierend auf dem hochgeladenen Katalog nach ihren Wünschen bearbeiten, überschreiben oder die Auswahl aufheben können. Fragen können in der Console Search for Commerce oder in der API einzeln oder im Bulk-Verfahren bearbeitet oder deaktiviert werden, um die Fragen anzupassen, die in der Suche erscheinen sollen.
Console: Admin-Oberfläche
Über die Konsole können Einzelhändler generative Fragen in einer Konversationsoberfläche von Vertex AI Search for Commerce verwalten. Weitere Informationen zur Verwendung generativer Fragen in der Konversationssuche
Schritte zur Verwendung des Dienstes für generative Fragen
Sie erfüllen die Datenanforderungen.
Konfigurieren Sie manuelle Überschreibungen.
Datenanforderungen
In der Console sehen Sie unter Unterhaltungssuche und -suche auf dem Tab Abdeckungsprüfungen oder unter Datenqualität > Unterhaltung, ob Ihre Suchdaten für die Unterhaltungssuche bereit sind.
Damit die Konversationssuche aktiviert werden kann, müssen bestimmte Datenanforderungen erfüllt sein.
Diese sind:
- 1.000 Anfragen pro Tag: Nachdem Sie diesen ersten Grenzwert erreicht haben,wird ein Konversationsplan generiert, in dem Ihre Eingaben und Ausgaben ausgewertet werden:
- Inputs: Filteranzahl in Ereignissen
- Ergebnisse: Abdeckung von Konversationen
- 25% Konversationsabdeckung: Die Konversationsabdeckung wird von Vertex AI Search for Commerce-Modellen berechnet und ist der Prozentsatz der Suchanfragen, die eine Frage enthalten. Bei 25% (nach Volumen) der Suchanfragen sollte mindestens eine erste Frage vorhanden sein, die zu der Suchanfrage passt.
Wenn Sie noch nicht 25% der Unterhaltungsabdeckung erreicht haben, aber die erste Voraussetzung von 1.000 Anfragen pro Tag erfüllen, werden Ihre Ausgaben und Eingaben jeweils blockiert oder mit einer Warnung versehen. Hier beginnt Vertex AI Search for Commerce zu berechnen, um wie viel Prozent die Filter zu erhöhen sind, die anhand von Nutzerereignissen angewendet werden, um den Grenzwert von 25% für die Abdeckung von Unterhaltungen zu erreichen. Je mehr Filter hochgeladen werden, desto höher ist die Abdeckung.
So rufen Sie Ihre Konversationsbereitschaft auf:
Rufen Sie in der Console auf der Seite Datenqualität den Tab Unterhaltung auf. Hier sehen Sie die wichtige Prüfung, ob mindestens 25% der Suchanfragen mindestens eine Anschlussfrage haben, sowie Empfehlungen dazu, welcher Prozentsatz der Nutzerereignisse mit gültigen Filtern erforderlich ist, um das Ziel für die Konversationsabdeckung zu erreichen.
Wenn Sie die kritische Prüfung bestehen und genügend Nutzerereignisse mit gültigen Filtern vorhanden sind, fahren Sie mit dem nächsten Schritt fort.
Wenn Sie festlegen möchten, wie generierte Fragen präsentiert werden, rufen Sie in der Search for Commerce Console die Seite Konversationssuche und Suchanfragen auf.
Einstellungen für generative Fragen
Die generative KI schreibt für jedes indexierbare Attribut im Katalog eine Frage. Dabei werden sowohl Namen als auch Werte von Attributen für System- und benutzerdefinierte Attribute verwendet. Diese Fragen werden von einem LLM generiert und sollen die Sucherfahrung verbessern. Wenn Sie beispielsweise „Möbel“ als Möbeltyp angeben, fragt die KI, nach welcher Art von Möbeln Sie suchen.
Für jede Facette wird eine Frage generiert. Die Fragen werden anhand bisheriger Nutzerereignisse und der Interaktionen mit den Facetten aus vergangenen Suchereignisdaten nach der erwarteten Häufigkeit sortiert, mit der die Frage angezeigt wird. Die KI sieht sich zuerst die Fragen oben an und ermittelt dann anhand der Attribute, was relevant ist. Die Liste der Fragen wird nur einmal generiert. Wenn ein neues Attribut hinzugefügt wird, wird es innerhalb von zwei Stunden in der Liste angezeigt.
Rufen Sie in der Search for Commerce Console die Seite Unterhaltungssuche und -suche auf.
Rufen Sie die Seite „Dialogbasiertes Suchen und Surfen“ auf.Auf dem Tab KI-generierte Fragen verwalten sehen Sie alle Fragen sortiert nach Häufigkeit der Verwendung, gewichtet nach Suchanfragen, d. h. wie oft sie bei häufigen Suchanfragen präsentiert werden. Für die Reihenfolge wird das Feld „Häufigkeit“ in der
GenerativeQuestionConfig
verwendet. In diesem Feld werden die KI-generierten Fragen nach ihrer Häufigkeit sortiert.Mit der Filteroption können Sie die Fragen filtern.
Setzen Sie ein Häkchen, um die Sichtbarkeit der Fragen für jedes Attribut zu aktivieren.
Klicken Sie am Ende jeder Zeile auf edit, um für jede Frage ein Bearbeitungsfeld zu öffnen.
So nehmen Sie Bulk-Änderungen vor:
Setzen Sie ein Häkchen in die Kästchen neben den Fragen, die in die Unterhaltung einbezogen oder daraus ausgeschlossen werden sollen.
Klicken Sie oben in der Liste auf die Schaltfläche addIn Unterhaltungen zulassen oder removeIn Unterhaltungen nicht zulassen. Wenn Sie eine einzelne Frage bearbeiten möchten, klicken Sie auf edit und entfernen Sie das Häkchen neben In Unterhaltungen erlaubt oder setzen Sie es wieder:
Generierte Fragen in der konversationellen Suche verwenden
Die API für den generativen Fragedienst bietet Steuerelemente, mit denen potenzielle Inkonsistenzen in der LLM-Ausgabe minimiert werden können. Sie können über die Console verwaltet werden. Hier können Einzelhändler auch die Konversationssuche konfigurieren, indem sie den Aktivierungsstatus umschalten und die Mindestanzahl der Produkte festlegen, die zum Auslösen erforderlich sind.
Sie können die Fragen definieren, indem Sie die Frage selbst, mögliche Antworten und ob die Frage im Gespräch zulässig ist, angeben. Einzelne Fragen können von einem LLM generiert oder vom Händler überschrieben werden. In der Konsole können KI-generierte Fragen überprüft werden, damit Einzelhändler sie überschreiben oder ihren Konversationsstatus ändern können. Fragen können auch im Bulk-Verfahren bearbeitet werden.
Einzelne Fragen bearbeiten
Mit den Steuerelementen können Sie auch die einzelnen Fragen auswählen. Wir empfehlen, dies zu tun, bevor Sie die Konversationssuche aktivieren.
Für jede Frage gibt es zwei Optionen. Klicken Sie in der letzten Spalte auf edit, um auf das Steuerfeld „Für Nutzer sichtbare Fragen“ zuzugreifen:
- Eine Frage für alle Suchanfragen deaktivieren: Die Frage ist standardmäßig aktiviert. Entfernen Sie das Häkchen neben In Unterhaltungen erlaubt oder setzen Sie es wieder. Mit dieser Option wird die Frage übersprungen. Händler können eine Frage auch vollständig deaktivieren, wenn sie sich nicht auf die abgefragten Attribute bezieht oder auf irgendeine Weise als unangemessen ausgelegt werden könnte. Eine Frage wie „Welche Kleidergröße suchen Sie?“ könnte beispielsweise als unzulässige Frage zum Gewicht eines Käufers wahrgenommen werden.
- Frage umformulieren:Im Bereich sehen Sie die KI-generierte Frage, mit welchem Attribut sie verknüpft ist und welche Werte das Attribut hat. Klicke auf den Stift, um den Text zu überschreiben.
Dialogbasierte Suche aktivieren
Nachdem Sie Ihre Fragen für die generative KI in der Console bearbeitet haben, können Sie die konversationelle Suche aktivieren.
Wenn Sie die dialogbasierte Suche aktivieren möchten, rufen Sie in der Search for Commerce Console die Seite Dialogbasierte Suche und Suche auf.
Rufen Sie in der Search for Commerce Console die Seite Unterhaltungssuche und -suche auf.
Rufen Sie die Seite „Dialogbasiertes Suchen und Surfen“ auf.Auf dem Tab Konfigurieren der Funktion „Suchen nach Shopping“ finden Sie die systemweite Einstellung. Dazu gehört auch die Festlegung der Mindestanzahl von Produkten, die mit der Suchanfrage übereinstimmen müssen, bevor eine Unterhaltung gestartet werden kann, also wann Fragen generiert werden. Diese Mindestanzahl ist> 2. Der Mindestwert kann höher konfiguriert werden, darf aber nicht unter 2 liegen. Überlegen Sie, wie viele Produkte in Ihrem Katalog bei der Suche nach Nutzern zurückgegeben werden sollen, um eine Unterhaltung zu beginnen. Ein guter Wert für diese Zahl ist beispielsweise eine Zeile pro Seite, damit die Anzahl der Suchergebnisse möglichst gering ist, um eine Unterhaltung auszulösen.
Aktivieren Sie die Funktion über die Ein/Aus-Schaltfläche. Auf dieser Seite finden Sie auch Informationen zum Status Ihrer Blockierungs- und Warnhinweisprüfungen. Wenn Sie genügend Suchanfragen mit mindestens einer Anschlussfrage haben, ist die Konversationssuche jetzt auf Ihrer Website aktiviert.
Bewerten und testen
Mit Bewerten können Sie sich eine Vorschau der Auslieferung ansehen, indem Sie eine Testsuche durchführen und Ihre Fragen anhand der angezeigten Facetten testen. Dieser Teil der Konsole bietet eine Vorschau der Auslieferung mit der konversationellen Suche.
Sie finden es auf der Seite Bewerten der Console „Suchen nach Commerce“ auf den Tabs Suchen oder Durchsuchen.
Rufen Sie in der Search for Commerce Console die Seite Bewerten auf.
Zur Seite „Bewerten“Geben Sie in das Feld „Suchbewertung“ eine Testabfrage ein, die für den Katalog sinnvoll ist, den Sie für die Suche hochgeladen haben. Klicken Sie auf Suchvorschau. Sie sehen Suchergebnisse und wenn Sie die Konversationssuche aktiviert haben, werden im rechten Bereich generative Fragen angezeigt.
Im rechten Bereich sehen Sie eine Liste mit Testfragen.
Generative Question API: Admin-Oberfläche
In diesem Abschnitt wird beschrieben, wie Sie die API für generative Fragen verwenden, um die Conversational Search API in Ihre Benutzeroberfläche einzubinden, die generativen Fragen zu verwalten und die Funktion auf Ihrer Website bereitzustellen.
API-Integration
- Sie können die GenerativeQuestion API über die Suche für Unternehmen mit folgenden Methoden verwalten:
Objekte:
- GenerativeQuestionsFeatureConfig
- GenerativeQuestionConfig
- GenerativeQuestions-Dienst
- UpdateGenerativeQuestionsFeatureConfiguration
- UpdateGenerativeQuestionConfig
- ListGenerativeQuestionConfigs
- GetGenerativeQuestionFeatureConfig
- BatchUpdateGenerativeQuestionConfigs
Der Kern der Integration dieser Funktion besteht darin, die Ressource „question“ zu definieren. Dazu gehören die Frage selbst und ob sie in der Unterhaltung zulässig ist. Die Frage wird standardmäßig von einem LLM generiert, kann aber vom Administrator überschrieben werden.
Feature aktivieren
Objekt:
- GenerativeQuestionsFeatureConfig
Dieses Objekt ist eine Konfigurationsdatei, mit der Sie die Funktion für generative Fragen aktivieren können, um die allgemeine Bereitstellung der Konversationssuche zu verwalten. GenerativeQuestionsFeatureConfig ruft mithilfe einer GET-Methode Attributinformationen und Informationen dazu ab, ob die Attribute indexierbar sind, aus dem mit dem Projekt verknüpften Katalog.
Mit dem Schalter feature_enabled
wird festgelegt, ob Fragen bei der Auslieferung verwendet werden. Hier werden die Ein-/Aus-Schaltflächen auf oberster Ebene in der Console verwaltet.
Weitere Informationen zum Aktivieren der konversationellen Suche in der Console
Generative Fragen verwalten
Objekt:
- GenerativeQuestionConfig
Sie kann mit dem booleschen Feld allowed_in_conversation
für Unterhaltungen aktiviert werden. Damit wird die Konfiguration für eine einzelne generierte Frage gesteuert.
Felder (Kontrollverhalten für Unterhaltungen hervorgehoben) | |
Katalog | String: Damit wird angegeben, welche Attribute (und damit auch Fragen) verfügbar sind. Diese Werte sind alle im Katalog definiert. Pflichtfeld. |
facet | String: Facette, der eine Frage zugeordnet ist. Pflichtfeld. |
generated_question | string Die vom LLM generierte Standardfrage. Nur Ausgabe. |
final_question | string Die Frage, die gestellt wird. Er darf maximal 300 Byte lang sein. Optionales Feld. |
Beispielwerte | Wiederholte Stringwerte, die zur Beantwortung der Frage verwendet werden können. Nur Ausgabe |
Häufigkeit | float Das Verhältnis, wie oft eine Frage gestellt wurde. Nur Ausgabe. |
allowed_in_conversation | boolean Gibt an, ob die Frage bei der Auslieferung gestellt wird. Dieses Feld ist optional. |
Durch diese Funktion aktivierte Bereitstellung
Der Dienst für generative Fragen (service GenerativeQuestionService{...}
) wird zum Verwalten von LLM-generierten Fragen verwendet. Das übergeordnete Objekt ist der Katalog, aus dem Informationen abgerufen werden, um Fragen für einen bestimmten Katalog zurückzugeben. Mit dem Dienst können Sie den Gesamtstatus der Funktion für generative Fragen verwalten, einzelne oder Batchänderungen vornehmen und Fragen aktivieren oder deaktivieren. Für die Verknüpfung mit der Service API müssen Datenanforderungen erfüllt sein. Außerdem müssen die Fragen zuerst initialisiert werden, bevor sie verwaltet werden können.
Der Dienst interagiert mit den Konfigurationen auf Funktions- und Fragenebene mit zwei Handlern:
GenerativeQuestionsFeatureConfig-Handler (Funktionsebene):
- Aktualisierung: Sie können die Mindestanzahl der Produkte ändern und Felder aktivieren
- Get: Gibt ein Objekt zurück.
GenerativeQuestion-Konfigurations-Handler (Frageebene):
- Liste: Gibt alle Fragen für einen bestimmten Katalog zurück
- Update: Verwaltung einzelner Fragen
- Batch-Aktualisierung: Verwaltung gruppierter Fragen
Der Dienst gibt eine semantisch passende Frage basierend auf der ursprünglichen Suchanfrage zurück.
Eine Anschlussfrage wird vom LLM-Modell generiert und kann überschrieben werden. Die Fragen werden basierend darauf angezeigt, wie wahrscheinlich es ist, dass sie von Kunden verwendet werden. Dazu wird der Suchereignisverlauf aufgerufen. Wenn kein Suchereignisverlauf vorhanden ist, wird auf die Suchprotokolle des Einzelhändlers zurückgegriffen.
Basierend auf der vorherigen Abfrage werden unterschiedliche Fragen generiert. Es gibt keine festen Gewichte. Die KI, die die von LLM generierten Fragen steuert, lernt aus den Suchanfragen und ändert die Gewichtung für jede Suchanfrage. Bei „Hemd“ wird beispielsweise die Kategorie sehr stark gewichtet, bei „rotes Hemd in XL“ hingegen werden Kategorie, Größe und Farbe berücksichtigt.
Conversational Search Configuration API: Darstellung
Die Konfigurations-API für die Konversationssuche ist in die Search API der Vertex AI API eingebunden.
API-Integration
Die Konfigurations-API ConversationalSearchSpec
für die Funktion ist über der vorhandenen Vertex AI Search for Commerce API verfügbar. Zur Unterstützung der neuen Funktion „Konversationssuche“ wurden die folgenden Änderungen an der bereits vorhandenen Haupt-API (Abfrage-API) von Vertex AI Search for Commerce vorgenommen:
ConversationalSearchSpec
: Dieses optionale Feld wurde in SearchRequest hinzugefügt, ist aber erforderlich, wenn Sie die Konversationssuche verwenden möchten. Für das Feld werden die Felder „SearchRequest“, „query“ und „filter“ wiederverwendet. Außerdem enthält es ein Feld, mit dem nach einer ersten Anfrage eine Anschlussfrage an den Nutzer gesendet werden kann, und einconversation_id
, um den Status der Unterhaltung zwischen Client und Server beizubehalten.ConversationalSearchResult
: Eine Proto-Datei enthält zusätzliche Informationen, die für den Konversations-CRS-Ablauf inSearchResponse
zurückgegeben werden müssen. Dazu gehörenconversation_id
,refined_query
,additional_filters
,follow_up_question
undsuggested_answers
(siehe Abschnitt Kaufprozess).
Nutzerpfad
Der Konversationsablauf funktioniert so: Der Nutzer startet eine Suche mit einer ersten Suchanfrage und das Flag followup_conversation_requested
ist auf „wahr“ gesetzt. Der Nutzer wählt dann eine Antwort aus oder gibt einen Freitext ein, der über das Feld user_answer
an die API zurückgesendet wird. Die API verfeinert dann die Suchergebnisse anhand der Eingabe des Nutzers und stellt eine neue Anschlussfrage. So wird eine weitere Suchanfrage ausgelöst und das Gespräch wird in mehreren Schritten fortgesetzt, bis der Nutzer auf der Website des Händlers das Gesuchte findet.
Angenommen, die konversationelle Suche ist auf der Website aktiviert, verläuft der User Journey und die nachfolgende Interaktion mit Vertex AI Search for Commerce so:
- Schritt 1: Erste Anfrage stammt vom Nutzer
- Schritt 1a: Angefragte Folgeunterhaltung an die Suche gesendet
- Schritt 1b: Erste Suchantwort mit optimierter Suchanfrage und vorgeschlagenen Antworten
- Szenario 2: Der Nutzer wählt eine Multiple-Choice-Frage aus.
- Schritt 2a: Ausgewählter Antwortfilter an die Suche gesendet
- Schritt 2b: Suche noch einmal mit angewendetem Filter ausführen
- Szenario 3: Der Nutzer wählt einen freien Text aus.
- Schritt 3a: Textantwort an die Google Suche gesendet
- Schritt 3b: Suche noch einmal mit einer geänderten Suchanfrage ausführen
Schritt 1: Erste Anfrage stammt vom Nutzer
conversational_search_spec
: Durch die Einführung dieses Felds in der SearchRequest
-Nachricht kann das System zwischen Konversations- und regulären Suchanfragen unterscheiden. Diese Bestimmung wirkt sich darauf aus, ob Nutzer zusätzliche Antworten in Form von Unterhaltungen erhalten. So bleiben die ursprünglichen Suchfunktionen erhalten und werden gleichzeitig für Unterhaltungsinteraktionen erweitert. Das Feld conversational_search_spec
ist im Nachrichtenformat und enthält Details, die für den Gesprächsablauf erforderlich sind, z. B. Nutzerantworten, Unterhaltungs-IDs und ob der Nutzer eine weitere Unterhaltung wünscht. Anhand dieser Informationen kann das System den Kontext und die Nutzerinteraktionen besser nachvollziehen.
Wenn das boole Feld followup_conversation_requested
auf TRUE gesetzt ist, antwortet die API mit einer ersten Reihe von Ergebnissen und einer Anschlussfrage. Der Nutzer wird bei der Suche durch eine Konversation geführt. Wenn dieses Feld auf „FALSE“ gesetzt ist, wird keine Anschlussfrage angezeigt.
Schritt 1a: Händler → Suche: Erste Suchanfrage mit aktivierter Unterhaltung
Schritt 1b Suche → Händler: Konversations-ID, optimierte Suchanfrage, Anschlussfrage, vorgeschlagene Antworten
Szenario 2: Der Nutzer wählt eine Multiple-Choice-Option aus
Wenn ein Nutzer eine Multiple-Choice-Antwort ausgewählt hat, yellow
:
- Die
conversation_id
wird aus dem Sitzungsspeicher wiederhergestellt. followup_conversation_requested
ist auf „wahr“ festgelegt.- Für den String
user_answer
wird entweder „selected_answer“ verwendet, das ein Schlüssel/Wert-Paar vom Typ „product_attribute_value“ enthält, odertext_answer
, das den Wert „free_text_input“ enthält, um die Auswahl des Nutzers anzugeben. Dieses Feld befindet sich im Feldconversational_search_spec
und enthält weitere verschachtelte Nachrichten wie „SelectedAnswer“, um die Arten der Nutzereingaben (Text oder ausgewählte Antworten) anzugeben. - Das Ergebnis ist der Aufruf des
SearchResults
-Objekts und seiner Felder. selected_answer
In diesem Feld werden die Produktattribute übergeben, um die konversationelle Suche zu steuern.
Schritt 2a: Händler → Suche: Filter für ausgewählte Antwort
Schritt 2b. Suche → Händler: Filter angewendet
Szenario 3: Der Nutzer wählt eine Eingabe für freien Text aus
Wenn ein Nutzer lavender
eingibt:
- die
conversation_id
aus dem Sitzungsspeicher wiederhergestellt wird followup_conversation_requested
ist auf „wahr“ gesetztuser_answer
ist für die Eingaben des Nutzers (mit dem Präfixtext_answer:
) festgelegt.