Konversationsbasierte Produktfilterung

Wenn die produktbezogene Konversationsfilterung aktiviert ist, führt Vertex AI Search for Commerce Käufer in einer Unterhaltung durch die Produktsuche auf Händlerwebsites. Nach einer ersten Textabfrage in Vertex AI Search for Commerce erhält der Onlinekäufer eine relevante Anschlussfrage und mehrere Antwortoptionen. Die Anschlussfrage kann entweder durch Eingabe von Freitext oder durch Klicken auf eine Antwortoption aus der Konversation beantwortet werden.

Wenn die kontextbezogene Produktfilterung aktiviert ist, werden durch Anschlussfragen auf der Website Unterhaltungen gestartet, die so lange fortgesetzt werden, bis eines der folgenden drei Szenarien eintritt:

  • Eine vorkonfigurierte Mindestanzahl von Produkten wird erreicht. Eine Unterhaltung ist nicht sinnvoll, wenn nur zwei Produkte angezeigt werden.
  • Der Nutzer klickt auf ein Produkt und legt es in den Einkaufswagen (Zielvorhaben).
  • Bei der Suche und im Shopping werden keine KI-generierten Fragen mehr angezeigt.

User Journey für die konversationelle Suche Abbildung 1. User Journey für die dialogbasierte Suche

Alternative zu dynamischen Facetten

Dynamische Facetten sind mit weitgehend passenden Suchanfragen verknüpft, bei denen der Umsatz pro Suchanfrage niedrig ist. Wenn Nutzer Zehntausende von Ergebnissen sehen, kann das zu Überforderung führen und sie brechen die Suche ab. Insbesondere bei Suchanfragen mit einer hohen Anzahl von Produkten ist der Umsatz pro Suchanfrage ungewöhnlich niedrig. Mit der Konversationssuche können Suchanfragen verfeinert und in Kombination mit dynamischen Facetten verwendet werden. Die kontextbezogene Produktfilterung bietet einige Vorteile gegenüber dynamischen Facetten. Sie ist persönlicher, interaktiver und benötigt weniger Platz auf der Seite.

Benutzerdefinierte, an die Vorlieben angepasste generierte Fragen

Die kontextbezogene Produktfilterung fördert die Interaktion zwischen Mensch und KI. Einzelhändler können KI-generierte Fragen anhand des hochgeladenen Katalogs nach ihren Wünschen bearbeiten, überschreiben oder die Auswahl aufheben. Fragen können in der Search for Commerce Console oder in der API einzeln oder im Bulk-Verfahren bearbeitet oder deaktiviert werden, um die Fragen anzupassen, die in der Suche angezeigt werden sollen.

Administratoren

Sie können die generativen Fragen und den Konversationsproduktfilter direkt in der API oder in der Conversational Commerce Console verwalten und in der Suche für den E-Commerce in den Abschnitten Datenqualität und Bewerten einrichten.

Cloud Console

Über die Konsole können Einzelhändler generative Fragen in einer Konversationsoberfläche von Vertex AI Search for Commerce verwalten. Weitere Informationen zur Verwendung generativer Fragen bei der konversationsbasierten Produktfilterung

Schritte zur Verwendung des Dienstes für generative Fragen

  1. Sie erfüllen die Datenanforderungen.

  2. Konfigurieren Sie manuelle Überschreibungen.

  3. Aktivieren Sie die Funktion.

  4. In der Vorschau ansehen und testen

Datenanforderungen

Wenn Sie wissen möchten, ob Ihre Suchdaten für die kontextbezogene Produktfilterung bereit sind, rufen Sie in der Console den Tab Abdeckungsüberprüfungen unter Kontextbezogene Produktfilterung und -suche oder unter Datenqualität > Konversation auf.

Damit Sie die kontextbezogene Produktfilterung aktivieren können, müssen Sie bestimmte Datenanforderungen erfüllen.

Diese sind:

  • 1.000 Suchanfragen pro Tag: Nachdem Sie diesen ersten Grenzwert erreicht haben,wird ein Konversationsplan generiert, in dem Ihre Eingaben und Ausgaben ausgewertet werden:
  • Inputs: Filteranzahl in Ereignissen
  • Ausgaben: Konversationsabdeckung
  • 25% Konversationsabdeckung: Die Konversationsabdeckung wird von Vertex AI Search for Commerce-Modellen berechnet und gibt den Prozentsatz der Suchanfragen an, die eine Frage enthalten. 25% (nach Volumen) der Suchanfragen sollten nach Häufigkeit gewichtet sein und mindestens eine erste Frage enthalten, die zu ihnen passt.

Wenn Sie noch nicht 25% der Unterhaltungsabdeckung erreicht haben, aber die erste Voraussetzung von 1.000 Anfragen pro Tag erfüllen, werden Blockierungs- und Warnhinweisprüfungen auf Ihre Ausgaben bzw. Eingaben angewendet. Hier beginnt Vertex AI Search for Commerce zu berechnen, um wie viel Prozent die Filter zu erhöhen sind, die anhand von Nutzerereignissen angewendet werden, um den Grenzwert von 25% für die Abdeckung von Unterhaltungen zu erreichen. Je mehr Filter hochgeladen werden, desto höher ist die Abdeckung.

So rufen Sie Ihre Konversationsbereitschaft auf:

  1. Rufen Sie in der Console auf der Seite Datenqualität den Tab Unterhaltung auf. So können Sie prüfen, ob mindestens 25% der Suchanfragen mindestens eine Anschlussfrage enthalten. Außerdem erhalten Sie Empfehlungen dazu, welcher Prozentsatz von Nutzerereignissen mit gültigen Filtern erforderlich ist, um das Ziel für die Konversationsabdeckung zu erreichen.

  2. Wenn Sie die kritische Prüfung bestehen und genügend Nutzerereignisse mit gültigen Filtern vorhanden sind, fahren Sie mit dem nächsten Schritt fort.

  3. Wenn Sie festlegen möchten, wie generative Fragen präsentiert werden, rufen Sie in der Vertex AI Search for Commerce Console die Seite Filtern und Suchen nach Produkten in Unterhaltungen auf.

Einstellungen für generative Fragen

Die generative KI schreibt für jedes indexierbare Attribut im Katalog eine Frage. Dabei werden sowohl Namen als auch Werte von Attributen für System- und benutzerdefinierte Attribute verwendet. Diese Fragen werden von einem LLM generiert und sollen die Sucherfahrung verbessern. Wenn Sie beispielsweise „Möbel“ als Möbeltyp angeben, kann die KI eine Frage dazu stellen, welche Art von Möbeln Sie suchen.

Für jede Facette wird eine Frage generiert. Die Fragen werden anhand bisheriger Nutzerereignisse und der Interaktionen mit den Facetten aus vergangenen Suchereignisdaten nach der erwarteten Häufigkeit sortiert, mit der die Frage angezeigt wird. Die KI sieht sich zuerst die Fragen oben an und ermittelt dann anhand von Attributen, was relevant ist. Die Liste der Fragen wird nur einmal generiert. Wenn ein neues Attribut hinzugefügt wird, wird es innerhalb von zwei Stunden in der Liste angezeigt.

  1. Rufen Sie in der Search for Commerce Console die Seite Unterhaltungssuche und -suche auf.

    Rufen Sie die Seite „Dialogbasiertes Suchen und Surfen“ auf.

  2. Auf dem Tab KI-generierte Fragen verwalten sehen Sie alle Fragen, sortiert nach Häufigkeit der Verwendung, gewichtet nach Häufigkeit der Abfragen, d. h. wie oft sie bei häufig gestellten Suchanfragen präsentiert werden. Für das Ranking wird das Feld „frequency“ in der GenerativeQuestionConfig-Konfiguration verwendet. In diesem Feld werden die KI-generierten Fragen nach ihrer Häufigkeit sortiert.

  3. Mit der Filteroption können Sie die Fragen filtern.

  4. Setzen Sie ein Häkchen, um die Sichtbarkeit der Fragen für jedes Attribut zu aktivieren.

  5. Klicken Sie am Ende jeder Zeile auf , um für jede Frage ein Bearbeitungsfeld zu öffnen.

So nehmen Sie Bulk-Änderungen vor:

  1. Setzen Sie ein Häkchen in die Kästchen neben den Fragen, die in die Unterhaltung einbezogen oder daraus ausgeschlossen werden sollen.

  2. Klicken Sie oben in der Liste auf die Schaltfläche In Unterhaltungen zulassen oder In Unterhaltungen nicht zulassen. Wenn Sie eine einzelne Frage bearbeiten möchten, klicken Sie auf  und entfernen Sie das Häkchen neben In Unterhaltungen erlaubt oder setzen Sie es wieder:

Alt-Text

Generative Fragen in der konversationellen Produktfilterung verwenden

Die API für den generativen Fragedienst bietet Steuerelemente, mit denen potenzielle Inkonsistenzen in der LLM-Ausgabe minimiert werden können. Sie können über die Console verwaltet werden. Hier können Einzelhändler auch die Produktfilterung für Unterhaltungen konfigurieren, indem sie den Aktivierungsstatus umschalten und die Mindestanzahl der Produkte festlegen, die zum Auslösen erforderlich sind.

Sie können die Fragen definieren, indem Sie die Frage selbst, mögliche Antworten und ob die Frage im Gespräch zulässig ist, angeben. Einzelne Fragen können von einem LLM generiert oder vom Händler überschrieben werden. In der Konsole können KI-generierte Fragen überprüft werden, damit Einzelhändler sie überschreiben oder ihren Konversationsstatus ändern können. Fragen können auch im Bulk-Verfahren bearbeitet werden.

Einzelne Fragen bearbeiten

Mit den Steuerelementen können Sie auch die einzelnen Fragen auswählen. Wir empfehlen, dies zu tun, bevor Sie die kontextbezogene Produktfilterung aktivieren.

Für jede Frage gibt es zwei Optionen. Klicken Sie in der letzten Spalte auf , um auf das Steuerfeld „Für Nutzer sichtbare Fragen“ zuzugreifen:

  1. Frage für alle Suchanfragen deaktivieren: Die Frage ist standardmäßig aktiviert. Entfernen Sie das Häkchen neben In Unterhaltungen erlaubt oder setzen Sie es wieder. Mit dieser Option wird die Frage übersprungen. Händler können eine Frage auch vollständig deaktivieren, wenn sie sich nicht auf die abgefragten Attribute bezieht oder auf irgendeine Weise als unangemessen ausgelegt werden könnte. Eine Frage wie „Welche Kleidergröße suchen Sie?“ könnte beispielsweise als unzulässige Frage zum Gewicht eines Käufers wahrgenommen werden.
  2. Frage umformulieren:Im Bereich sehen Sie die KI-generierte Frage, mit welchem Attribut sie verknüpft ist und welche Werte das Attribut hat. Klicke auf den Stift, um den Text zu überschreiben.

Konversationsfilter aktivieren

Nachdem Sie Ihre Fragen für die generative KI in der Console bearbeitet haben, können Sie die kontextbezogene Produktfilterung aktivieren.

Wenn Sie den Konversationsproduktfilter aktivieren möchten, rufen Sie in der Search for Commerce Console die Seite Konversationsproduktfilter und -Suche auf.

  1. Rufen Sie in der Search for Commerce Console die Seite Unterhaltungssuche und -suche auf.

    Rufen Sie die Seite „Dialogbasiertes Suchen und Surfen“ auf.

  2. Rufen Sie im Bereich Unterhaltung auf dem Tab Konfigurieren und aktivieren die systemweiten Einstellungen auf. Auf diesem Tab können Sie die Mindestanzahl der Produkte konfigurieren, die mit der Suchanfrage übereinstimmen müssen, damit eine Unterhaltung gestartet werden kann, also wann Fragen generiert werden. Die Mindestanzahl ist>= 2. Der Mindestwert kann höher konfiguriert werden, darf aber nicht unter 2 liegen. Überlegen Sie, wie viele Produkte in Ihrem Katalog bei der Suche nach Nutzern zurückgegeben werden sollen, um eine Unterhaltung zu beginnen. Ein guter Wert für diese Zahl ist beispielsweise eine Zeile pro Seite, damit die Anzahl der Suchergebnisse möglichst gering ist und eine Unterhaltung ausgelöst wird.

  3. Aktivieren Sie die Funktion über die Ein/Aus-Schaltfläche. Auf dieser Seite finden Sie auch Informationen zum Status Ihrer Blockierungs- und Warnhinweisprüfungen. Wenn Sie genügend Suchanfragen mit mindestens einer Anschlussfrage haben, ist die Konversationssuche jetzt auf Ihrer Website aktiviert.

Bewerten und testen

Mit Bewerten können Sie sich eine Vorschau der Ergebnisse ansehen, indem Sie eine Testsuche durchführen und Ihre Fragen anhand der angezeigten Facetten testen. In diesem Bereich der Konsole erhalten Sie eine Vorschau der Bereitstellung mit der kontextbezogenen Produktfilterung.

So bewerten und testen Sie die Funktion: In der Search Console auf der Seite Bewerten im Bereich Bewerten auf den Tabs Suchen oder Durchsuchen.

  1. Rufen Sie in der Search for Commerce Console die Seite Bewerten auf.

    Zur Seite „Bewerten“

  2. Klicken Sie auf Suchen oder Ansehen.

  3. Geben Sie in das Feld „Suchbewertung“ eine Testabfrage ein, die für den Katalog sinnvoll ist, den Sie für die Suche hochgeladen haben. Beispiel: Schuhe, wenn Ihr Katalog aus Kleidungsstücken besteht. Klicken Sie auf Suchvorschau, um die Suchergebnisse anzuzeigen. Wenn Sie die kontextbezogene Produktfilterung aktiviert haben, sind im rechten Bereich generative Fragen aktiviert.

  4. Im rechten Bereich finden Sie eine Liste der Testfragen.

Generative Question API

In diesem Abschnitt wird beschrieben, wie Sie die API für generative Fragen verwenden, um die Conversational Search API in Ihre Benutzeroberfläche einzubinden, die generativen Fragen zu verwalten und die Funktion auf Ihrer Website bereitzustellen.

API-Integration

Objekte:

  • GenerativeQuestionsFeatureConfig
  • GenerativeQuestionConfig
  • GenerativeQuestions-Dienst
    • UpdateGenerativeQuestionsFeatureConfiguration
    • UpdateGenerativeQuestionConfig
    • ListGenerativeQuestionConfigs
    • GetGenerativeQuestionFeatureConfig
    • BatchUpdateGenerativeQuestionConfigs

Der Schlüssel zur Integration dieser Funktion ist die Definition der question-Ressource. Dazu gehören die Frage selbst und ob sie in der Unterhaltung zulässig ist. Die Frage wird standardmäßig von einem LLM generiert, kann aber vom Administrator überschrieben werden.

Dialogbasierte Produktfilterung aktivieren

Objekt:

  • GenerativeQuestionsFeatureConfig

Dieses Objekt ist eine Konfigurationsdatei, mit der die Funktion für generative Fragen aktiviert wird, um die allgemeine Auslieferung der kontextbezogenen Produktfilterung zu verwalten. GenerativeQuestionsFeatureConfig verwendet eine GET-Methode, um Attributinformationen und Informationen dazu abzurufen, ob die Attribute aus dem mit dem Projekt verknüpften Katalog indexierbar sind oder nicht.

Mit dem Schalter feature_enabled wird festgelegt, ob Fragen bei der Auslieferung verwendet werden. Hier werden die Ein-/Aus-Schaltflächen auf oberster Ebene in der Console verwaltet.

Bereitstellung

Die kontextbezogene Produktfilterung basiert auf einer laufenden Unterhaltung mit mehreren Gesprächsrunden. Daher ist mindestens eine zweite Antwort erforderlich, damit die kontextbezogene Produktfilterung funktioniert. Der Nutzer wird in der Antwort auf eine Folgefrage und vorgeschlagene Antworten hingewiesen. Der Nutzer kann auf diese Anschlussfrage entweder durch Eingabe einer Antwort oder durch Klicken auf eine vorgeschlagene Antwort (Multiple-Choice-Option) antworten.

  • Multiple-Choice-Frage Die Option „Multiple-Choice-Frage“ funktioniert im Hintergrund wie eine Facette (ein Ereignistypfilter), mit der die Abfrage durch Filterung eingegrenzt wird. Wenn der Nutzer im Hintergrund auf eine Multiple-Choice-Antwort klickt, wird ein Filter auf die Suchanfrage angewendet. Das Anwenden eines Filters mithilfe der Konversationsfunktion „Multiple-Choice-Frage“ entspricht dem Anwenden desselben Filters mithilfe dynamischer Facetten oder Kacheln.

  • Freier Text Wenn der Nutzer in Form von freiem Text antwortet, wird eine neue und engere Suchanfrage generiert. Weitere Informationen dazu, wie die kontextbezogene Produktfilterung die Erfassung von Filter- und Nutzerereignissen

Durch die Funktion aktivierter Dienst

Der Dienst für generative Fragen (service GenerativeQuestionService{...}) wird zum Verwalten von LLM-generierten Fragen verwendet. Das übergeordnete Objekt ist der Katalog, aus dem Informationen abgerufen werden, um Fragen für einen bestimmten Katalog zurückzugeben. Mit dem Dienst können Sie den Gesamtstatus der Funktion für generative Fragen verwalten, einzelne oder Batchänderungen vornehmen und Fragen aktivieren oder deaktivieren. Für die Verknüpfung mit der Service API müssen Datenanforderungen erfüllt sein. Außerdem müssen die Fragen zuerst initialisiert werden, bevor sie verwaltet werden können.

Der Dienst interagiert mit den Konfigurationen auf Funktions- und Fragenebene mit zwei Handlern:

  • GenerativeQuestionsFeatureConfig-Handler (Funktionsebene):

    1. Mit Aktualisieren können Sie die Mindestanzahl der Produkte ändern und Felder aktivieren.
    2. Get gibt ein Objekt zurück.
  • GenerativeQuestion-Konfigurations-Handler (Frageebene):

    1. List gibt alle Fragen für einen bestimmten Katalog zurück.
    2. Mit Aktualisieren können Sie einzelne Fragen verwalten.
    3. Mit Batch-Aktualisierung können Sie gruppierte Fragen verwalten.

Der Dienst gibt eine semantisch passende Frage basierend auf der ursprünglichen Suchanfrage zurück.

Eine Anschlussfrage wird vom LLM-Modell generiert und kann überschrieben werden. Die Fragen werden anhand der Wahrscheinlichkeit angezeigt, mit der sie von Kunden verwendet werden. Dazu wird der Suchereignisverlauf aufgerufen. Wenn kein Suchereignisverlauf vorhanden ist, wird auf die Protokolle der kommerziellen Suche zurückgegriffen.

Basierend auf der vorherigen Abfrage werden unterschiedliche Fragen generiert. Es gibt keine festen Gewichte. Die KI, die die von LLM generierten Fragen steuert, lernt aus den Suchanfragen und ändert die Gewichtung für jede Suchanfrage. Bei „Hemd“ wird beispielsweise die Kategorie sehr stark gewichtet, bei „rotes Hemd in XL“ hingegen werden Kategorie, Größe und Farbe berücksichtigt.

Bereitstellung konfigurieren

Konfigurieren Sie die Auslieferung, indem Sie die Konfigurations-API für den Konversationsfilter in die Search API einbinden.

User Journey in der API

Der Konversationsablauf funktioniert so: Der Nutzer startet eine Suche mit einer ersten Suchanfrage und setzt in der neuen API das mode-Flag auf true.mode Der Nutzer wählt dann eine Antwort aus oder gibt einen Freitext ein, der über das Feld user_answer an die API zurückgesendet wird. Diese neue API gibt additional_filter in der Antwort zurück. Der Nutzer muss diese Filter auf die Folgeanfrage der Search API anwenden. Die Suchergebnisse basieren auf dem Eingaben des Nutzers und es wird eine neue Folgefrage gestellt. Daraufhin wird eine Folgeabfrage gestartet und das Gespräch wird in mehreren Runden fortgesetzt, bis der Nutzer auf der Website des Händlers findet, wonach er sucht.

Angenommen, die kontextbezogene Produktfilterung ist auf der Website aktiviert, verläuft der User Journey und die nachfolgende Interaktion mit Vertex AI Search for Commerce so:

  • Szenario 1 Die erste Suchanfrage wird vom Nutzer sowohl an die Search API als auch an die Conversation API gesendet. Die Search API gibt nur Suchergebnisse zurück. Die Conversation API gibt die vorgeschlagenen Antworten und Folgefragen zurück. Rufen Sie die Search API für dieselbe Suchanfrage oder page_category auf und rufen Sie die Suchergebnisse ab.
  • Schritt 1a: Die angeforderte Folgeunterhaltung wird an die Konversationssuche gesendet. Rufen Sie die Conversational API mit dem richtigen Modus für die Unterhaltungsfilterung auf.
  • Schritt 1b: Erste Suchantwort mit nur Suchergebnissen. Die Conversation API verfeinert die Suchanfrage, indem sie die vorgeschlagenen Antworten und Folgefragen zurückgibt.
  • Szenario 2: Der Nutzer wählt die Multiple-Choice-Option aus.
  • Schritt 2a: Der ausgewählte Antwortfilter wurde an die Conversation API gesendet.
  • Schritt 2b: Sowohl die Conversation API als auch die Search API werden mit dem angewendeten Filter ausgeführt.
  • Szenario 3: Der Nutzer wählt „Freitext“ aus.
  • Schritt 3a: Textantwort, die an die Conversation API gesendet wurde. Verwende die Conversational API, um die Antwort des Nutzers zu senden.
  • Schritt 3b: Der Nutzer erhält eine konversationelle Folgefrage mit einigen Antwortvorschlägen in der Konversationsantwort. Die Suche wird noch einmal mit einer geänderten Suchanfrage ausgeführt. Die Conversational API sendet eine weitere Frage und additional_filter. Dieser Filter muss auf die Suchergebnisse angewendet werden, die im ersten Schritt aus der Search API abgerufen wurden.

Szenario 1: Erste Anfrage stammt vom Nutzer

Konversationsbasierter Handel wird jetzt nur noch von der Conversational API unterstützt. Mit dem conversationalFilteringMode in der Conversation API wird zwischen Konversations-Commerce und Konversations-Produktfilterung unterschieden.

Zuerst müssen Entwickler die folgende Suchanfrage erstellen, indem sie das Produkt oder den Artikel als Suchanfrage festlegen, in diesem Beispiel "dress":

Zusätzliche Aktionen auf der Clientseite, um dialogbasiert gefilterte Suchanfragen zu ermöglichen:

  • Entwickler müssen außerdem eine Konversationssuchanfrage erstellen, indem sie "dress" als Suchanfrage festlegen.

  • Entwickler müssen mode auf "CONVERSATIONAL_FILTER_ONLY" festlegen, um eine konversationelle Antwort zu erhalten. Andernfalls ("DISABLED") wird keine Anschlussfrage gestellt.

Schritt 1a: Händler → Suche: Erste Suchanfrage mit aktivierter Unterhaltung

Schritt 1b. Suche → Händler: Konversations-ID, optimierte Suchanfrage, Anschlussfrage, vorgeschlagene Antworten

Bei der dialogbasierten Produktfilterung stehen folgende Optionen für eine kontinuierliche Unterhaltung zur Verfügung, was zu einer schnelleren Suchanpassung führt:

Szenario 2: Der Nutzer wählt eine Multiple-Choice-Option aus

Wenn ein Nutzer eine Multiple-Choice-Antwort gelb ausgewählt hat:

  • Entwickler müssen die conversation_id aus dem Sitzungsspeicher wiederherstellen.
  • Legen Sie mode auf CONVERSATIONAL_FILTER_ONLY fest.
  • Legen Sie user_answer für die Auswahl des Nutzers fest.

Schritt 2a: Händler → Suche: Filter für ausgewählte Antwort

Schritt 2b. Suche → Händler: Filter angewendet

Szenario 3: Der Nutzer wählt eine Eingabe für freien Text aus

Wenn ein Nutzer lavendel eingibt:

  • Entwickler sollten die conversation_id aus dem Sitzungsspeicher wiederherstellen.
  • Setzen Sie followup_conversation_requested auf „true“.
  • Legen Sie mit dem Präfix "text_answer:" fest, für welche Nutzereingaben user_answer verwendet werden soll.

Schritt 3a Händler → Suche: Textantwort

Schritt 3b Suche → Händler: Mit geänderter Abfrage ausführen