A/B-Tests beobachten und analysieren

Auf dieser Seite wird beschrieben, wie Sie den Traffic von A/B-Tests überwachen und wichtige Geschäftsmesswerte für die Suche in der Search for Commerce-Konsole vergleichen können.

Übersicht

Sie können einen A/B-Test durchführen, um wichtige Geschäftsmesswerte zwischen Ihrer vorhandenen Suchimplementierung und Vertex AI Search for Commerce zu vergleichen.

Nachdem Sie den Test und die Aufteilung des Traffics eingerichtet haben, können Sie den Test-Traffic beobachten und sich die Unternehmensmesswerte auf der Seite Test in der Search for Commerce Console ansehen.

Um die Überwachung von A/B-Tests in der Console einzurichten, geben Sie Informationen zu Ihrem A/B-Test ein, z. B. Name, Zeitraum und Informationen zur Testgruppe. Jede Testvariantenverzweigung entspricht einer Testgruppe, die Sie für den A/B-Test erstellt haben. Die erste Verzweigung, die Sie in der Console einrichten, wird als Baseline-Kontrollgruppe behandelt.

Jeder Test hat einen Tab Monitoring, auf dem Messwerte für die Aufteilung des Traffics angezeigt werden. Anhand dieser Messwerte können Sie feststellen, ob der A/B-Test richtig eingerichtet ist. Das ist wichtig, um zu prüfen, ob der A/B-Test verzerrt ist. Ein typisches Problem, das Sie im Blick behalten sollten, ist beispielsweise, ob einige Anfragen oder Kategorien in einer Testgruppe, aber nicht in anderen ausgeliefert werden.

Jeder Test hat auch einen Tab Analytics, auf dem Sie Vergleiche wichtiger Geschäftsmesswerte sehen können. Es sind zwei Kategorien von Unternehmensmesswerten enthalten:

  • Messwerte pro Suche oder pro Aufruf, z. B. Klicks pro Suche.
  • Messwerte pro Such- oder Besuchsaktion, z. B. Umsatz pro Besuchsaktion.

Eine vollständige Liste der Messwerte finden Sie unter Messwertliste.

Für jeden geschäftlichen Messwert werden Rohwerte, die relative Steigerung im Vergleich zur Baseline-Kontrollgruppe und ein Konfidenzintervall von 95% angegeben. Sie können sowohl zusammengefasste Messwerte als auch Messwerte nach Datum aufrufen.

Auf dem Tab „Traffic-Analyse“ sehen Sie, ob und an welchen Tagen unerwünschte Traffic-Aufteilungen aufgetreten sind. Eine unbeabsichtigte Traffic-Aufteilung wird ermittelt, indem der tatsächliche Prozentsatz der Traffic-Aufteilung mit dem beabsichtigten Prozentsatz verglichen wird, den Sie bei der Einrichtung der Überwachung eingegeben haben. Die Aufteilung des Traffics gilt als korrekt, wenn der relative Unterschied höchstens 10 % beträgt. Wenn der Traffic beispielsweise gleichmäßig auf zwei Gruppen aufgeteilt werden soll, liegt eine tatsächliche Aufteilung von 45% zu 55% noch im vorgesehenen Bereich.

Mit der Console können Sie mehrere Tests gleichzeitig im Blick behalten.

Für das Testdatum und die nach Datum aufgeschlüsselten Messwerte wird die Zeitzone „America/Los_Angeles“ verwendet. Start- und Enddatum sind jeweils 00:00 Uhr (America/Los_Angeles).

Sie können die Testdetails in der Console jederzeit aktualisieren, z. B. Start- und Enddatum, Anzahl der Varianten, Test-IDs und den geplanten Prozentsatz für die Aufteilung des Traffics. Das ist unabhängig davon möglich, ob der Test läuft, abgeschlossen oder ausstehend ist. Die Daten werden rückwirkend aktualisiert.

Für die Überwachung und Analyse von A/B-Tests gelten die folgenden Anforderungen und Einschränkungen:

  • Der maximale Zeitraum für Testdaten, die Sie erfassen können, beträgt 180 Tage. Wenn ein Test vor mehr als 180 Tagen gestartet wurde, werden keine älteren Messwerte erfasst.

  • Bei der Traffic-Analyse nach Abfrage oder Kategorie werden nur die 100 Top-Abfragen oder -Kategorien zurückgegeben, die den meisten Traffic aller Variantenarme im Test generieren.

Hinweise

Bevor Sie das Monitoring in der Search for Commerce-Konsole für einen A/B-Test einrichten, müssen folgende Voraussetzungen erfüllt sein:

  • Richten Sie die Erfassung von Nutzerereignissen für Ereignisse ein, die von Ihrer vorhandenen Suchimplementierung und von Vertex AI Search for Commerce bereitgestellt werden.

  • Best Practices für A/B-Tests

  • Richten Sie den Test mithilfe einer Testplattform eines Drittanbieters wie Google Optimize oder Optimizely ein.

  • Richten Sie das Nutzerereignis experimentIds für jede Testgruppe ein und notieren Sie es. Wenn Sie die Testbeobachtung einrichten, müssen Sie die Test-IDs für jede Variante angeben.

Test in der Console hinzufügen

So fügen Sie einen neuen Test hinzu, der in der Search for Commerce Console überwacht werden soll:

In dieser Anleitung erstellen Sie Variantenarme in der Search for Commerce-Konsole, die den vorhandenen Testgruppen entsprechen, die Sie auf Ihrer Drittanbieter-Testplattform erstellt haben. Beispiele dafür, wie Variantenverzweigungen vorhandenen Testgruppen zugeordnet werden können, finden Sie unter Beispiele für Testkonfigurationen.

Testdetails hinzufügen

Fügen Sie in der Console einen Test hinzu und geben Sie die Details ein.

  1. Rufen Sie in der Search for Commerce Console die Seite Tests auf.

    Zur Seite „Tests“

  2. Klicken Sie auf Test hinzufügen.

    Die Seite Neuer Test wird geöffnet.

  3. Geben Sie einen Namen für den Test ein.

  4. Wählen Sie das Start- und Enddatum des Tests aus.

    Wenn der Traffic für Ihren Test nach und nach gesteigert wird, legen Sie das Startdatum auf ein Datum fest, an dem die Steigerung abgeschlossen und die Traffic-Aufteilung stabilisiert ist.

  5. Wählen Sie aus, welche Art von Aktivität mit diesem Test erfasst wird:

    • Stöbern: Navigation auf Ihrer Website nach Seitenkategorie. Browsing-Aktivitäten werden durch eine leere Anfrage in der Suchantwort angegeben.

    • Suche: Textanfragen auf Ihrer Website.

Erstellen Sie als Nächstes Variantenverzweigungen für Ihren Test.

Varianten hinzufügen

Nachdem Sie in der Console Testdetails hinzugefügt haben, erstellen Sie Variantenverzweigungen, die den einzelnen Testgruppen entsprechen.

Die erste Variantenverzweigung, die Sie einrichten, ist die Referenzvariante. Die Baseline entspricht in der Regel Ihrer bestehenden Lösung.

Bevor Sie beginnen, müssen Sie das Nutzerereignis experimentIds für jede Testgruppe haben.

  1. Klicken Sie auf Variantenverzweigung hinzufügen.

    Der Bereich Variantenverzweigung erstellen wird geöffnet.

  2. Geben Sie das Nutzerereignis experimentId ein, das mit der Testkonfiguration verknüpft ist, für die diese Variantenverzweigung verwendet wird:

    • Wenn Sie den ersten Testlauf einrichten:Geben Sie das Nutzerereignis experimentId ein, das mit der Baseline-Gruppe verknüpft ist und als Baseline dient.

    • Wenn Sie den Baseline-Variantenarm bereits eingerichtet haben: Geben Sie das Nutzerereignis experimentId ein, das der nächsten Testgruppe zugeordnet ist.

  3. Geben Sie einen für Menschen lesbaren Namen für diese Variantenverzweigung ein.

    Dieser Name wird in Monitoring-Dashboards in der Konsole angezeigt.

  4. Optional: Geben Sie eine Beschreibung dieser Variantenverzweigung an.

  5. Wählen Sie ein Traffic-Ziel für die Bereitstellung aus:

    • Google Vertex AI Search for Retail API: In dieser Variante wird der Traffic für Vertex AI Search for Commerce-Ergebnisse überwacht.

    • Extern: Wenn mit dieser Variantengruppe Traffic für Ergebnisse aus einem externen Dienst überwacht wird. Die Baseline- oder Kontrollvariantengruppe stellt wahrscheinlich ein externes Ziel dar, wenn im Test der Traffic eines bestehenden Dienstes mit dem Traffic von Vertex AI Search for Commerce verglichen wird.

  6. Klicken Sie auf Erstellen, um die Erstellung dieses Variantentests abzuschließen.

    Die Variantenverzweigung wird auf der Seite Neuer Test angezeigt.

  7. Wiederholen Sie die vorherigen Schritte, um Variantenarme für jede Experimentgruppe zu erstellen, die Sie beobachten möchten.

    Sie benötigen mindestens einen externen Arm und einen Arm für die Google Vertex AI Search for Retail API.

  8. Optional: Standardmäßig wird der angestrebte Traffic-Prozentsatz gleichmäßig auf alle Variantenverzweigungen aufgeteilt. So passen Sie die beabsichtigten Traffic-Prozentsätze an:

    1. Klicken Sie im Bereich Varianten hinzufügen in der Spalte Traffic % auf einen Wert für den Traffic-Prozentsatz.

      Der Bereich Prozentsatz des Traffics wird geöffnet.

    2. Wählen Sie im Feld Gewichtsverteilung die Option Benutzerdefinierte Prozentsätze aus.

    3. Geben Sie in der Spalte Traffic % für jede Variante den gewünschten Trafficprozentsatz ein.

      Die Summe der Traffic-Prozentsätze aller Variantenverzweigungen muss 100 % ergeben.

    4. Klicken Sie auf Fertig.

      Der Bereich Prozentsatz des Traffics wird geschlossen.

  9. Klicken Sie auf der Seite Neuer Test auf Erstellen, um den Test zu erstellen.

    Der Test wird auf der Seite Onboarding-Tests angezeigt.

Beispiele für Testkonfigurationen

In diesem Abschnitt werden zwei Beispiele für Testkonfigurationen vorgestellt.

In Beispiel 1 sehen Sie eine Baseline-Kontrollgruppe und eine Vertex AI Search for Commerce-Testgruppe.

In Beispiel 2 wird ein Vergleich einer Baseline-Kontrollgruppe mit zwei Vertex AI Search for Commerce-Testgruppen gezeigt.

Beispiel 1: Zwei Variantenverzweigungen

Angenommen, Sie möchten einen A/B-Test mit folgenden Einstellungen einrichten:

  • 20% der Suchanfragen, die an interne Suchmaschinen gesendet werden, als Baseline-Kontrollgruppe
  • 20% der Suchanfragen, die als Testgruppe an die Google Vertex AI Search for Retail API gesendet werden
  • 60% als Holdout-Gruppe, die nicht am A/B-Test teilnimmt

Die Konfiguration der Anfrage und des Nutzerereignisses sieht so aus:

Traffictyp Discovery Engine 60 % event.experimentIds event.attributionToken Traffic in %
Traffic steuern Intern CONTROL 20 %
Test-Traffic Google Vertex AI Search for Retail API EXPERIMENT Attributions-Token aus der Suchantwort 20 %
Holdout-Traffic Beides Abhängig von der Discovery Engine 60 %

Holdout-Traffic kann von einer internen Suchmaschine, Vertex AI Search for Commerce oder beiden bereitgestellt werden. Da sie nicht Teil des A/B-Tests sind, haben sie keine Test-ID. Geben Sie experimentIds- und attributionToken-Informationen an, um anzugeben, welche Nutzerereignisse Teil des A/B-Tests sind. Ihre experimentId-Strings können von denen in diesem Beispiel abweichen. Achten Sie darauf, dass die IDs, die Sie verwenden, in Ihren Tests und Nutzerereignissen konsistent sind.

Wenn Sie den entsprechenden Test in der Konsole erstellen, würden Sie nur zwei Variantenverzweigungen erstellen, da die Holdout-Gruppe nicht Teil des Tests ist. Die beabsichtigte Aufteilung des Traffics zwischen den beiden Variantenverzweigungen beträgt 50% / 50%.

Um die Beobachtung für diesen Beispieltest einzurichten, erstellen Sie in der Konsole entsprechende Variantenverzweigungen für jede Testgruppe. In der folgenden Tabelle sehen Sie die Informationen, die Sie in diesem Beispiel bei der Einrichtung der Variantenarme in der Konsole eingeben würden.

Name der Variantenverzweigung Traffic-Ziel Nutzerereignis-Test-ID Beabsichtigter Traffic in %
Beispiel für eine Kontrollgruppe Extern CONTROL 50 %
Beispiel für eine Testgruppe Google Vertex AI Search for Retail API TEST 50 %

Beispiel 2: Drei Variantenverzweigungen

In diesem Beispiel gehen wir davon aus, dass Sie einen A/B-Test für die Head-Suchanfragen (Suchanfragen mit hoher Häufigkeit) durchführen möchten und sowohl das Aktivieren als auch das Deaktivieren dynamischer Facetten einbeziehen. Die Konfigurationen für Anfragen und Nutzerereignisse wären:

Name der Variantenverzweigung Traffic-Ziel event.experimentIds event.attributionToken Traffic in %
Steuerung von Head-Anfragen Intern CONTROL 50% der Head-Suchanfragen
Dynamische Facetten für Head-Suchanfragen – Test Google Vertex AI Search for Retail API EXP_DF_ON Attributions-Token aus der Suchantwort 25% der Head-Suchanfragen
Test zu dynamischen Facetten für Head-Suchanfragen deaktiviert Google Vertex AI Search for Retail API EXP_DF_OFF Attributions-Token aus der Suchantwort 25% der Head-Suchanfragen
Abfragen ohne Head-Begriff und andere Holdouts Google Vertex AI Search for Retail API Abhängig von der verwendeten Engine

Um die Beobachtung für diesen Beispieltest einzurichten, erstellen Sie in der Konsole entsprechende Variantenverzweigungen für jede Testgruppe. In der folgenden Tabelle sehen Sie die Informationen, die Sie in diesem Beispiel bei der Einrichtung der Variantenarme in der Konsole eingeben würden.

Name der Variantenverzweigung Traffic-Ziel Nutzerereignis-Test-ID Beabsichtigter Traffic in %
Beispiel für eine Kontrollgruppe Extern CONTROL 50 %
Beispiel für Testverzweigung 1 Google Vertex AI Search for Retail API EXP_DF_ON 25 %
Beispiel für Testverzweigung 2 Google Vertex AI Search for Retail API EXP_DF_OFF 25 %

Traffic-Messwerte

Auf der Seite Monitoring eines Tests sehen Sie, ob es unbeabsichtigte Traffic-Aufteilungen für die folgenden Messwerte gibt:

  • Anzahl der Such-/Durchsuchen-Ereignisse pro Datum
  • Anzahl der Besucher der Suche/Durchsuchen pro Datum
  • Anzahl der Such-/Durchsuchen-Ereignisse pro Kategorie

Wenn bei einem dieser Messwerte unerwünschte Traffic-Aufteilungen auftreten, werden auf der entsprechenden Karte oben auf der Seite Monitoring die Datumsangaben angezeigt, an denen die unerwünschte Traffic-Aufteilung aufgetreten ist. Klicken Sie auf Unerwünschte Traffic-Aufteilungen, um eine filterbare Tabelle mit unerwünschten Traffic-Aufteilungen für diesen Messwert aufzurufen.

In den folgenden Tabellen auf der Seite Monitoring eines Tests werden Traffic-Messwerte für die verschiedenen Testgruppen verglichen. Klicken Sie neben einem Tabellentitel auf Mehr ansehen, um eine filterbare Tabelle mit allen Traffic-Aufteilungen für diesen Messwert aufzurufen:

  • Anzahl der Such-/Durchsuchen-Ereignisse pro Datum: Die Gesamtzahl der Suchanfragen oder Durchsuchen-Vorgänge, die an einem bestimmten Datum in einer Variantengruppe erfolgt sind.

  • Anzahl der Besucher der Suche/Durchsuchen-Besucher pro Datum: Die Anzahl der Besucher, die an einem bestimmten Datum eine Variante aufgerufen oder durchsucht haben.

  • Anzahl der Such-/Browse-Ereignisse pro Kategorie: Die Gesamtzahl der Suchanfragen für eine bestimmte Anfrage oder Kategorie in einem Variantenarm vom Start- bis zum Enddatum des Tests (oder bis zum heutigen Datum, wenn der Test noch läuft). In dieser Tabelle werden nur die 100 wichtigsten Anfragen oder Kategorien in Bezug auf den Gesamttraffic aller Variantenverzweigungen im Test angezeigt.

Test beobachten

Auf der Seite Onboarding-Tests wird eine Tabelle mit Ihren letzten Tests angezeigt.

So überwachen Sie einen Test:

  1. Rufen Sie in der Search for Commerce Console die Seite Tests auf.

    Zur Seite „Tests“

  2. Klicken Sie auf den Namen des Tests.

    Die Seite Monitoring für diesen Test wird geöffnet.

  3. Prüfen Sie die Seite auf unerwünschte Traffic-Aufteilungen.

    Für jeden Messwert werden die Datumsangaben angezeigt, an denen unerwünschte Traffic-Aufteilungen aufgetreten sind.

  4. Wenn Sie unerwünschte Aufteilungen sehen, klicken Sie auf Unerwünschte Traffic-Aufteilungen, um eine filterbare Tabelle mit unerwünschten Traffic-Aufteilungen für diesen Messwert aufzurufen.

Unerwünschte Traffic-Aufteilungen beheben

Wenn Sie Tests in der Search for Commerce Console im Blick behalten, können Sie potenzielle Probleme in Ihrem Test erkennen.

Wenn Sie unerwartete Traffic-Aufteilungen feststellen, prüfen Sie, ob Ereignisse mit der richtigen Test-ID getaggt sind. Wenn beispielsweise ein Ereignis, das zu einer Kontrollgruppe gehört, mit der falschen Test-ID getaggt wird, kann es der falschen Variante zugeordnet werden.

Wenn das Event-Tagging richtig funktioniert, können unerwartete Traffic-Aufteilungen, die von der Search for Commerce Console gemeldet werden, auf Probleme mit der Traffic-Aufteilung auf Ihrer Testplattform hinweisen. In diesem Fall sollten Sie den A/B-Test pausieren, bevor Sie das Problem beheben, damit keine falschen Ergebnisse erzielt werden.

Geschäftskennzahlen für Analysen

Es gibt zwei Gruppen von Unternehmensmesswerten:

  • Messwerte pro Suche oder pro Aufruf
  • Besuch pro Suchanfrage oder Besuch pro Aufruf

Messwerte pro Besuch der Suche

Definitionen der Messwerte pro Suchbesuch finden Sie hier. Die Definitionen der Messwerte für Besuche pro Browser sind mit denen für Besuche pro Suchvorgang vergleichbar. Alle Instanzen von „Suche“ werden durch „Browser“ ersetzt.

Bei der Rate für Bestellungen kann eine Bestellung mehrere SKUs enthalten. Jede Artikelnummer kann eine Menge von mindestens 1 haben.

-->
Name des Messwerts Definition
Anzahl der Suchbesuche Anzahl der Besuche mit mindestens einer Suche.
Absprungrate Anzahl der Suchbesuche mit nur einem Nutzerereignis / Anzahl der Suchbesuche
Rate für Seitenaufrufe Anzahl der Klicks (Seitenaufrufe) / Anzahl der Suchbesuche
Rate von „In den Einkaufswagen“ Anzahl der „In den Einkaufswagen“-Einheiten bei Suchbesuchen / Anzahl der Suchbesuche
Rate der Bestellungen Anzahl der Bestellungen bei Suchbesuchen / Anzahl der Suchbesuche
Umsatzrate Summe des Umsatzes bei Suchbesuchen / Anzahl der Suchbesuche
Durchschnittlicher Bestellwert Summe des Umsatzes bei Suchbesuchen / Anzahl der Bestellungen bei Suchbesuchen

Messwerte pro Suche

Definitionen der Messwerte pro Suche finden Sie hier. Die Definitionen der Messwerte pro Stöbern ähneln denen der Messwerte pro Suche. Alle Instanzen von „Suche“ werden durch „Stöbern“ ersetzt.

Name des Messwerts Definition
Anzahl der Suchanfragen Anzahl der Suchereignisse
Prozentsatz der Seitenaufrufe, bei denen kein Ergebnis vorlag Anzahl der Suchvorgänge ohne Ergebnisse / Anzahl der Suchvorgänge
Klickrate (Click-Through-Rate, CTR) Anzahl der klickbasierten Seitenaufrufe / Anzahl der Suchanfragen
Rate von „In den Einkaufswagen“ Anzahl der durch Suchanfragen ausgelösten Einheiten vom Typ „In den Einkaufswagen“ / Anzahl der Suchanfragen
Kaufrate Anzahl der kaufbezogenen Einheiten aus der Suche / Anzahl der Suchanfragen
Umsatzrate Summe des suchbezogenen Umsatzes / Anzahl der Suchanfragen
Durchschnittlicher Einheitswert Summe des suchbezogenen Umsatzes / Anzahl der suchbezogenen Kaufpositionen

Geschäftsleistung von Tests analysieren

Auf dem Tab Analytics jedes Tests werden Dashboards mit Unternehmensmesswerten angezeigt. In den Dashboards werden Leistungsvergleiche zwischen den verschiedenen Varianten angezeigt.

Es gibt zwei Dashboards mit Messwerten:

  • Messwerte pro Besuch der Suche und pro Surfbesuch
  • Messwerte pro Suche und pro Aufruf

Je nach ProductType-Attribut des Tests werden entweder Suchmesswerte oder Messwerte für die Navigation angezeigt.

In jedem Dashboard wird eine Tabelle mit zusammenfassenden Messwerten angezeigt, in der die Messwertergebnisse für alle im Zeitraumfilter angegebenen Datumsangaben zusammengefasst sind. Die Standarddatumswerte sind das Start- und Enddatum des Tests.

Jeder Messwert wird als aggregierte Ergebnistabelle sowie als Diagramm mit Tageswerten angezeigt, das detailliertere Informationen enthält.

Für den Zeitraum der aggregierten Tabelle werden standardmäßig das Start- und Enddatum des Tests verwendet. Wenn der Test noch läuft, wird das Enddatum auf das aktuelle Datum festgelegt. Sie können den Filter für den Zeitraum ändern. Wenn userAgent mit aufgenommenen Nutzerereignissen bereitgestellt wird, können Sie Messwerte auch nach Gerätetyp aufschlüsseln. Klicken Sie auf das Symbol Aktualisieren, um geänderte Filter auf Messwerte anzuwenden.

Wenn der relative Kampagnen-Lift der Messwerte positiv genug ist, um die Bandbreite des Konfidenzintervalls zu überschreiten, wird für diese Variante eine grüne Hintergrundfarbe angezeigt. Wenn die relative Steigerung negativ genug ist, wird für diese Variante eine rote Hintergrundfarbe angezeigt. Wenn die relative Steigerung kleiner als die Breite des Konfidenzintervalls ist, wird das Ergebnis mit einer grauen Hintergrundfarbe dargestellt, um anzugeben, dass es nicht statistisch signifikant ist.

Beispiel: Vergleich einer Variante mit der Baseline-Kontrollgruppe:

  • Wenn der Messwert Klickrate pro Suche +3,0 % beträgt und das Konfidenzintervall, das als Steigerungs-KI angezeigt wird, [2,1%, 4,0%] ist, wird die Testgruppe grün hervorgehoben, um anzugeben, dass sie für diesen Messwert im Vergleich zur Baseline-Kontrollgruppe eine bessere Leistung erzielt.
  • Wenn der Messwert Umsatzrate pro Besuch auf der Übersichtsseite -1,5 % beträgt und das Konfidenzintervall [-2,6%, -0,4%] ist, wird die Variante rot hervorgehoben, um darauf hinzuweisen, dass sie bei diesem Messwert im Vergleich zur Baseline-Kontrollgruppe schlechter abschneidet.
  • Wenn der Messwert Durchschnittlicher Einheitswert pro Suche +1,0 % beträgt und das Konfidenzintervall [–1,1%, 3,0%] ist, wird die Testgruppe grau hervorgehoben, um darauf hinzuweisen, dass der Leistungsunterschied noch nicht statistisch signifikant ist.

Je mehr Datenpunkte vorhanden sind, desto geringer ist die Varianz. Kumulierte Messwerte über einige Wochen haben eine geringere Konfidenzintervallbreite als tägliche Messwerte und weisen mit höherer Wahrscheinlichkeit eine statistische Signifikanz auf.

Testdetails ändern

Sie können die Testdetails in der Console jederzeit aktualisieren, z. B. Start- und Enddatum, Anzahl der Varianten, Test-IDs und den geplanten Prozentsatz für die Aufteilung des Traffics. Das ist unabhängig davon möglich, ob der Test läuft, abgeschlossen oder ausstehend ist. Die Daten werden rückwirkend aktualisiert.

So bearbeiten Sie Testdetails:

  1. Rufen Sie in der Search for Commerce Console die Seite Tests auf.

    Zur Seite „Tests“

  2. Suchen Sie in der Tabelle mit den letzten Tests nach dem Test, den Sie ändern möchten.

  3. Klicken Sie rechts neben der Tabellenzeile auf das Dreipunkt-Menü Aktionen und dann auf Bearbeiten.

    Die Seite Test bearbeiten wird geöffnet.

  4. Ändern Sie die Testfelder, die Sie aktualisieren möchten.

  5. Klicken Sie auf Update (Aktualisieren), um die Änderungen zu speichern.

Test aus der Console löschen

So löschen Sie einen Test aus der Search for Commerce Console:

  1. Rufen Sie in der Search for Commerce Console die Seite Tests auf.

    Zur Seite „Tests“

  2. Suchen Sie in der Tabelle mit den letzten Tests nach dem Test, den Sie löschen möchten.

  3. Klicken Sie rechts neben der Tabellenzeile auf das Dreipunkt-Menü Aktionen und dann auf Löschen.

    Das Bestätigungsfenster Test löschen? wird geöffnet.

  4. Geben Sie den Namen des Tests ein und klicken Sie auf Bestätigen, um den Löschvorgang zu bestätigen.

    Nach Abschluss des Löschvorgangs wird in der Console eine Meldung angezeigt, dass das Experiment erfolgreich gelöscht wurde.