A/B-Tests beobachten und analysieren

Auf dieser Seite wird beschrieben, wie Sie den Traffic von A/B-Tests überwachen und wichtige Geschäftsmesswerte für die Suche in der Search for Retail-Konsole vergleichen können.

Überblick

Sie können einen A/B-Test durchführen, um wichtige Geschäftsmesswerte zwischen Ihrer vorhandenen Suchimplementierung und Vertex AI Search für den Einzelhandel zu vergleichen.

Nachdem Sie den Test und seine Traffic-Aufteilung eingerichtet haben, können Sie den Testtraffic überwachen und Geschäftsmesswerte auf der Seite Test in der Search for Retail-Konsole ansehen.

Um die Überwachung von A/B-Tests in der Console einzurichten, geben Sie Informationen zu Ihrem A/B-Test ein, z. B. Name, Zeitraum und Informationen für die Testverzweigung. Jede Testvariantenverzweigung ist einer Testgruppe zugeordnet, die Sie für den A/B-Test erstellt haben. Die erste Testverzweigung, die Sie in der Console eingerichtet haben, wird als Ausgangskontrolle behandelt.

Für jeden Test gibt es den Tab Monitoring mit Messwerten zur Trafficaufteilung. So können Sie feststellen, ob der A/B-Test richtig eingerichtet ist. Dies ist wichtig, um zu prüfen, ob in den A/B-Test Verzerrungen eingeführt wurden. Ein typisches Problem ist beispielsweise, ob einige Abfragen oder Kategorien von einer Testverzweigung bereitgestellt werden und nicht von anderen.

Jeder Test hat auch den Tab Analytics, auf dem Sie die wichtigsten Geschäftsmesswerte vergleichen können. Es gibt zwei Kategorien von Geschäftsmetriken:

  • Messwerte pro Suche oder pro Suche, z. B. Klicks pro Suche.
  • Messwerte pro Suche oder pro Stöberbesuch, z. B. Umsatz pro Besuch.

Eine vollständige Liste der Messwerte finden Sie unter Messwertliste.

Jeder Geschäftsmesswert enthält Rohwerte, die relative Steigerung im Vergleich zur Basiskontrolle und ein Konfidenzintervall von 95 %. Sie können sowohl aggregierte Messwerte als auch Messwerte nach Datum aufrufen.

Auf dem Tab „Traffic-Überwachung“ sehen Sie, ob unbeabsichtigte Trafficaufteilungen stattgefunden haben und an welchem Datum sie stattgefunden haben. Eine unbeabsichtigte Trafficaufteilung wird ermittelt, indem der tatsächliche Prozentsatz der Trafficaufteilung mit dem vorgesehenen Prozentsatz verglichen wird, den Sie beim Einrichten des Monitorings eingeben. Die Aufteilung der Zugriffe gilt als richtig, wenn die relative Differenz kleiner oder gleich 10 % ist. Wenn der Traffic beispielsweise gleichmäßig auf zwei Verzweigungen aufgeteilt werden soll, liegt eine tatsächliche Aufteilung von 45% bis 55% genau im gewünschten Bereich.

In der Console können Sie mehrere Tests gleichzeitig beobachten.

Für das Testdatum und die Testmesswerte wird die Zeitzone „America/Los_Angeles“ als Zeitzone und die Start- und Enddaten 00:00 Uhr America/Los_Angeles verwendet.

Testdetails wie Start- und Enddatum, Anzahl der Variantenverzweigungen, Test-IDs und der Prozentsatz für die gewünschte Trafficaufteilung können jederzeit in der Console aktualisiert werden, unabhängig davon, ob der Test gerade läuft, abgeschlossen ist oder aussteht. Die Daten werden rückwirkend aktualisiert.

Für das Monitoring und die Analyse der A/B-Tests gelten folgende Anforderungen/Einschränkungen:

  • Der maximal erfasste Zeitraum für Testdaten beträgt 180 Tage. Wenn ein Test vor mehr als 180 Tagen gestartet wurde, werden ältere Messwerte nicht erfasst.

  • Die Traffic-Überwachung pro Abfrage oder pro Kategorie gibt nur die Top 100 Abfragen oder Kategorien zurück, die von allen Variantenverzweigungen im Test den meisten Traffic erhalten.

Hinweise

Bevor Sie das Monitoring in der Search for Retail-Konsole für einen A/B-Test einrichten:

  • Richten Sie die Aufnahme von Nutzerereignissen für Ereignisse ein, die von Ihrer vorhandenen Suchimplementierung und von Vertex AI Search für den Einzelhandel bereitgestellt werden.

  • Best Practices für A/B-Tests

  • Richten Sie den Test mithilfe einer Testplattform eines Drittanbieters wie Google Optimize oder Optimizely ein.

  • Richten Sie für jede Testgruppe das Nutzerereignis experimentIds ein und notieren Sie es. Wenn Sie die Testüberwachung einrichten, müssen Sie die Test-IDs für jede Variantenverzweigung angeben.

Test in der Konsole hinzufügen

So fügst du einen neuen Test hinzu, der in der Search for Retail-Konsole überwacht werden soll:

Bei diesem Verfahren erstellen Sie Variantenverzweigungen in der Search for Retail-Konsole, die den vorhandenen Testgruppen entsprechen, die Sie auf der Drittanbieter-Testplattform erstellt haben. Beispiele für die Zuordnung von Variantenverzweigungen zu vorhandenen Testgruppen finden Sie unter Beispiele für Testeinstellungen.

Testdetails hinzufügen

Fügen Sie in der Konsole einen Test hinzu und geben Sie die zugehörigen Details ein.

  1. Rufen Sie in der Search for Retail-Konsole die Seite Tests auf.

    Zur Seite „Tests“

  2. Klicken Sie auf Test hinzufügen.

    Die Seite Neuer Test wird geöffnet.

  3. Geben Sie einen Namen für den Test ein.

  4. Wählen Sie das Start- und Enddatum des Tests aus.

    Wenn der Testtraffic so eingestellt ist, dass er schrittweise steigt, legen Sie das Startdatum auf ein Datum fest, an dem der Traffic abgeschlossen ist und sich die Traffic-Aufteilung stabilisiert hat.

  5. Wählen Sie aus, welche Art von Aktivität mit diesem Test erfasst werden soll:

    • Durchsuchen: Die Navigation auf Ihrer Website nach Seitenkategorie. Die Browseraktivität wird durch eine leere Abfrage in der Suchantwort angezeigt.

    • Suche: Textsuchanfragen auf Ihrer Website.

Erstellen Sie als Nächstes Variantenverzweigungen für Ihren Test.

Varianten hinzufügen

Nachdem Sie die Testdetails in der Console hinzugefügt haben, erstellen Sie Variantenverzweigungen, die der jeweiligen Testgruppe entsprechen.

Die erste Variantenverzweigung, die Sie einrichten, ist die Baseline-Variante. Die Referenzversion stellt in der Regel Ihre vorhandene Lösung dar.

Für jede Testgruppe muss das Nutzerereignis experimentIds eingerichtet sein.

  1. Klicken Sie auf Variantenverzweigung hinzufügen.

    Der Bereich Variantenverzweigung erstellen wird geöffnet.

  2. Geben Sie das Nutzerereignis experimentId ein, das mit der Testeinrichtung verknüpft ist, die von dieser Variantenverzweigung überwacht wird:

    • Wenn Sie die erste Variantenverzweigung einrichten:Geben Sie das Nutzerereignis experimentId ein, das mit der Baseline-Gruppe verknüpft ist. Diese Gruppe dient als Baseline.

    • Wenn Sie die Baseline-Variantenverzweigung bereits eingerichtet haben: Geben Sie das Nutzerereignis experimentId für die nächste Testgruppe ein.

  3. Geben Sie einen menschenlesbaren Namen für diese Variantenverzweigung ein.

    Dieser Name wird in Monitoring-Dashboards in der Console angezeigt.

  4. Optional: Geben Sie eine Beschreibung dieser Variantenverzweigung an.

  5. Wählen Sie ein Ziel für den Bereitstellungstraffic aus:

    • Google Vertex AI Search for Retail API: Wenn diese Variantenverzweigung Traffic für Vertex AI Search für Einzelhandelsergebnisse überwacht.

    • Extern: Wenn diese Variantenverzweigung Traffic auf Ergebnisse von einem externen Dienst überwacht. Beispiel: Die Baseline- oder Kontrollvariantenverzweigung stellt wahrscheinlich ein externes Ziel dar, wenn beim Test der Traffic eines vorhandenen Dienstes mit Vertex AI Search für Einzelhandelstraffic verglichen wird.

  6. Klicken Sie auf Erstellen, um die Erstellung dieser Variantenverzweigung abzuschließen.

    Die Variantenverzweigung wird auf der Seite Neuer Test angezeigt.

  7. Wiederholen Sie die vorherigen Schritte, um Variantenverzweigungen zu erstellen, die mit jeder Testgruppe verknüpft sind, die Sie beobachten möchten.

    Sie müssen mindestens eine External-Verzweigung und eine Google Vertex AI Search for Retail API-Verzweigung haben.

  8. Optional: Standardmäßig wird der Prozentsatz des gewünschten Traffics gleichmäßig auf alle Variantenverzweigungen aufgeteilt. So passen Sie die gewünschten Prozentsätze für Zugriffe an:

    1. Klicken Sie im Bereich Varianten hinzufügen in der Spalte Traffic in % auf einen Prozentsatz für den Traffic.

      Der Bereich Traffic Percentage wird geöffnet.

    2. Wählen Sie im Feld Gewichtsverteilung die Option Benutzerdefinierte Prozentsätze aus.

    3. Geben Sie in der Spalte Traffic % für jede Variantenverzweigung den gewünschten Prozentsatz für Zugriffe ein.

      Die Summe der Zugriffe in Prozent muss in allen Variantenverzweigungen 100 % ergeben.

    4. Klicken Sie auf Fertig.

      Der Bereich Traffic Percentage wird geschlossen.

  9. Klicken Sie auf der Seite Neuer Test auf Erstellen, um die Einrichtung des Tests abzuschließen.

    Der Test wird auf der Seite Onboarding-Tests angezeigt.

Beispiele für Testeinrichtungen

In diesem Abschnitt finden Sie zwei Beispiele für Testeinrichtungen.

Beispiel 1 zeigt eine Baseline-Kontrolle und eine Vertex AI Search-Testgruppe für den Einzelhandel.

Beispiel 2 zeigt den Vergleich einer Baseline-Kontrolle mit zwei Vertex AI Search für Testgruppen für den Einzelhandel.

Beispiel 1: Zwei Variantenverzweigungen

In diesem Beispiel wird davon ausgegangen, dass Sie einen A/B-Test mit folgenden Elementen einrichten möchten:

  • 20% der Suchanfragen, die an interne Suchmaschinen gesendet wurden, als Basiskontrollgruppe
  • 20% der Suchanfragen wurden als Testgruppe an die Google Vertex AI Search for Retail API gesendet
  • 60% als Holdout-Gruppe, die nicht in den A/B-Test aufgenommen wurde

Die Konfiguration der Anfrage und des Nutzerereignisses sieht so aus:

Traffic-Typ Discovery-Engine event.experimentIds event.attributionToken Traffic in %
Traffic steuern Intern CONTROL 20 %
Traffic des Tests Google Vertex AI Search for Retail API EXPERIMENT Attributionstoken aus der Suchantwort 20 %
Holdout-Traffic Entweder / beide Hängt von Discovery-Engine ab 60 %

Holdout-Traffic kann von einer internen Suchmaschine, von Vertex AI Search für den Einzelhandel oder von beiden bereitgestellt werden. Da sie nicht Teil des A/B-Tests sind, haben sie keine Test-ID. Wenn du angeben möchtest, welche Nutzerereignisse Teil des A/B-Tests sind, musst du die Informationen zu experimentIds und attributionToken angeben. Ihre experimentId-Strings können sich von den in diesem Beispiel angegebenen Strings unterscheiden. Die verwendeten IDs in Tests und Nutzerereignissen müssen übereinstimmen.

Beim Erstellen des entsprechenden Tests in der Console würden Sie nur zwei Variantenverzweigungen erstellen, da die Holdout-Gruppe nicht Teil des Tests ist. Die prozentuale Aufteilung des Traffics zwischen den beiden Variantenverzweigungen beträgt 50% / 50%.

Um das Monitoring für diesen Beispieltest einzurichten, würden Sie in der Console für jede Testgruppe entsprechende Variantenverzweigungen erstellen. Die folgende Tabelle enthält Informationen, die Sie bei der Einrichtung der Variantenverzweigung für dieses Beispiel in die Console eingeben würden.

Name der Variantenverzweigung Traffic-Ziel Nutzerereignis-Test-ID Beabsichtigter Traffic in %
Beispiel für Kontrollgruppe Extern KONTROLLE 50 %
Beispiel für Testverzweigung Google Vertex AI Search for Retail API EXPERIMENTIEREN 50 %

Beispiel 2: Drei Variantenverzweigungen

In diesem Beispiel wird davon ausgegangen, dass Sie einen A/B-Test für die Head-Abfragen (häufige Abfragen) durchführen und dynamische Attribute aktivieren und deaktivieren möchten. Die Konfigurationen für Anfragen und Nutzerereignisse würden so aussehen:

Name der Variantenverzweigung Traffic-Ziel event.experimentIds event.attributionToken Traffic in %
Steuerung von Kopfabfragen Intern KONTROLLE 50% der Head-Anfragen
Head-Abfragen – dynamische Attribute beim Test Google Vertex AI Search for Retail API EXP_DF_ON Attributionstoken aus der Suchantwort 25% der Head-Suchanfragen
Head-Abfragen – dynamische Attribute AUS Test Google Vertex AI Search for Retail API EXP_DF_OFF Attributionstoken aus der Suchantwort 25% der Head-Suchanfragen
Nicht-Kopf-Abfragen und andere Holdouts Google Vertex AI Search for Retail API Abhängig von der verwendeten Suchmaschine

Um das Monitoring für diesen Beispieltest einzurichten, würden Sie in der Console für jede Testgruppe entsprechende Variantenverzweigungen erstellen. Die folgende Tabelle enthält Informationen, die Sie bei der Einrichtung der Variantenverzweigung für dieses Beispiel in die Console eingeben würden.

Name der Variantenverzweigung Traffic-Ziel Nutzerereignis-Test-ID Beabsichtigter Traffic in %
Beispiel für Kontrollgruppe Extern KONTROLLE 50 %
Beispiel für Testverzweigung 1 Google Vertex AI Search for Retail API EXP_DF_ON 25 %
Beispiel für Testverzweigung 2 Google Vertex AI Search for Retail API EXP_DF_OFF 25 %

Traffic-Messwerte

Auf der Seite Monitoring eines Tests wird angezeigt, ob es bei den folgenden Messwerten unbeabsichtigte Trafficaufteilungen gibt:

  • Anzahl der Such-/Surfenereignisse nach Datum
  • Anzahl der Such-/Surfenbesucher pro Datum
  • Anzahl der Such-/Surfenereignisse pro Kategorie

Wenn bei einem dieser Messwerte unbeabsichtigte Trafficaufteilungen auftreten, wird auf der Karte oben auf der Seite Monitoring der Zeitraum angezeigt, an dem die unbeabsichtigte Trafficaufteilung erfolgt ist. Klicken Sie auf Unbeabsichtigte Trafficaufteilungen, um eine filterbare Tabelle zu sehen, in der unbeabsichtigte Trafficaufteilungen für diesen Messwert aufgeführt sind.

In den folgenden Tabellen auf der Seite Monitoring eines Tests werden Traffic-Messwerte über Variantenverzweigungen nach Nutzung verglichen. Klicken Sie neben einem Tabellentitel auf Mehr anzeigen, um eine filterbare Tabelle aufzurufen, in der alle Aufteilung der Zugriffe für diesen Messwert aufgeführt ist:

  • Anzahl der Such-/Surfenereignisse pro Datum: Die Gesamtzahl der Suchvorgänge oder Durchläufe, die an einem bestimmten Datum in einer Variantenverzweigung aufgetreten sind.

  • Anzahl der Such-/Surfen-Besucher pro Datum: Die Anzahl der Besucher, die an einem bestimmten Datum eine Variantenverzweigung abgefragt oder gestöbert haben.

  • Anzahl der Such-/Surfen-Ereignisse pro Kategorie: Die Gesamtzahl der Suchanfragen nach einer bestimmten Abfrage oder Kategorie in einer Variantenverzweigung vom Startdatum des Tests bis zum Enddatum (bzw. bis zum heutigen Datum, wenn der Test läuft). In dieser Tabelle werden nur die 100 häufigsten Suchanfragen oder Kategorien für den gesamten Traffic aller Variantenverzweigungen im Test angezeigt.

Test beobachten

Auf der Seite Onboarding-Tests wird eine Tabelle mit Ihren letzten Tests angezeigt.

So überwachen Sie einen Test:

  1. Rufen Sie in der Search for Retail-Konsole die Seite Tests auf.

    Zur Seite „Tests“

  2. Klicken Sie auf den Namen des Tests.

    Die Seite Monitoring für diesen Test wird geöffnet.

  3. Prüfen Sie die Seite auf unbeabsichtigte Aufteilung der Zugriffe.

    Für jeden Messwert wird der Zeitraum angegeben, an dem unbeabsichtigte Trafficaufteilungen aufgetreten sind.

  4. Wenn Sie unbeabsichtigte Aufteilungen sehen, klicken Sie auf Unbeabsichtigte Traffic-Aufteilungen, um eine filterbare Tabelle zu sehen, in der die unbeabsichtigten Traffic-Aufteilungen für den jeweiligen Messwert aufgeführt sind.

Unbeabsichtigte Aufteilung der Zugriffe beheben

Durch das Monitoring von Tests über die Search for Retail-Konsole können Sie auf potenzielle Probleme in Ihrem Test aufmerksam machen.

Falls unbeabsichtigte Trafficaufteilungen auftreten, müssen die Ereignisse mit der richtigen Test-ID getaggt sein. Beispielsweise kann ein Ereignis, das zu einer Kontrollgruppe gehört, mit der falschen Test-ID getaggt werden, dazu führen, dass es der falschen Variantenverzweigung zugeordnet wird.

Wenn das Ereignis-Tagging korrekt funktioniert, können von der Search for Retail-Konsole gemeldete unbeabsichtigte Trafficaufteilungen auf Probleme mit der Trafficaufteilung auf Ihrer Testplattform hinweisen. Halten Sie in diesem Fall die A/B-Tests an, bevor Sie das Problem beheben, damit der Test keine falschen Ergebnisse liefert.

Geschäftsmesswerte für Analysen

Es sind zwei Gruppen von Geschäftsmetriken verfügbar:

  • Messwerte pro Suche oder pro Browser
  • Pro Suchbesuch oder Besuch pro Browser

Messwerte für Besuche pro Suche

Die Definitionen der Messwerte pro Suche und Besuch sind unten aufgeführt. Die Definitionen der Messwerte für die einzelnen Besuche ähneln denen für die Messwerte pro Suchbesuch, wobei alle Instanzen der Suche durch „Stöbern“ ersetzt werden.

Ein Auftragspreis kann mehrere SKUs enthalten. Jede SKU kann eine Menge größer oder gleich eins haben.

Name des Messwerts Definition
Anzahl der Suchbesuche Anzahl der Besuche, die mindestens eine Suche enthalten.
Seitenaufrufrate Anzahl der Klicks (Seitenaufrufe) / Anzahl der Suchbesuche
Rate für in den Einkaufswagen gelegte Artikel (ATC) Anzahl der Anzeigenblöcke vom Typ „In den Einkaufswagen“ bei Suchbesuchen ÷ Anzahl der Suchbesuche
Auftragsrate Anzahl der Bestellungen bei Suchbesuchen / Anzahl der Suchbesuche
Umsatzrate Gesamtumsatz aus Suchbesuchen ÷ Anzahl der Suchbesuche
Durchschnittlicher Bestellwert Summe des Umsatzes bei Suchbesuchen / Anzahl der Bestellungen bei Suchbesuchen

Messwerte pro Suche

Die Definitionen der Messwerte pro Suche sind unten aufgeführt. Die Definitionen der Messwerte pro Suche ähneln denen von Messwerten pro Suche, wobei alle Instanzen der Suche durch „Durchsuchen“ ersetzt werden.

Name des Messwerts Definition
Anzahl der Suchanfragen Anzahl der Suchereignisse
Rate „Keine Ergebnisse“ Anzahl der Suchereignisse ohne Ergebnisse / Anzahl der Suchanfragen
Klickrate (Click-Through-Rate, CTR) Anzahl der Klicks im Suchnetzwerk (Seitenaufrufe) / Anzahl der Suchanfragen
Rate für in den Einkaufswagen gelegte Artikel (ATC) Anzahl der suchbasierten Einheiten von in den Einkaufswagen gelegten Artikeln / Anzahl der Suchanfragen
Kaufrate Anzahl der Kaufeinheiten im Such-Werbenetzwerk / Anzahl der Suchanfragen
Umsatzrate Summe des durch Suche erzielten Umsatzes / der Anzahl der Suchanfragen
Durchschnittlicher Einheitenwert (AUV) Summe des Umsatzes durch Suche / Anzahl der durch Suche erzielten Kaufeinheiten

Geschäftsleistung des Tests analysieren

Auf dem Tab Analytics jedes Tests werden Dashboards mit Geschäftsmesswerten angezeigt. Die Dashboards zeigen Leistungsvergleiche zwischen Variantenverzweigungen.

Es gibt zwei Dashboards mit Messwerten:

  • Messwerte pro Such- und Stöberbesuch
  • Messwerte pro Suche und pro Suche

Entweder Such- oder Stöbermesswerte werden basierend auf dem Attribut ProductType des Tests angezeigt.

In jedem Dashboard wird eine zusammenfassende Tabelle mit Messwerten angezeigt, die für die im Zeitraumfilter angezeigten Zeiträume zusammengefasst sind. Die Standarddatumswerte sind das Start- und Enddatum des Tests.

Jeder Messwert wird als zusammengefasste Ergebnistabelle sowie als Tageswertdiagramm angezeigt, das detailliertere Informationen enthält.

Für den aggregierten Tabellenzeitraum werden das Start- und Enddatum des Tests als Standarddatumswerte verwendet. Wenn der Test läuft, wird das Enddatum auf das aktuelle Datum gesetzt. Sie können den Zeitraumfilter ändern. Wenn userAgent aufgenommene Nutzerereignisse enthält, können Sie Messwerte auch nach Gerätetyp segmentieren. Klicken Sie auf das Symbol Aktualisieren, um geänderte Filter auf Messwerte anzuwenden.

Wenn die relative Steigerung der Messwerte positiv genug ist, um die Bandbreite des Konfidenzintervalls zu überschreiten, wird für diese Variante eine grüne Hintergrundfarbe angezeigt. Ist die relative Steigerung negativ genug, wird für diese Variante eine rote Hintergrundfarbe angezeigt. Wenn die relative Steigerung kleiner als die Breite des Konfidenzintervalls ist, weist eine graue Hintergrundfarbe darauf hin, dass das Ergebnis keine statistische Signifikanz hat.

Beispiel für den Vergleich einer Variantenverzweigung mit der Kontrollverzweigung der Baseline:

  • Wenn der Messwert Klickrate pro Suche +3,0 % und das Konfidenzintervall, das als Lift-CI angezeigt wird, [2,1%, 4,0%] beträgt, wird die Variantenverzweigung grün hervorgehoben, um darauf hinzuweisen, dass sie für diesen Messwert eine bessere Leistung als die Baseline-Kontrolle hat.
  • Wenn der Messwert Umsatzrate pro Besuch bei -1,5 % liegt und das Konfidenzintervall [-2,6%, -0,4%] beträgt, wird die Variantenverzweigung rot hervorgehoben, um darauf hinzuweisen, dass sie bei diesem Messwert im Vergleich zur Baseline-Kontrolle schlechter abschneidet.
  • Wenn der Messwert Durchschnittlicher Einheitenwert pro Suche +1,0 % und das Konfidenzintervall [-1,1%, 3,0%] beträgt, wird die Variantenverzweigung grau hervorgehoben, um anzuzeigen, dass der Leistungsunterschied noch keine statistische Signifikanz hat.

Im Allgemeinen gilt: Je mehr Datenpunkte, desto geringer die Varianz. Akkumulierte Messwerte über mehrere Wochen haben eine geringere Bandbreite des Konfidenzintervalls als tägliche Messwerte und zeigen mit höherer Wahrscheinlichkeit statistische Signifikanz.

Testdetails ändern

Testdetails wie das Start- und Enddatum, die Anzahl der Variantenverzweigungen, die Test-IDs und der Prozentsatz der gewünschten Trafficaufteilung können jederzeit in der Console aktualisiert werden, unabhängig davon, ob der Test gerade läuft, abgeschlossen ist oder aussteht. Die Daten werden rückwirkend aktualisiert.

So bearbeiten Sie Testdetails:

  1. Rufen Sie in der Search for Retail-Konsole die Seite Tests auf.

    Zur Seite „Tests“

  2. Suchen Sie in der Tabelle mit Ihren letzten Tests den Test, den Sie ändern möchten.

  3. Klicken Sie rechts neben der Tabellenzeile auf das Dreipunkt-Menü Aktionen und dann auf Bearbeiten.

    Die Seite Test bearbeiten wird geöffnet.

  4. Ändern Sie die Testfelder, die Sie aktualisieren möchten.

  5. Klicken Sie auf Update (Aktualisieren), um die Änderungen zu speichern.

Test aus der Console löschen

So löschen Sie einen Test aus der Search for Retail-Konsole:

  1. Rufen Sie in der Search for Retail-Konsole die Seite Tests auf.

    Zur Seite „Tests“

  2. Suchen Sie in der Tabelle mit Ihren letzten Tests den Test, den Sie löschen möchten.

  3. Klicken Sie rechts neben der Tabellenzeile auf das Dreipunkt-Menü Aktionen und dann auf Löschen.

    Das Bestätigungsfenster Test löschen? wird geöffnet.

  4. Geben Sie den Namen des Tests ein und klicken Sie auf Bestätigen, um das Löschen zu bestätigen.

    Wenn der Löschvorgang abgeschlossen ist, wird in der Console eine Meldung angezeigt, dass der Test erfolgreich gelöscht wurde.