Auf dieser Seite wird beschrieben, wie Sie den Traffic von A/B-Tests überwachen und wichtige Geschäftsmesswerte für die Suche in der Search for Commerce-Konsole vergleichen können.
Übersicht
Sie können einen A/B-Test durchführen, um wichtige Geschäftsmesswerte zwischen Ihrer vorhandenen Suchimplementierung und Vertex AI Search for Commerce zu vergleichen.
Nachdem Sie den Test und die Aufteilung des Traffics eingerichtet haben, können Sie den Test-Traffic beobachten und sich die Unternehmensmesswerte auf der Seite Test in der Search for Commerce Console ansehen.
Um die Überwachung von A/B-Tests in der Console einzurichten, geben Sie Informationen zu Ihrem A/B-Test ein, z. B. Name, Zeitraum und Informationen zur Testgruppe. Jede Testvariantenverzweigung entspricht einer Testgruppe, die Sie für den A/B-Test erstellt haben. Die erste Verzweigung, die Sie in der Console einrichten, wird als Baseline-Kontrollgruppe behandelt.
Jeder Test hat einen Tab Monitoring, auf dem Messwerte für die Aufteilung des Traffics angezeigt werden. Anhand dieser Messwerte können Sie feststellen, ob der A/B-Test richtig eingerichtet ist. Das ist wichtig, um zu prüfen, ob der A/B-Test verzerrt ist. Ein typisches Problem, das Sie im Blick behalten sollten, ist beispielsweise, ob einige Anfragen oder Kategorien in einer Testgruppe, aber nicht in anderen ausgeliefert werden.
Jeder Test hat auch einen Tab Analytics, auf dem Sie Vergleiche wichtiger Geschäftsmesswerte sehen können. Es sind zwei Kategorien von Unternehmensmesswerten enthalten:
- Messwerte pro Suche oder pro Aufruf, z. B. Klicks pro Suche.
- Messwerte pro Such- oder Besuchsaktion, z. B. Umsatz pro Besuchsaktion.
Eine vollständige Liste der Messwerte finden Sie unter Messwertliste.
Für jeden geschäftlichen Messwert werden Rohwerte, die relative Steigerung im Vergleich zur Baseline-Kontrollgruppe und ein Konfidenzintervall von 95% angegeben. Sie können sowohl zusammengefasste Messwerte als auch Messwerte nach Datum aufrufen.
Auf dem Tab „Traffic-Analyse“ sehen Sie, ob und an welchen Tagen unerwünschte Traffic-Aufteilungen aufgetreten sind. Eine unbeabsichtigte Traffic-Aufteilung wird ermittelt, indem der tatsächliche Prozentsatz der Traffic-Aufteilung mit dem beabsichtigten Prozentsatz verglichen wird, den Sie bei der Einrichtung der Überwachung eingegeben haben. Die Aufteilung des Traffics gilt als korrekt, wenn der relative Unterschied höchstens 10 % beträgt. Wenn der Traffic beispielsweise gleichmäßig auf zwei Gruppen aufgeteilt werden soll, liegt eine tatsächliche Aufteilung von 45% zu 55% noch im vorgesehenen Bereich.
Mit der Console können Sie mehrere Tests gleichzeitig im Blick behalten.
Für das Testdatum und die nach Datum aufgeschlüsselten Messwerte wird die Zeitzone „America/Los_Angeles“ verwendet. Start- und Enddatum sind jeweils 00:00 Uhr (America/Los_Angeles).
Sie können die Testdetails in der Console jederzeit aktualisieren, z. B. Start- und Enddatum, Anzahl der Varianten, Test-IDs und den geplanten Prozentsatz für die Aufteilung des Traffics. Das ist unabhängig davon möglich, ob der Test läuft, abgeschlossen oder ausstehend ist. Die Daten werden rückwirkend aktualisiert.
Für die Überwachung und Analyse von A/B-Tests gelten die folgenden Anforderungen und Einschränkungen:
Der maximale Zeitraum für Testdaten, die Sie erfassen können, beträgt 180 Tage. Wenn ein Test vor mehr als 180 Tagen gestartet wurde, werden keine älteren Messwerte erfasst.
Bei der Traffic-Analyse nach Abfrage oder Kategorie werden nur die 100 Top-Abfragen oder -Kategorien zurückgegeben, die den meisten Traffic aller Variantenarme im Test generieren.
Hinweise
Bevor Sie das Monitoring in der Search for Commerce-Konsole für einen A/B-Test einrichten, müssen folgende Voraussetzungen erfüllt sein:
Richten Sie die Erfassung von Nutzerereignissen für Ereignisse ein, die von Ihrer vorhandenen Suchimplementierung und von Vertex AI Search for Commerce bereitgestellt werden.
Richten Sie den Test mithilfe einer Testplattform eines Drittanbieters wie Google Optimize oder Optimizely ein.
Richten Sie das Nutzerereignis
experimentIds
für jede Testgruppe ein und notieren Sie es. Wenn Sie die Testbeobachtung einrichten, müssen Sie die Test-IDs für jede Variante angeben.
Test in der Console hinzufügen
So fügen Sie einen neuen Test hinzu, der in der Search for Commerce Console überwacht werden soll:
In dieser Anleitung erstellen Sie Variantenarme in der Search for Commerce-Konsole, die den vorhandenen Testgruppen entsprechen, die Sie auf Ihrer Drittanbieter-Testplattform erstellt haben. Beispiele dafür, wie Variantenverzweigungen vorhandenen Testgruppen zugeordnet werden können, finden Sie unter Beispiele für Testkonfigurationen.
Testdetails hinzufügen
Fügen Sie in der Console einen Test hinzu und geben Sie die Details ein.
Rufen Sie in der Search for Commerce Console die Seite Tests auf.
Zur Seite „Tests“Klicken Sie auf Test hinzufügen.
Die Seite Neuer Test wird geöffnet.
Geben Sie einen Namen für den Test ein.
Wählen Sie das Start- und Enddatum des Tests aus.
Wenn der Traffic für Ihren Test nach und nach gesteigert wird, legen Sie das Startdatum auf ein Datum fest, an dem die Steigerung abgeschlossen und die Traffic-Aufteilung stabilisiert ist.
Wählen Sie aus, welche Art von Aktivität mit diesem Test erfasst wird:
Stöbern: Navigation auf Ihrer Website nach Seitenkategorie. Browsing-Aktivitäten werden durch eine leere Anfrage in der Suchantwort angegeben.
Suche: Textanfragen auf Ihrer Website.
Erstellen Sie als Nächstes Variantenverzweigungen für Ihren Test.
Varianten hinzufügen
Nachdem Sie in der Console Testdetails hinzugefügt haben, erstellen Sie Variantenverzweigungen, die den einzelnen Testgruppen entsprechen.
Die erste Variantenverzweigung, die Sie einrichten, ist die Referenzvariante. Die Baseline entspricht in der Regel Ihrer bestehenden Lösung.
Bevor Sie beginnen, müssen Sie das Nutzerereignis experimentIds
für jede Testgruppe haben.
Klicken Sie auf Variantenverzweigung hinzufügen.
Der Bereich Variantenverzweigung erstellen wird geöffnet.
Geben Sie das Nutzerereignis
experimentId
ein, das mit der Testkonfiguration verknüpft ist, für die diese Variantenverzweigung verwendet wird:Wenn Sie den ersten Testlauf einrichten:Geben Sie das Nutzerereignis
experimentId
ein, das mit der Baseline-Gruppe verknüpft ist und als Baseline dient.Wenn Sie den Baseline-Variantenarm bereits eingerichtet haben: Geben Sie das Nutzerereignis
experimentId
ein, das der nächsten Testgruppe zugeordnet ist.
Geben Sie einen für Menschen lesbaren Namen für diese Variantenverzweigung ein.
Dieser Name wird in Monitoring-Dashboards in der Konsole angezeigt.
Optional: Geben Sie eine Beschreibung dieser Variantenverzweigung an.
Wählen Sie ein Traffic-Ziel für die Bereitstellung aus:
Google Vertex AI Search for Retail API: In dieser Variante wird der Traffic für Vertex AI Search for Commerce-Ergebnisse überwacht.
Extern: Wenn mit dieser Variantengruppe Traffic für Ergebnisse aus einem externen Dienst überwacht wird. Die Baseline- oder Kontrollvariantengruppe stellt wahrscheinlich ein externes Ziel dar, wenn im Test der Traffic eines bestehenden Dienstes mit dem Traffic von Vertex AI Search for Commerce verglichen wird.
Klicken Sie auf Erstellen, um die Erstellung dieses Variantentests abzuschließen.
Die Variantenverzweigung wird auf der Seite Neuer Test angezeigt.
Wiederholen Sie die vorherigen Schritte, um Variantenarme für jede Experimentgruppe zu erstellen, die Sie beobachten möchten.
Sie benötigen mindestens einen externen Arm und einen Arm für die Google Vertex AI Search for Retail API.
Optional: Standardmäßig wird der angestrebte Traffic-Prozentsatz gleichmäßig auf alle Variantenverzweigungen aufgeteilt. So passen Sie die beabsichtigten Traffic-Prozentsätze an:
Klicken Sie im Bereich Varianten hinzufügen in der Spalte Traffic % auf einen Wert für den Traffic-Prozentsatz.
Der Bereich Prozentsatz des Traffics wird geöffnet.
Wählen Sie im Feld Gewichtsverteilung die Option Benutzerdefinierte Prozentsätze aus.
Geben Sie in der Spalte Traffic % für jede Variante den gewünschten Trafficprozentsatz ein.
Die Summe der Traffic-Prozentsätze aller Variantenverzweigungen muss 100 % ergeben.
Klicken Sie auf Fertig.
Der Bereich Prozentsatz des Traffics wird geschlossen.
Klicken Sie auf der Seite Neuer Test auf Erstellen, um den Test zu erstellen.
Der Test wird auf der Seite Onboarding-Tests angezeigt.
Beispiele für Testkonfigurationen
In diesem Abschnitt werden zwei Beispiele für Testkonfigurationen vorgestellt.
In Beispiel 1 sehen Sie eine Baseline-Kontrollgruppe und eine Vertex AI Search for Commerce-Testgruppe.
In Beispiel 2 wird ein Vergleich einer Baseline-Kontrollgruppe mit zwei Vertex AI Search for Commerce-Testgruppen gezeigt.
Beispiel 1: Zwei Variantenverzweigungen
Angenommen, Sie möchten einen A/B-Test mit folgenden Einstellungen einrichten:
- 20% der Suchanfragen, die an interne Suchmaschinen gesendet werden, als Baseline-Kontrollgruppe
- 20% der Suchanfragen, die als Testgruppe an die Google Vertex AI Search for Retail API gesendet werden
- 60% als Holdout-Gruppe, die nicht am A/B-Test teilnimmt
Die Konfiguration der Anfrage und des Nutzerereignisses sieht so aus:
Traffictyp | Discovery Engine | 60 % | event.experimentIds |
event.attributionToken |
Traffic in % |
---|---|---|---|---|---|
Traffic steuern | Intern | CONTROL |
– | 20 % | |
Test-Traffic | Google Vertex AI Search for Retail API | EXPERIMENT |
Attributions-Token aus der Suchantwort | 20 % | |
Holdout-Traffic | Beides | – | Abhängig von der Discovery Engine | 60 % |
Holdout-Traffic kann von einer internen Suchmaschine, Vertex AI Search for Commerce oder beiden bereitgestellt werden. Da sie nicht Teil des A/B-Tests sind, haben sie keine Test-ID. Geben Sie experimentIds
- und attributionToken
-Informationen an, um anzugeben, welche Nutzerereignisse Teil des A/B-Tests sind. Ihre experimentId
-Strings können von denen in diesem Beispiel abweichen. Achten Sie darauf, dass die IDs, die Sie verwenden, in Ihren Tests und Nutzerereignissen konsistent sind.
Wenn Sie den entsprechenden Test in der Konsole erstellen, würden Sie nur zwei Variantenverzweigungen erstellen, da die Holdout-Gruppe nicht Teil des Tests ist. Die beabsichtigte Aufteilung des Traffics zwischen den beiden Variantenverzweigungen beträgt 50% / 50%.
Um die Beobachtung für diesen Beispieltest einzurichten, erstellen Sie in der Konsole entsprechende Variantenverzweigungen für jede Testgruppe. In der folgenden Tabelle sehen Sie die Informationen, die Sie in diesem Beispiel bei der Einrichtung der Variantenarme in der Konsole eingeben würden.
Name der Variantenverzweigung | Traffic-Ziel | Nutzerereignis-Test-ID | Beabsichtigter Traffic in % |
---|---|---|---|
Beispiel für eine Kontrollgruppe | Extern | CONTROL | 50 % |
Beispiel für eine Testgruppe | Google Vertex AI Search for Retail API | TEST | 50 % |
Beispiel 2: Drei Variantenverzweigungen
In diesem Beispiel gehen wir davon aus, dass Sie einen A/B-Test für die Head-Suchanfragen (Suchanfragen mit hoher Häufigkeit) durchführen möchten und sowohl das Aktivieren als auch das Deaktivieren dynamischer Facetten einbeziehen. Die Konfigurationen für Anfragen und Nutzerereignisse wären:
Name der Variantenverzweigung | Traffic-Ziel | event.experimentIds | event.attributionToken | Traffic in % |
---|---|---|---|---|
Steuerung von Head-Anfragen | Intern | CONTROL | – | 50% der Head-Suchanfragen |
Dynamische Facetten für Head-Suchanfragen – Test | Google Vertex AI Search for Retail API | EXP_DF_ON | Attributions-Token aus der Suchantwort | 25% der Head-Suchanfragen |
Test zu dynamischen Facetten für Head-Suchanfragen deaktiviert | Google Vertex AI Search for Retail API | EXP_DF_OFF | Attributions-Token aus der Suchantwort | 25% der Head-Suchanfragen |
Abfragen ohne Head-Begriff und andere Holdouts | Google Vertex AI Search for Retail API | – | Abhängig von der verwendeten Engine | – |
Um die Beobachtung für diesen Beispieltest einzurichten, erstellen Sie in der Konsole entsprechende Variantenverzweigungen für jede Testgruppe. In der folgenden Tabelle sehen Sie die Informationen, die Sie in diesem Beispiel bei der Einrichtung der Variantenarme in der Konsole eingeben würden.
Name der Variantenverzweigung | Traffic-Ziel | Nutzerereignis-Test-ID | Beabsichtigter Traffic in % |
---|---|---|---|
Beispiel für eine Kontrollgruppe | Extern | CONTROL | 50 % |
Beispiel für Testverzweigung 1 | Google Vertex AI Search for Retail API | EXP_DF_ON | 25 % |
Beispiel für Testverzweigung 2 | Google Vertex AI Search for Retail API | EXP_DF_OFF | 25 % |
Traffic-Messwerte
Auf der Seite Monitoring eines Tests sehen Sie, ob es unbeabsichtigte Traffic-Aufteilungen für die folgenden Messwerte gibt:
- Anzahl der Such-/Durchsuchen-Ereignisse pro Datum
- Anzahl der Besucher der Suche/Durchsuchen pro Datum
- Anzahl der Such-/Durchsuchen-Ereignisse pro Kategorie
Wenn bei einem dieser Messwerte unerwünschte Traffic-Aufteilungen auftreten, werden auf der entsprechenden Karte oben auf der Seite Monitoring die Datumsangaben angezeigt, an denen die unerwünschte Traffic-Aufteilung aufgetreten ist. Klicken Sie auf Unerwünschte Traffic-Aufteilungen, um eine filterbare Tabelle mit unerwünschten Traffic-Aufteilungen für diesen Messwert aufzurufen.
In den folgenden Tabellen auf der Seite Monitoring eines Tests werden Traffic-Messwerte für die verschiedenen Testgruppen verglichen. Klicken Sie neben einem Tabellentitel auf Mehr ansehen, um eine filterbare Tabelle mit allen Traffic-Aufteilungen für diesen Messwert aufzurufen:
Anzahl der Such-/Durchsuchen-Ereignisse pro Datum: Die Gesamtzahl der Suchanfragen oder Durchsuchen-Vorgänge, die an einem bestimmten Datum in einer Variantengruppe erfolgt sind.
Anzahl der Besucher der Suche/Durchsuchen-Besucher pro Datum: Die Anzahl der Besucher, die an einem bestimmten Datum eine Variante aufgerufen oder durchsucht haben.
Anzahl der Such-/Browse-Ereignisse pro Kategorie: Die Gesamtzahl der Suchanfragen für eine bestimmte Anfrage oder Kategorie in einem Variantenarm vom Start- bis zum Enddatum des Tests (oder bis zum heutigen Datum, wenn der Test noch läuft). In dieser Tabelle werden nur die 100 wichtigsten Anfragen oder Kategorien in Bezug auf den Gesamttraffic aller Variantenverzweigungen im Test angezeigt.
Test beobachten
Auf der Seite Onboarding-Tests wird eine Tabelle mit Ihren letzten Tests angezeigt.
So überwachen Sie einen Test:
Rufen Sie in der Search for Commerce Console die Seite Tests auf.
Zur Seite „Tests“Klicken Sie auf den Namen des Tests.
Die Seite Monitoring für diesen Test wird geöffnet.
Prüfen Sie die Seite auf unerwünschte Traffic-Aufteilungen.
Für jeden Messwert werden die Datumsangaben angezeigt, an denen unerwünschte Traffic-Aufteilungen aufgetreten sind.
Wenn Sie unerwünschte Aufteilungen sehen, klicken Sie auf Unerwünschte Traffic-Aufteilungen, um eine filterbare Tabelle mit unerwünschten Traffic-Aufteilungen für diesen Messwert aufzurufen.
Unerwünschte Traffic-Aufteilungen beheben
Wenn Sie Tests in der Search for Commerce Console im Blick behalten, können Sie potenzielle Probleme in Ihrem Test erkennen.
Wenn Sie unerwartete Traffic-Aufteilungen feststellen, prüfen Sie, ob Ereignisse mit der richtigen Test-ID getaggt sind. Wenn beispielsweise ein Ereignis, das zu einer Kontrollgruppe gehört, mit der falschen Test-ID getaggt wird, kann es der falschen Variante zugeordnet werden.
Wenn das Event-Tagging richtig funktioniert, können unerwartete Traffic-Aufteilungen, die von der Search for Commerce Console gemeldet werden, auf Probleme mit der Traffic-Aufteilung auf Ihrer Testplattform hinweisen. In diesem Fall sollten Sie den A/B-Test pausieren, bevor Sie das Problem beheben, damit keine falschen Ergebnisse erzielt werden.
Geschäftskennzahlen für Analysen
Es gibt zwei Gruppen von Unternehmensmesswerten:
- Messwerte pro Suche oder pro Aufruf
- Besuch pro Suchanfrage oder Besuch pro Aufruf
Messwerte pro Besuch der Suche
Definitionen der Messwerte pro Suchbesuch finden Sie hier. Die Definitionen der Messwerte für Besuche pro Browser sind mit denen für Besuche pro Suchvorgang vergleichbar. Alle Instanzen von „Suche“ werden durch „Browser“ ersetzt.
Bei der Rate für Bestellungen kann eine Bestellung mehrere SKUs enthalten. Jede Artikelnummer kann eine Menge von mindestens 1 haben.
-->Name des Messwerts | Definition |
---|---|
Anzahl der Suchbesuche | Anzahl der Besuche mit mindestens einer Suche. |
Absprungrate | Anzahl der Suchbesuche mit nur einem Nutzerereignis / Anzahl der Suchbesuche |
Rate für Seitenaufrufe | Anzahl der Klicks (Seitenaufrufe) / Anzahl der Suchbesuche |
Rate von „In den Einkaufswagen“ | Anzahl der „In den Einkaufswagen“-Einheiten bei Suchbesuchen / Anzahl der Suchbesuche |
Rate der Bestellungen | Anzahl der Bestellungen bei Suchbesuchen / Anzahl der Suchbesuche |
Umsatzrate | Summe des Umsatzes bei Suchbesuchen / Anzahl der Suchbesuche |
Durchschnittlicher Bestellwert | Summe des Umsatzes bei Suchbesuchen / Anzahl der Bestellungen bei Suchbesuchen |
Messwerte pro Suche
Definitionen der Messwerte pro Suche finden Sie hier. Die Definitionen der Messwerte pro Stöbern ähneln denen der Messwerte pro Suche. Alle Instanzen von „Suche“ werden durch „Stöbern“ ersetzt.
Name des Messwerts | Definition |
---|---|
Anzahl der Suchanfragen | Anzahl der Suchereignisse |
Prozentsatz der Seitenaufrufe, bei denen kein Ergebnis vorlag | Anzahl der Suchvorgänge ohne Ergebnisse / Anzahl der Suchvorgänge |
Klickrate (Click-Through-Rate, CTR) | Anzahl der klickbasierten Seitenaufrufe / Anzahl der Suchanfragen |
Rate von „In den Einkaufswagen“ | Anzahl der durch Suchanfragen ausgelösten Einheiten vom Typ „In den Einkaufswagen“ / Anzahl der Suchanfragen |
Kaufrate | Anzahl der kaufbezogenen Einheiten aus der Suche / Anzahl der Suchanfragen |
Umsatzrate | Summe des suchbezogenen Umsatzes / Anzahl der Suchanfragen |
Durchschnittlicher Einheitswert | Summe des suchbezogenen Umsatzes / Anzahl der suchbezogenen Kaufpositionen |
Geschäftsleistung von Tests analysieren
Auf dem Tab Analytics jedes Tests werden Dashboards mit Unternehmensmesswerten angezeigt. In den Dashboards werden Leistungsvergleiche zwischen den verschiedenen Varianten angezeigt.
Es gibt zwei Dashboards mit Messwerten:
- Messwerte pro Besuch der Suche und pro Surfbesuch
- Messwerte pro Suche und pro Aufruf
Je nach ProductType
-Attribut des Tests werden entweder Suchmesswerte oder Messwerte für die Navigation angezeigt.
In jedem Dashboard wird eine Tabelle mit zusammenfassenden Messwerten angezeigt, in der die Messwertergebnisse für alle im Zeitraumfilter angegebenen Datumsangaben zusammengefasst sind. Die Standarddatumswerte sind das Start- und Enddatum des Tests.
Jeder Messwert wird als aggregierte Ergebnistabelle sowie als Diagramm mit Tageswerten angezeigt, das detailliertere Informationen enthält.
Für den Zeitraum der aggregierten Tabelle werden standardmäßig das Start- und Enddatum des Tests verwendet. Wenn der Test noch läuft, wird das Enddatum auf das aktuelle Datum festgelegt. Sie können den Filter für den Zeitraum ändern. Wenn userAgent
mit aufgenommenen Nutzerereignissen bereitgestellt wird, können Sie Messwerte auch nach Gerätetyp aufschlüsseln.
Klicken Sie auf das Symbol Aktualisieren, um geänderte Filter auf Messwerte anzuwenden.
Wenn der relative Kampagnen-Lift der Messwerte positiv genug ist, um die Bandbreite des Konfidenzintervalls zu überschreiten, wird für diese Variante eine grüne Hintergrundfarbe angezeigt. Wenn die relative Steigerung negativ genug ist, wird für diese Variante eine rote Hintergrundfarbe angezeigt. Wenn die relative Steigerung kleiner als die Breite des Konfidenzintervalls ist, wird das Ergebnis mit einer grauen Hintergrundfarbe dargestellt, um anzugeben, dass es nicht statistisch signifikant ist.
Beispiel: Vergleich einer Variante mit der Baseline-Kontrollgruppe:
- Wenn der Messwert Klickrate pro Suche +3,0 % beträgt und das Konfidenzintervall, das als Steigerungs-KI angezeigt wird, [2,1%, 4,0%] ist, wird die Testgruppe grün hervorgehoben, um anzugeben, dass sie für diesen Messwert im Vergleich zur Baseline-Kontrollgruppe eine bessere Leistung erzielt.
- Wenn der Messwert Umsatzrate pro Besuch auf der Übersichtsseite -1,5 % beträgt und das Konfidenzintervall [-2,6%, -0,4%] ist, wird die Variante rot hervorgehoben, um darauf hinzuweisen, dass sie bei diesem Messwert im Vergleich zur Baseline-Kontrollgruppe schlechter abschneidet.
- Wenn der Messwert Durchschnittlicher Einheitswert pro Suche +1,0 % beträgt und das Konfidenzintervall [–1,1%, 3,0%] ist, wird die Testgruppe grau hervorgehoben, um darauf hinzuweisen, dass der Leistungsunterschied noch nicht statistisch signifikant ist.
Je mehr Datenpunkte vorhanden sind, desto geringer ist die Varianz. Kumulierte Messwerte über einige Wochen haben eine geringere Konfidenzintervallbreite als tägliche Messwerte und weisen mit höherer Wahrscheinlichkeit eine statistische Signifikanz auf.
Testdetails ändern
Sie können die Testdetails in der Console jederzeit aktualisieren, z. B. Start- und Enddatum, Anzahl der Varianten, Test-IDs und den geplanten Prozentsatz für die Aufteilung des Traffics. Das ist unabhängig davon möglich, ob der Test läuft, abgeschlossen oder ausstehend ist. Die Daten werden rückwirkend aktualisiert.
So bearbeiten Sie Testdetails:
Rufen Sie in der Search for Commerce Console die Seite Tests auf.
Zur Seite „Tests“Suchen Sie in der Tabelle mit den letzten Tests nach dem Test, den Sie ändern möchten.
Klicken Sie rechts neben der Tabellenzeile auf das Dreipunkt-Menü Aktionen und dann auf Bearbeiten.
Die Seite Test bearbeiten wird geöffnet.
Ändern Sie die Testfelder, die Sie aktualisieren möchten.
Klicken Sie auf Update (Aktualisieren), um die Änderungen zu speichern.
Test aus der Console löschen
So löschen Sie einen Test aus der Search for Commerce Console:
Rufen Sie in der Search for Commerce Console die Seite Tests auf.
Zur Seite „Tests“Suchen Sie in der Tabelle mit den letzten Tests nach dem Test, den Sie löschen möchten.
Klicken Sie rechts neben der Tabellenzeile auf das Dreipunkt-Menü Aktionen und dann auf Löschen.
Das Bestätigungsfenster Test löschen? wird geöffnet.
Geben Sie den Namen des Tests ein und klicken Sie auf Bestätigen, um den Löschvorgang zu bestätigen.
Nach Abschluss des Löschvorgangs wird in der Console eine Meldung angezeigt, dass das Experiment erfolgreich gelöscht wurde.