Testfälle

Sie können die integrierte Testfunktion nutzen, um Fehler zu erkennen und Regressionen zu vermeiden. Um Ihren Agent zu testen, erstellen Sie Testfälle mit dem Simulator zum Definieren von goldenen Testfällen und führen Sie dann bei Bedarf Testfälle aus. Durch eine Testausführung wird überprüft, ob Agent-Antworten für Endnutzereingaben, die im Testfall definiert wurden, nicht geändert wurden.

In folgender Anleitung wird die Verwendung der Konsole beschrieben. Sie finden die gleichen Funktionen jedoch auch in der API.

Simulator-Einstellungen

Wenn Sie den Simulator zum ersten Mal öffnen, müssen Sie eine Agent-Umgebung und einen aktiven Ablauf auswählen. In den meisten Fällen sollten Sie die Entwurfsumgebung und den Standardstartvorgang verwenden.

Sie können Webhook-Aufrufe auch jederzeit über den Webhook-Schaltfläche aktivieren oder deaktivieren. Das Deaktivieren von Webhooks ist bei der Definition von Testfällen nützlich.

Simulatoreingabe

Bei der Interaktion mit dem Simulator geben Sie die Endnutzereingabe als Text an, drücken dann die Eingabetaste oder klicken auf die Schaltfläche "Senden" . Neben dem einfachen Text können Sie alternativ mit dem Eingabeselektor alternative Eingabetypen auswählen:

  • Parameter: Fügen Sie einen Parameterwert ein. Sie können neue Parameter angeben oder vordefinierte Werte für vorhandene Parameter angeben.
  • Ereignis: Rufen Sie ein Ereignis auf.
  • Dtmf: "Multi-Tune-Signal-Signaling" (Touch-Tene) für Telefonieinteraktionen senden.

Testlauf erstellen

So erstellen Sie eine Unterhaltung:

  1. Öffnen Sie die Dialogflow CX Console.
  2. Wählen Sie Ihr GCP-Projekt aus.
  3. Wählen Sie den Agent aus.
  4. Klicken Sie auf Test-Agent, um den Simulator zu öffnen.
  5. Chatte mit dem Agent, um eine Unterhaltung zu erstellen, in der die zu testenden Funktionen beschrieben werden. Prüfen Sie für jede Runde die korrekten Werte für den ausgelösten Intent, die Agent-Antwort, die aktive Seite und die Sitzungsparameter.

Screenshot: Simulator.

So speichern Sie eine Unterhaltung als Testfall:

  1. Klicken Sie auf die -Schaltfläche „Speichern“.
  2. Geben Sie einen Anzeigenamen für den Testfall ein. Jeder Testfall muss einen eindeutigen Anzeigenamen haben.
  3. Geben Sie optional einen Tag-Namen ein. Tags helfen Ihnen dabei, Ihre Testfälle zu organisieren. Alle Tags müssen mit "#" beginnen.
  4. Geben Sie optional eine Notiz an, die den Zweck des Testfalls beschreibt.
  5. Optional können Sie die zu erfassenden Parameter im Testfall auswählen. Es wird eine Liste vorgeschlagener Parameter angezeigt. Sie können auch andere Parameter eingeben, die erfasst werden sollen. Wenn Sie Tracking-Parameter auswählen, wird die Parameter-Assertion beim Ausführen des Testfalls überprüft. Weitere Informationen zur Parameter-Assertion finden Sie im Abschnitt Testfälle ausführen.
  6. Klicken Sie auf Speichern, um den Testfall zu speichern.

Testfälle ausführen

Klicken Sie zum Anzeigen aller Testfälle für einen Agent auf dem Tab Manage (Verwalten) auf Test Cases (Testfälle). Die Tabelle mit den Testfällen enthält den Namen des Tests, die Tags, die letzte Testzeit und Umgebung und das letzte Testergebnis.

So führen Sie Testfälle aus:

  1. Wählen Sie die Testfälle aus, die Sie ausführen möchten, und klicken Sie auf Ausführen. Alternativ können Sie auf Alle Testfälle ausführen klicken.
  2. Wählen Sie die Umgebung aus, für die Sie die Testfälle ausführen möchten.
  3. Die Tests werden ausgeführt. Sie können den Status in der Warteschlange der Aufgaben sehen. Das Testergebnisse wird nach Abschluss aktualisiert.

Klicken Sie auf den Testfall, um das Ergebnis des Testdetails aufzurufen. Die Golden-Testfälle und die neuesten Ausführungen werden nebeneinander angezeigt.

Screenshot: Simulator.

Sie können auf die Konversationsrunde eines Agents klicken, um die entsprechenden Details aufzurufen. Die Test-Engine prüft folgende Arten von Daten, um das Testergebnis auszuwerten:

  • Agent-Dialog:

    Der Agent-Dialog wird für jede Unterhaltungsrunde von Gold bis hin zu letzter Ausführung verglichen. Bei Abweichungen wird eine Warnung angezeigt. Diese Unterschiede verhindern nicht, dass ein Test besteht. Das liegt daran, dass der Agent-Dialog je nach Agent-Status oft variiert.

  • Abgestimmte Absicht:

    Die übereinstimmende Intent muss in jeder Runde der gleiche sein, damit ein Test bestanden wird.

  • Aktuelle Seite:

    Die aktive Seite muss für jede Testrunde gleich sein, damit ein Test bestanden wird.

  • Sitzungsparameter:

    Wenn Sie beim Erstellen des Testfalls Tracking-Parameter hinzugefügt haben, prüft die Test-Engine die entsprechenden Sitzungsparameter und lässt den Test fehlschlagen, wenn Parameter fehlen/unerwartet sind oder Parameterwerte nicht übereinstimmen.

Unter Umständen kann ein Testfall aufgrund eines aktualisierten Agents zu einem unerwarteten Fehler führen. Wenn die Unterhaltung im letzten Durchlauf die erwarteten Änderungen spiegelt, können Sie auf Save as golden (Als golden speichern) klicken, um den goldenen Testfall zu überschreiben.

Testfälle bearbeiten

Wählen Sie zum Bearbeiten eines Testfalls in der Tabelle Testfälle den Testfall aus und klicken Sie dann neben dem Namen des Testfalls auf das Symbol "Bearbeiten" . Das Dialogfeld Testfälle aktualisieren wird angezeigt.

Klicken Sie auf den Tab Settings (Einstellungen), um die Metadaten und Einstellungen des Testfalls zu bearbeiten.

  1. Sie können die Felder Testfallname, Tags und Hinweis bearbeiten oder neue Tracking-Parameter hinzufügen.

  2. Klicken Sie auf Speichern.

Klicken Sie auf den Tab User Input (Nutzereingabe), um die Nutzereingabe für den Test zu bearbeiten.

  1. Nutzereingaben im JSON-Format hinzufügen, entfernen oder bearbeiten.

  2. Klicken Sie auf Bestätigen. Ein automatischer Test wird gestartet und die aktualisierte Unterhaltung wird angezeigt, nachdem der Test beendet ist.

  3. Klicken Sie auf Speichern, um den ursprünglichen goldenen Testfall zu überschreiben, oder klicken Sie auf Speichern unter, um einen neuen Testfall mit den Änderungen zu erstellen.

Testabdeckung ansehen

Wenn Sie einen Bericht zur Testabdeckung für alle Testfälle abrufen möchten, klicken Sie auf Abdeckung.

Die Seite Abdeckung enthält die folgenden Tabs:

  • Die Übergangsabdeckung wird für alle Zunstands-Handler (ohne Routengruppen) mit einem Übergangsziel festgelegt, das vom Testfall ausgeführt wird. Der Quellablauf/die Quellseite und der Übergangszielablauf/die Übergangszielseite sind in der Tabelle aufgeführt.

  • Die Intents-Abdeckung wird für alle Intents ermittelt, die mit dem Testfall übereinstimmen.

  • Die Routinggruppen wird für alle Routengruppen bestimmt, die mit dem Testfall übereinstimmen.

Testläufe importieren und exportieren

So exportieren Sie Testfälle:

  1. Wählen Sie Testfälle aus und klicken Sie auf Exportieren oder auf Alle Testfälle exportieren.
  2. Klicken Sie auf Als lokale Datei herunterladen oder geben Sie einen Cloud Storage-Bucket-URI an und klicken Sie auf Nach Google Cloud Storage exportieren.

So importieren Sie Testfälle:

  1. Klicken Sie auf Importieren.
  2. Wählen Sie eine lokale Datei aus oder geben Sie einen Cloud Storage-Bucket-URI an.