Kurzanleitung: Überprüfung abschließen

Jeder Prozessor erstellt eine „HITL-Aufgabe“, die einem Pool von menschlichen Labelern (Labeler Pool) zugewiesen wird, die die vom Prozessor verarbeiteten Dokumente überprüfen. Nach der Verarbeitung werden diese Dokumente vom zugewiesenen Labeler-Pool in der Aufgabe für die HITL-Überprüfung in die Warteschlange gestellt.

Hinweise

Führen Sie die vorherige Kurzanleitung: Manuelle Überprüfung konfigurieren aus, bevor Sie fortfahren.

Labeler hinzufügen

  1. Nach der Konfiguration der manuellen Überprüfung sollten Sie eine E-Mail erhalten, die in etwa so aussieht:
From: AI Platform <noreply-aiplatform@google.com>\
Subject: Added to AI Platform SpecialistPool Test Labeler Group

Hello AI Platform Customer,

You are added as a manager to specialist pool
cloudml_data_specialists_us_central1_785484070008756xxxx.
To view details, visit Manager console
https://datacompute.google.com/cm/

Sincerely,
The Google Cloud AI Team
  1. Klicken Sie auf den Link in der E-Mail oder kopieren Sie ihn und fügen Sie ihn in Ihren Browser ein, um die Seite „Verwaltung“ aufzurufen:

  2. Die vom neu erstellten Prozessor erstellte Aufgabe hat denselben Namen wie der Prozessor (z. B. „Rechnungen für Abteilung A“) und wird auf dem Tab „Aufgaben“ aufgeführt.

  3. Klicken Sie auf den Tab „Labeler“.

  4. Klicken Sie auf „Bearbeiter hinzufügen“ und fügen Sie mindestens einen Bearbeiter (E-Mail-Adresse) hinzu. Ein Administrator kann ein Labeler sein. Sie können sich also selbst hinzufügen.

  5. Bei einem neu erstellten Labeler-Pool muss die Aufgabe dem einzelnen Labeler auf dem Tab „Aufgaben“ explizit zugewiesen werden. Das Hinzufügen des Labeler-Pools weist diesen neuen Labelern die Aufgabe also nicht automatisch zu. Wenn im Labeler-Pool bereits Labeler bereitgestellt wurden, wird der Pool automatisch der Aufgabe zugewiesen.

Erstes Dokument zur Überprüfung posten

  1. Senden Sie ein Dokument zur Extraktion über den erstellten Prozessor. Weitere Informationen findest du in den Anleitungen. Sowohl Online- (synchron) als auch Batch-Aufrufe (asynchron) unterstützen derzeit das Routing zur manuellen Überprüfung für unterstützte Prozessoren.

    Zu Testzwecken können Sie entweder eine bekanntermaßen schlechte Extraktion verwenden, um die manuelle Überprüfung auszulösen, wenn der Konfidenzwert unter dem Grenzwert liegt, oder Sie können den Grenzwert auf 100 % festlegen. Die Dokumentlimits betragen in der Regel 5 Seiten, maximal 20 MB. Prüfen Sie jedoch die spezifischen Limits des jeweiligen Prozessors.

    Es gibt eine API, mit der jedes Dokument, das zur manuellen Überprüfung weitergeleitet wird, nachverfolgt werden kann. Die Antwort der Auftragsverarbeiter enthält einen humanReviewOperation-String, der die Vorgangs-ID (Jobname) des Dokuments im Rahmen der manuellen Überprüfung ist. Der Status dieses Vorgangs mit langer Ausführungszeit (Long Running Operation, LRO) kann abgefragt werden.

    Sie können den Status eines Dokuments, das zur manuellen Überprüfung weitergeleitet wurde, mit der Methode projects.locations.operations.get abfragen.

  2. Mit der Methode reviewDocument können Sie erzwingen, dass ein Dokument manuell überprüft wird. Beachten Sie, dass diese Methode prozessorabhängig ist:

    Wenn Sie die reviewDocument-Methode verwenden möchten, muss das Kästchen MANUELLE ÜBERPRÜFUNG AKTIVIERT angeklickt sein. Die Konfigurationseinstellungen werden durch die Verwendung dieser API nicht überschrieben.

    Eine Anleitung dazu, wie Sie diese Methode verwenden, finden Sie im Hilfeartikel Manuelle Überprüfung beantragen.

Dokument prüfen

  1. Wenn das Dokument die manuelle Überprüfung auslöst, aber keine Labeler im Pool verfügbar sind, erhält der Manager eine E-Mail.

    > Hello AI Platform Customer,
    >
    > There is a running task for Project  with Job ID 404298342016955xxxx,\
    > Labeling Task ID cloudml_data_us_central1_prod_11b273b4dabdxxxx,\
    > Display name \
    > datalabeling-job-8005676103232389120-for-hitl-340697311810578xxxx,\
    > replication count 1\
    > Please see attachment for instruction.\
    > Please add labelers and have them finish the task at Labeler console \
    > [https://datacompute.google.com/w/cloudml_data_specialists_us_central1_7854840700087566336](https://datacompute.google.com/w/cloudml_data_specialists_us_central1_7854840700087566336){: target="external" class="external" track-type="quickstart" track-name="externalLink" track-metadata-position="body" }.\
    > To view details, visit Manager console \
    > [https://datacompute.google.com/cm/cloudml_data_specialists_us_central1_7854840700087566336/tasks](https://datacompute.google.com/cm/cloudml_data_specialists_us_central1_7854840700087566336/tasks){: target="external" class="external" track-type="quickstart" track-name="externalLink" track-metadata-position="body" }.
    >
    > Sincerely,\
    The Google Cloud AI Team
    

Über diese Links kann der Labeling Manager Aufgaben zur Labelerstellung zuweisen.

  1. Wenn die Labeler nicht in der Labeling Group registriert sind und neu hinzugefügt werden, muss der Labeling Manager eine ähnliche E-Mail mit einer Anleitung an die hinzugefügten Labeler senden.

Schritte für Labeler

Verfahren für Labeler

  1. E-Mail-Adresse des Labelers

    Wenn ein Bearbeiter in Schritt 2e bereits in einer Labelsgruppe registriert ist, erfolgt die Zuordnung automatisch und er erhält eine E-Mail wie diese:

    Image

    Über den Link in dieser E-Mail kann der ausgewählte Labeler das Dokument beschriften.

  2. Labelaktionen:

    Wenn ein Labeler auf den Link zum Labeln klickt, wird die unten abgebildete Benutzeroberfläche für die interaktive KI-gestützte Überprüfung durch Menschen angezeigt. Die gelb hervorgehobenen Zeilen sind die Zeilen, die die Validierung nicht bestehen (d. h. sie liegen unter dem konfigurierten Schwellenwert für den Konfidenzwert) und müssen überprüft werden.

    Image

  3. Überprüfung Wenn Sie den Mauszeiger auf ein erkanntes Textfeld bewegen, wird der erkannte Text und (in kleinerer Schrift darunter) der Name des Felds (Schema) angezeigt. Die Zeile wird auch im linken Bereich hervorgehoben.

    Der Nutzer kann mit den Lupensymbolen links oben in der Symbolleiste heran- und herauszoomen.

    Image

  4. Feld ändern

    Sie können das Feld bearbeiten, indem Sie links darauf klicken:

    Sie können den Wert oder das Label im linken Bereich ändern. Klicken Sie dann auf Anwenden.

    ODER: Sie können auf eines der Symbole in den Ecken des Dokumentenbilds klicken, um die Größe des Begrenzungsrahmens um den Dokumententext zu ändern:

    Wie dargestellt, ändert sich der Text im Feld „Wert“ im linken Bereich, wenn ein anderer Text ausgewählt wird. Sie können diesen Text bei Bedarf weiter bearbeiten. Klicken Sie dann auf Anwenden.

    Überprüfen Sie alle Seiten mithilfe der Seitensteuerung oben rechts.

Nachdem Sie alle erforderlichen Labeländerungen vorgenommen haben, klicken Sie unten links auf SENDEN. Die JSON-Ergebnisse werden im Ordner „Ergebnisspeicherort“ gespeichert.

Wenn das Dokument nicht zufriedenstellend gekennzeichnet werden kann, können Sie unten links auf ABLEHNEN klicken und dann einen Grund für die Ablehnung des Dokuments auswählen: – Wählen Sie einen Grund aus und klicken Sie dann auf Dokument ablehnen.

Bearbeiter können auch auf die folgenden Symbole oben rechts klicken:

  • Analysen: Hier sehen Sie, wie viele Dokumente die Person geprüft hat (Antworten) und wie lange sie dafür insgesamt gebraucht hat.
  • Benachrichtigungen: Hier werden alle Benachrichtigungen angezeigt, die der Nutzer erhalten hat.
  • Dreipunkt-Menü: Sie können das Dokument überspringen, Antworten finden oder Feedback geben (falls aktiviert).
  • Titelleiste ein-/ausblenden (diagonale Pfeile): Dadurch wird die DataCompute-Titelleiste ausgeblendet (oder eingeblendet), um mehr Platz zu schaffen.

Labeling Manager

Dokument aus Cloud Storage prüfen

Wenn Sie das Dokument prüfen möchten, haben Sie zwei Möglichkeiten:

  • Methode 1:

    1. Cloud Storage an zuvor konfiguriertem Speicherort suchen
    2. Dokumente abrufen und herunterladen
  • Methode 2:

    1. URI zum Abrufen des Dokuments aus der Antwort der Vorhersage merken
    2. URI aufrufen, um das überprüfte Dokument abzurufen

Nächste Schritte