Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Voici quelques concepts et fonctionnalités utilisés dans ce produit :
Concept
Définition
Récapitulatif
Processus de comparaison visuelle des valeurs de champ extraites avec les valeurs réelles du document, et de correction des extractions incorrectes ou d'ajout des champs extraits manquants par les processeurs DocAI.
Étiqueteur
Personne qui examine le document extrait. Le client peut utiliser son propre personnel (Bring-your-own-labeler ou BYOL) ou les étiqueteurs Google pour l'examen HITL.
Tâche
File d'attente des documents extraits que les étiqueteurs examinent. Un processeur génère une seule tâche lorsqu'il est configuré pour l'examen HITL.
Workbench de l'étiqueteur
Interface utilisateur utilisée par un étiqueteur pour examiner des documents. L'UI présente les documents de la file d'attente que l'annotateur peut examiner, corriger, puis envoyer ou refuser.
Les annotateurs BYOL doivent disposer d'un compte Google Workforce ou Gmail pour accéder à l'interface utilisateur d'annotation.
Les annotateurs peuvent accéder à l'atelier via un lien envoyé par e-mail par le responsable de l'annotation lors de l'attribution de la tâche.
Temps de réponse
Il s'agit du temps nécessaire à un annotateur pour traiter un document. L'atelier d'étiquetage suit le temps d'envoi des documents et présente des analyses d'efficacité (par exemple, pour l'examen des documents par chaque étiqueteur).
Gestionnaire de libellés
Un ou plusieurs responsables de l'étiquetage sont attribués à un pool d'étiqueteurs. Ils peuvent ainsi :
Ajoutez ou supprimez des annotateurs dans des pools d'annotateurs.
Attribuer ou retirer des tâches à un annotateur Un responsable des annotateurs a accès à toutes les tâches du projet. Ils peuvent modifier les tâches attribuées aux annotateurs en fonction de l'évolution des priorités.
Suspendez les tâches pour que les annotateurs puissent travailler sur les tâches suivantes qui leur sont attribuées.
Dans le scénario BYOL, les responsables du libellé sont fournis par le client.
Lorsque des étiqueteurs Google sont utilisés, Google fournit le gestionnaire d'étiquetage.
Interface utilisateur utilisée par un gestionnaire de libellés pour gérer les pools d'étiqueteurs et les tâches attribuées. Ouvrez la console.
Documents mis en file d'attente, traités, terminés et refusés dans une tâche
Une tâche est un workflow continu. Un document passe par les états suivants :
En file d'attente : à mesure que les documents sont traités par le processeur, ils sont enqueued (ajoutés) à la tâche HITL.
Répondu : lorsqu'un document est examiné, corrigé et envoyé par un annotateur, il est terminé et enregistré dans le bucket Cloud Storage configuré par le client.
Terminé : lorsqu'un document a été annoté par tous les annotateurs si la réplication est activée pour la tâche (plusieurs annotateurs travaillent sur chaque document de la tâche). Lorsque la tâche n'a pas de réplication ( examinée par un seul annotateur), Répondu équivaut à Terminé.
Refusé : un document peut être refusé s'il n'est pas valide (type de document différent, falsifié, etc.) ou s'il est de mauvaise qualité (reflets, bords coupés, etc.).
Une seule tâche par processeur
Nous n'acceptons pas plusieurs tâches par processeur. Si les clients doivent traiter un seul type de document (des factures, par exemple) dans différentes tâches, ils peuvent configurer plusieurs processeurs avec la révision HITL.
Attribution des tâches et pools d'étiqueteurs
Labeling Manager ajoute des annotateurs à un pool. Une fois les annotateurs ajoutés au pool, vous pouvez les attribuer à une tâche.
Notez que le "pool d'étiqueteurs" ne doit pas être confondu avec le "groupe" d'étiqueteurs attribué à une tâche. Un pool est géré au niveau d'un projet et permet de déterminer l'accès des annotateurs aux données analytiques et aux tâches. N'importe quel annotateur du pool peut être attribué à une ou plusieurs tâches du projet.
Pool d'étiqueteurs
Un pool d'annotateurs est créé au niveau du projet. Il ne doit pas être confondu avec les attributions de tâches. Le responsable de l'étiquetage peut attribuer n'importe quel étiqueteur à une tâche, ce qui permet à plusieurs étiqueteurs d'examiner les documents en parallèle et d'accomplir la tâche plus rapidement. Un pool d'annotateurs peut être attribué à n'importe quelle tâche du projet par le client.
Filtres et seuils de validation
Les champs extraits sont associés à un score de confiance (de 0 à 100) qui indique la fiabilité de l'extraction DocAI. Les clients peuvent configurer le seuil de validation pour chaque champ. Ainsi, seules les pages dont les champs sont en dessous de ce seuil sont mises en file d'attente pour examen. Les champs au-dessus du seuil ne sont pas mis en file d'attente.
Les clients peuvent configurer trois types de filtres de validation :
Filtre au niveau du champ : sélectionnez les champs importants à examiner et spécifiez un seuil de confiance pour chacun d'eux. Si ce seuil est défini sur 100 % pour un champ, toutes les pages contenant ce champ sont envoyées pour examen.
Filtre au niveau du document : sélectionnez un seuil de confiance global au niveau du document. Si un champ est en dessous du seuil, l'intégralité de la page est envoyée pour examen. Si ce seuil est défini sur 100 %, tous les documents prédits sont envoyés pour examen.
Aucun filtre : chaque document publié sur le point de terminaison HITL est envoyé pour examen.
Le responsable de l'étiquetage obtient des données analytiques pour chaque tâche et chaque étiqueteur, y compris les tâches en file d'attente, celles auxquelles il a été répondu, celles qui ont été ignorées, celles qui ont été effectuées, le temps de traitement moyen par document et le temps de réponse total.
Pour accéder aux données analytiques, accédez à l'onglet "Analytics" (Données analytiques) de la console du gestionnaire de libellés.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eDocument AI Human-in-the-Loop (HITL) is being deprecated and will no longer be available on Google Cloud after January 16, 2025, with new customers not being allowlisted.\u003c/p\u003e\n"],["\u003cp\u003eReview is the process of comparing extracted field values against actual document values, correcting errors, or adding missing extractions.\u003c/p\u003e\n"],["\u003cp\u003eA Labeler is the individual responsible for reviewing the extracted document data, and can be either part of the customer's workforce (BYOL) or provided by Google.\u003c/p\u003e\n"],["\u003cp\u003eA Labeling Manager is responsible for adding or removing labelers, assigning or unassigning tasks to labelers, and pausing tasks as needed, utilizing the Labeling Manager Console to do so.\u003c/p\u003e\n"],["\u003cp\u003eTasks are a queue of documents for labelers to review, and each document goes through states such as Enqueued, Answered, Completed, or Rejected, depending on the labeler's actions and the document's validity.\u003c/p\u003e\n"]]],[],null,["# Concepts\n========\n\n\n| **Caution** : Document AI Human-in-the-Loop is deprecated and will no longer be available on Google Cloud after January 16, 2025. New customers are not allowlisted. If you want to use (HITL) but don't see the option available, contact your Google Account team. \n|\n| To implement a human review and correction solution that meets your requirements, we recommend working with a Google Cloud certified partner like Devoteam, Searce, or Quantiphi. See [Deprecations](/document-ai/docs/deprecation) for details.\n\n\u003cbr /\u003e\n\nFollowing are some concepts and features used in this product:"]]