Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
El extractor personalizado extrae entidades de documentos de un tipo particular. Por ejemplo, puede extraer los elementos de un menú o el nombre y la información de contacto de un currículum.
Descripción general
El objetivo del extractor personalizado es permitir que los usuarios de Document AI creen soluciones de extracción de entidades personalizadas para nuevos tipos de documentos para los que no hay procesadores previamente entrenados disponibles. El extractor personalizado incluye una combinación de modelos de aprendizaje profundo que tienen en cuenta el diseño (para modelos personalizados y de IA generativa) y modelos basados en plantillas.
¿Qué método de entrenamiento debo usar?
El extractor personalizado admite una amplia variedad de casos de uso con tres modos diferentes.
Método de entrenamiento
Ejemplos de documentos
Variación del diseño del documento
Texto o párrafos de formato libre
Cantidad de documentos de entrenamiento para una calidad lista para la producción, según la variabilidad
Modelo de ajuste y de base (IA generativa)
Contrato, condiciones del servicio, factura, estado de cuenta, conocimiento de embarque o comprobantes de pago
De mayor a menor (opción preferida)
Alto.
Mediana: De 0 a más de 50 documentos
Modelo personalizado.
Modelo.
Formularios similares con variación de diseño entre años o proveedores (por ejemplo, el W9)
De baja a media.
Baja.
Alta: De 10 a más de 100 documentos
Plantilla.
Formularios fiscales con un diseño fijo (por ejemplo, los formularios 941 y 709)
Ninguno
Baja.
Baja (3 documentos).
Dado que los modelos de base suelen requerir menos documentos de entrenamiento, se recomiendan como la primera opción para todos los diseños de variables.
Puntuación de confianza
La puntuación de confianza comunica la intensidad con la que tu modelo asocia cada entidad con el valor predicho. El valor se encuentra entre cero y uno. Cuanto más cerca esté de uno, mayor será la confianza del modelo en que el valor corresponde a la entidad.
Esto permite que los usuarios establezcan activadores para la revisión manual de entidades individuales cuando el valor es bajo. Por ejemplo, determinar si el texto de una entidad es "Hello, world!" o "HeIIo vvorld!"
Los beneficios de este enfoque permiten detectar entidades individuales con un nivel de confianza bajo, establecer umbrales para las predicciones que se usan, seleccionar el umbral de confianza óptimo y desarrollar nuevas estrategias para entrenar modelos con puntuaciones de confianza y precisión más altas.
Para obtener más información sobre los conceptos y las métricas de evaluación, consulta Evalúa el rendimiento.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eCustom extractors are designed to identify and extract specific entities from various document types, including menus and resumes, for which pre-trained processors may not exist.\u003c/p\u003e\n"],["\u003cp\u003eThe custom extractor employs a combination of layout-aware deep learning models and template-based models to accommodate diverse document structures.\u003c/p\u003e\n"],["\u003cp\u003eThree training methods are available for the custom extractor: fine-tuning with foundation models, custom models, and template-based models, each suited for different levels of document layout variability.\u003c/p\u003e\n"],["\u003cp\u003eFoundation models are the preferred training option for documents with variable layouts, as they typically require fewer training documents compared to other methods.\u003c/p\u003e\n"],["\u003cp\u003eThe confidence score, ranging from zero to one, indicates the model's certainty in associating a value with a predicted entity, enabling users to set review thresholds and improve model accuracy.\u003c/p\u003e\n"]]],[],null,["# Custom extractor overview\n=========================\n\nCustom extractor extracts entities from documents of a particular type. For\nexample, it can extract the items in a menu or the name and contact information\nfrom a resume.\n\nOverview\n--------\n\nThe goal of the custom extractor is to enable Document AI users to build\ncustom entity extraction solutions for new document\ntypes for which no pre-trained processors are available. Custom extractor includes\na combination of layout-aware deep learning models (for generative AI and custom\nmodels) and template-based models.\n\nWhich training method should I use?\n-----------------------------------\n\nCustom extractor supports a wide range of use cases with three different modes.\n\nBecause foundation models typically require fewer training documents, they're\nrecommended as the first option for all variable layouts.\n\nConfidence score\n----------------\n\nThe confidence score communicates how strongly your model associates each entity\nwith the predicted value. The value is between zero and one, the closer it is to\none, the higher the model's confidence that the value corresponds to the entity.\nThis allows users to set triggers for manual review of individual entities when\nthe value is low. For example, determining whether the text in an entity is\n\"Hello, world!\" or \"HeIIo vvorld!\"\n\nThe benefits of this approach allow for spotting individual entities with low\nconfidence, setting thresholds for which predictions are used, selecting the\noptimal [confidence threshold](/document-ai/docs/evaluate#confidence_threshold), and development\nof new strategies for training models with higher accuracy and confidence scores.\n\nFor more information on evaluation concepts and metrics, see [Evaluate\nPerformance](/document-ai/docs/evaluate#all-labels)"]]