Reconocimiento óptico de caracteres (OCR) de una imagen: reconocimiento de texto y conversión a texto codificado automáticamente. Identifica y extrae texto UTF-8 de una imagen.
Imágenes: optimizadas para las zonas dispersas de texto dentro de una imagen más grande.
Respuesta: devuelve una lista de palabras identificadas con texto, cuadros delimitadores y textAnnotations, así como la jerarquía estructural del texto detectado por OCR (fullTextAnnotation).
Reconocimiento óptico de caracteres (OCR) de un archivo (PDF o TIFF) o de una imagen con mucho texto. Reconocimiento de texto denso y conversión a texto codificado automáticamente.
Archivos: optimizado para archivos de documentos (PDF o TIFF).
Imágenes: optimizada para las zonas densas de texto de una imagen (imágenes que son documentos) e imágenes que contienen escritura a mano.
Respuesta: devuelve la jerarquía estructural del texto detectado por OCR (fullTextAnnotation).
Proporciona etiquetas generales y anotaciones de cuadros delimitadores para varios objetos reconocidos en una sola imagen.
Por cada objeto detectado, se devuelven los siguientes elementos: una descripción textual, una puntuación de confianza y vértices normalizados [0,1] del polígono envolvente del objeto.
Proporciona un polígono delimitador de la imagen recortada, una puntuación de confianza y una fracción de importancia de esta región destacada con respecto a la imagen original en cada solicitud.
Puede proporcionar hasta 16 valores de relación de aspecto de imagen (anchura:altura) para una sola imagen.
Proporciona una serie de contenido web relacionado con una imagen.
Devuelve la siguiente información:
Entidades web: entidades inferidas (etiquetas o descripciones) a partir de imágenes similares en la Web.
Imágenes de coincidencia completa: una lista de URLs de imágenes de coincidencia completa
de cualquier tamaño en Internet.
Imágenes con coincidencias parciales: lista de URLs de imágenes que comparten características de puntos clave, como una versión recortada de la imagen original.
Páginas con imágenes coincidentes: lista de páginas web (identificadas por la URL de la página, el título de la página y la URL de la imagen coincidente) con una imagen que cumpla las condiciones descritas anteriormente.
Imágenes visualmente similares: una lista de URLs de imágenes que comparten algunas características con la imagen original.
Etiqueta de mejor opción: la mejor opción para el tema de la imagen solicitada, inferida a partir de imágenes similares en Internet.
Localiza caras con polígonos delimitadores e identifica puntos de referencia faciales específicos, como los ojos, las orejas, la nariz o la boca, entre otros, junto con sus valores de confianza correspondientes.
Devuelve las puntuaciones de probabilidad de las emociones
(alegría, tristeza, enfado y sorpresa) y las propiedades generales de la imagen
(subexpuesta, borrosa y con tocado).
Las clasificaciones de probabilidad se expresan
con 6 valores diferentes: UNKNOWN, VERY_UNLIKELY,
UNLIKELY, POSSIBLE, LIKELY o
VERY_LIKELY.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-08-20 (UTC)."],[],[],null,["# Features list\n\nVision API currently allows you to use the following features:\n\n^1.\n*Image credit* :\n[Nikolay Vorobyev](https://unsplash.com/photos/jaH3QF46gAY) on\n[Unsplash](https://unsplash.com/) (*annotations added* ).\n[↩](#ref1 \"Go to image.\")^\n\n^2.\n*Image credit* :\n[Robert Scoble](https://www.flickr.com/photos/scobleizer/4249731778/)\n([CC BY 2.0](https://creativecommons.org/licenses/by/2.0/), *annotation added* ).\n[↩](#ref2 \"Go to image.\")^\n\n^3.\n*Image credit* :\n[Alex Knight](https://unsplash.com/photos/wfwUpfVqrKU) on [Unsplash](https://unsplash.com/).\n[↩](#ref3 \"Go to image.\")^\n\n^4.\n*Image credit* :\n[Jeremy Bishop](https://unsplash.com/photos/QUwLZNchflk) on [Unsplash](https://unsplash.com/).\n[↩](#ref4 \"Go to image.\")^\n\n^5.\n*Image credit:*\n[Bogdan Dada](https://unsplash.com/photos/J9cBJjlpYKU) on [Unsplash](https://unsplash.com/)\n(*annotations added* ).\n[↩](#ref5 \"Go to image.\")^\n\n^6.\n*Image credit* :\n[Yasmin Dangor](https://images.unsplash.com/photo-1526398018-f9ee0723f228?ixlib=rb-1.2.1&auto=format&fit=crop&w=1400&q=80) on [Unsplash](https://unsplash.com/) (*original and cropped image shown* ).\n[↩](#ref6 \"Go to image.\")^\n\n^7.\n*Image credit* :\n[Quinten de Graaf](https://unsplash.com/photos/KB0Ipylp7dc) on\n[Unsplash](https://unsplash.com/).\n[↩](#ref7 \"Go to image.\")^"]]