Method: images.annotate

Détecte et annote un lot d'images.

Requête HTTP

POST https://vision.googleapis.com/v1p3beta1/images:annotate

L'URL utilise la syntaxe de transcodage gRPC.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Représentation JSON
{
  "requests": [
    {
      object(AnnotateImageRequest)
    }
  ]
}
Champs
requests[]

object(AnnotateImageRequest)

Requêtes d'annotation d'images individuelles du lot.

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Réponse à une requête d'annotation d'image par lot.

Représentation JSON
{
  "responses": [
    {
      object(AnnotateImageResponse)
    }
  ]
}
Champs
responses[]

object(AnnotateImageResponse)

Réponses individuelles pour les requêtes d'annotation d'images du lot.

Niveaux d'accès des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-platform
  • https://www.googleapis.com/auth/cloud-vision

Pour en savoir plus, consultez la page Présentation de l'authentification.

AnnotateImageRequest

Requête permettant d'effectuer des tâches de l'API Google Cloud Vision sur une image fournie par l'utilisateur, avec des fonctionnalités demandées par l'utilisateur.

Représentation JSON
{
  "image": {
    object(Image)
  },
  "features": [
    {
      object(Feature)
    }
  ],
  "imageContext": {
    object(ImageContext)
  }
}
Champs
image

object(Image)

Image à traiter.

features[]

object(Feature)

Fonctionnalités demandées.

imageContext

object(ImageContext)

Contexte supplémentaire pouvant accompagner l'image.

Image

Image client sur laquelle effectuer les tâches de l'API Google Cloud Vision.

Représentation JSON
{
  "content": string,
  "source": {
    object(ImageSource)
  }
}
Champs
content

string (bytes format)

Contenu de l'image représenté sous forme de flux d'octets. Remarque : comme pour tous les champs bytes, les protobuffers utilisent une représentation binaire pure, tandis que les représentations JSON sont encodées en base64.

Chaîne encodée en base64.

source

object(ImageSource)

Emplacement de l'image Google Cloud Storage ou URL de l'image accessible au public. Si une image contient les champs content et source, content est prioritaire et est utilisé pour effectuer la requête d'annotation d'image.

ImageSource

Source externe de l'image (emplacement Google Cloud Storage ou URL Web).

Représentation JSON
{
  "gcsImageUri": string,
  "imageUri": string
}
Champs
gcsImageUri

string

Utilisez plutôt imageUri.

URI Google Cloud Storage au format gs://bucket_name/object_name. La gestion des versions d'objets n'est pas acceptée. Pour en savoir plus, consultez la page URI de requêtes Google Cloud Storage.

imageUri

string

URI de l'image source. Peut être soit :

  1. Un URI Google Cloud Storage au format gs://bucket_name/object_name. La gestion des versions d'objets n'est pas acceptée. Pour en savoir plus, consultez la page URI de requêtes Google Cloud Storage.

  2. URL d'image HTTP/HTTPS accessible au public. Lorsque les images sont récupérées par le biais d'URL HTTP/HTTPS, Google ne peut pas garantir que la requête sera traitée. La requête peut échouer si l'hébergeur la rejette (par exemple, en raison de mesures de limitation du trafic ou de protection contre les attaques DoS) ou si Google limite l'accès au site afin d'empêcher tout abus. Vos applications de production ne doivent pas dépendre d'images hébergées en externe.

Lorsque les champs gcsImageUri et imageUri sont spécifiés, imageUri est prioritaire.

AnnotateImageResponse

Réponse à une requête d'annotation d'images.

Représentation JSON
{
  "faceAnnotations": [
    {
      object(FaceAnnotation)
    }
  ],
  "landmarkAnnotations": [
    {
      object(EntityAnnotation)
    }
  ],
  "logoAnnotations": [
    {
      object(EntityAnnotation)
    }
  ],
  "labelAnnotations": [
    {
      object(EntityAnnotation)
    }
  ],
  "localizedObjectAnnotations": [
    {
      object(LocalizedObjectAnnotation)
    }
  ],
  "textAnnotations": [
    {
      object(EntityAnnotation)
    }
  ],
  "fullTextAnnotation": {
    object(TextAnnotation)
  },
  "safeSearchAnnotation": {
    object(SafeSearchAnnotation)
  },
  "imagePropertiesAnnotation": {
    object(ImageProperties)
  },
  "cropHintsAnnotation": {
    object(CropHintsAnnotation)
  },
  "webDetection": {
    object(WebDetection)
  },
  "productSearchResults": {
    object(ProductSearchResults)
  },
  "error": {
    object(Status)
  },
  "context": {
    object(ImageAnnotationContext)
  }
}
Champs
faceAnnotations[]

object(FaceAnnotation)

Si ce champ est présent, la détection de visages a bien été effectuée.

landmarkAnnotations[]

object(EntityAnnotation)

Si ce champ est présent, la détection de points de repère a bien été effectuée.

logoAnnotations[]

object(EntityAnnotation)

Si ce champ est présent, la détection de logos a bien été effectuée.

labelAnnotations[]

object(EntityAnnotation)

Si ce champ est présent, la détection de thèmes a bien été effectuée.

localizedObjectAnnotations[]

object(LocalizedObjectAnnotation)

Si ce champ est présent, la détection d'objets localisés a bien été effectuée. Les données sont triées par ordre de score de confiance décroissant.

textAnnotations[]

object(EntityAnnotation)

Si ce champ est présent, la détection de texte (OCR) a bien été effectuée.

fullTextAnnotation

object(TextAnnotation)

Si ce champ est présent, la détection de texte (OCR) ou de document (OCR) a bien été effectuée. Cette annotation fournit la hiérarchie structurelle du texte détecté par l'OCR.

safeSearchAnnotation

object(SafeSearchAnnotation)

Si ce champ est présent, l'annotation de recherche sécurisée a bien été effectuée.

imagePropertiesAnnotation

object(ImageProperties)

Si ce champ est présent, les propriétés de l'image ont bien été extraites.

cropHintsAnnotation

object(CropHintsAnnotation)

Si ce champ est présent, les suggestions de cadrage ont bien été effectuées.

webDetection

object(WebDetection)

Si ce champ est présent, la détection Web a bien été effectuée.

productSearchResults

object(ProductSearchResults)

Si ce champ est présent, la recherche de produits a bien été effectuée.

error

object(Status)

Si ce champ est défini, il présente le message d'erreur de l'opération. Notez que les annotations d'images préremplies sont assurément correctes, même lorsque error est défini.

context

object(ImageAnnotationContext)

Si ce champ est présent, des informations contextuelles sont nécessaires pour comprendre d'où provient cette image.

FaceAnnotation

Objet d'annotation de visage contenant les résultats de la détection de visages.

Représentation JSON
{
  "boundingPoly": {
    object(BoundingPoly)
  },
  "fdBoundingPoly": {
    object(BoundingPoly)
  },
  "landmarks": [
    {
      object(Landmark)
    }
  ],
  "rollAngle": number,
  "panAngle": number,
  "tiltAngle": number,
  "detectionConfidence": number,
  "landmarkingConfidence": number,
  "joyLikelihood": enum(Likelihood),
  "sorrowLikelihood": enum(Likelihood),
  "angerLikelihood": enum(Likelihood),
  "surpriseLikelihood": enum(Likelihood),
  "underExposedLikelihood": enum(Likelihood),
  "blurredLikelihood": enum(Likelihood),
  "headwearLikelihood": enum(Likelihood)
}
Champs
boundingPoly

object(BoundingPoly)

Polygone de délimitation autour du visage. Les coordonnées du cadre de délimitation sont à l'échelle de l'image d'origine, comme indiqué dans ImageParams. Le cadre de délimitation est agencé de manière à encadrer le visage conformément aux attentes humaines. Il s'appuie sur les résultats des points de repère. Notez qu'une ou plusieurs coordonnées x et/ou y peuvent ne pas être générées dans le champ BoundingPoly (le polygone est alors illimité) si l'image ne comporte qu'un visage partiel à annoter.

fdBoundingPoly

object(BoundingPoly)

Le polygone de délimitation fdBoundingPoly est plus précis que boundingPoly et ne contient que la partie du visage couverte de peau. Il sert généralement à supprimer le visage d'une analyse d'image qui détecte la "quantité de peau" visible sur une image. Il n'est pas basé sur les résultats des points de repère, mais uniquement sur la détection initiale du visage, d'où le

fd

préfixe (détection de visages).

landmarks[]

object(Landmark)

Points de repère détectés sur le visage.

rollAngle

number

Angle de rotation, indiquant la rotation du visage dans le sens des aiguilles d'une montre/dans le sens inverse des aiguilles d'une montre par rapport à l'alignement vertical de l'image sur l'axe perpendiculaire du visage. Plage [-180,180].

panAngle

number

Angle de lacet, indiquant l'angle vers la gauche/droite vers lequel pointe le visage par rapport à l'axe vertical perpendiculaire de l'image. Plage [-180,180].

tiltAngle

number

Angle d'inclinaison, indiquant l'angle vers le haut/bas vers lequel pointe le visage par rapport à l'axe horizontal de l'image. Plage [-180,180].

detectionConfidence

number

Niveau de confiance de la détection. Plage [0, 1].

landmarkingConfidence

number

Niveau de confiance des points de repère du visage. Plage [0, 1].

joyLikelihood

enum(Likelihood)

Probabilité de joie.

sorrowLikelihood

enum(Likelihood)

Probabilité de tristesse.

angerLikelihood

enum(Likelihood)

Probabilité de colère.

surpriseLikelihood

enum(Likelihood)

Probabilité de surprise.

underExposedLikelihood

enum(Likelihood)

Probabilité de sous-exposition.

blurredLikelihood

enum(Likelihood)

Probabilité de flou.

headwearLikelihood

enum(Likelihood)

Probabilité de port d'accessoires.

Landmark

Point de repère spécifique au visage (par exemple, une caractéristique du visage).

Représentation JSON
{
  "type": enum(Type),
  "position": {
    object(Position)
  }
}
Champs
type

enum(Type)

Type de point de repère du visage.

position

object(Position)

Position du point de repère du visage.

Type

Type de point de repère (caractéristique). Les orientations à gauche et à droite sont définies en fonction du point de vue du lecteur de l'image, sans tenir compte des projections miroirs classiques des photos. Ainsi, LEFT_EYE correspond généralement à l'œil droit de la personne.

Enums
UNKNOWN_LANDMARK Point de repère de visage inconnu détecté. Ne doit pas être rempli.
LEFT_EYE Œil gauche.
RIGHT_EYE Œil droit.
LEFT_OF_LEFT_EYEBROW Côté gauche du sourcil gauche.
RIGHT_OF_LEFT_EYEBROW Côté droit du sourcil gauche.
LEFT_OF_RIGHT_EYEBROW Côté gauche du sourcil droit.
RIGHT_OF_RIGHT_EYEBROW Côté droit du sourcil droit.
MIDPOINT_BETWEEN_EYES Point médian entre les yeux.
NOSE_TIP Bout du nez.
UPPER_LIP Lèvre supérieure.
LOWER_LIP Lèvre inférieure.
MOUTH_LEFT Côté gauche de la bouche.
MOUTH_RIGHT Côté droit de la bouche.
MOUTH_CENTER Centre de la bouche.
NOSE_BOTTOM_RIGHT Nez, en bas à droite.
NOSE_BOTTOM_LEFT Nez, en bas à gauche.
NOSE_BOTTOM_CENTER Nez, en bas au centre.
LEFT_EYE_TOP_BOUNDARY Œil gauche, limite supérieure.
LEFT_EYE_RIGHT_CORNER Œil gauche, coin droit.
LEFT_EYE_BOTTOM_BOUNDARY Œil gauche, limite inférieure.
LEFT_EYE_LEFT_CORNER Œil gauche, coin gauche.
RIGHT_EYE_TOP_BOUNDARY Œil droit, limite supérieure.
RIGHT_EYE_RIGHT_CORNER Œil droit, coin droit.
RIGHT_EYE_BOTTOM_BOUNDARY Œil droit, limite inférieure.
RIGHT_EYE_LEFT_CORNER Œil droit, coin gauche.
LEFT_EYEBROW_UPPER_MIDPOINT Sourcil gauche, point médian supérieur.
RIGHT_EYEBROW_UPPER_MIDPOINT Sourcil droit, point médian supérieur.
LEFT_EAR_TRAGION Tragus de l'oreille gauche.
RIGHT_EAR_TRAGION Tragus de l'oreille droite.
LEFT_EYE_PUPIL Pupille de l'œil gauche.
RIGHT_EYE_PUPIL Pupille de l'œil droit.
FOREHEAD_GLABELLA Glabelle.
CHIN_GNATHION Gnathion du menton.
CHIN_LEFT_GONION Gonion à gauche du menton.
CHIN_RIGHT_GONION Gonion à droite du menton.

Poste

Position en 3D dans l'image, servant principalement pour les points de repère de la détection de visages. Une position valide doit contenir des coordonnées x et y. Les coordonnées de position sont à la même échelle que l'image d'origine.

Représentation JSON
{
  "x": number,
  "y": number,
  "z": number
}
Champs
x

number

Coordonnées X.

y

number

Coordonnées Y.

z

number

Coordonnées Z (ou profondeur).

Likelihood

Représentation divisée en buckets selon le degré de vraisemblance, ce qui permet d'offrir aux clients des résultats très stables entre les mises à niveau de modèles.

Enums
UNKNOWN Probabilité inconnue.
VERY_UNLIKELY Il est très peu probable que l'image appartienne au secteur spécifié.
UNLIKELY Il est peu probable que l'image appartienne au secteur spécifié.
POSSIBLE Il est possible que l'image appartienne au secteur spécifié.
LIKELY Il est probable que l'image appartienne au secteur spécifié.
VERY_LIKELY Il est très probable que l'image appartienne au secteur spécifié.

EntityAnnotation

Ensemble des caractéristiques d'entités détectées.

Représentation JSON
{
  "mid": string,
  "locale": string,
  "description": string,
  "score": number,
  "confidence": number,
  "topicality": number,
  "boundingPoly": {
    object(BoundingPoly)
  },
  "locations": [
    {
      object(LocationInfo)
    }
  ],
  "properties": [
    {
      object(Property)
    }
  ]
}
Champs
mid

string

ID d'entité opaque. Certains identifiants sont disponibles dans l'API Google Knowledge Graph Search.

locale

string

Code de langue des paramètres régionaux dans lequel la description textuelle de l'entité est exprimée.

description

string

Description textuelle de l'entité, exprimée dans sa langue locale.

score

number

Score global du résultat. Plage [0, 1].

confidence
(deprecated)

number

Obsolète. Utilisez plutôt score. Précision de la détection d'entités dans une image. Prenons l'exemple d'une image dans laquelle l'entité "Tour Eiffel" est détectée. Ce champ représente le niveau de confiance pour qu'une tour figure dans l'image de la requête. Plage [0, 1].

topicality

number

Pertinence du libellé ICA (Image Content Annotation) par rapport à l'image. Par exemple, la pertinence de l'entité "tour" est probablement plus élevée pour une image sur laquelle la "Tour Eiffel" a été détectée que pour une image contenant un imposant bâtiment à distance, même si la probabilité pour qu'une tour soit présente sur chaque image puisse être identique. Plage [0, 1].

boundingPoly

object(BoundingPoly)

Zone de l'image à laquelle appartient cette entité. Champ non généré pour les fonctionnalités LABEL_DETECTION.

locations[]

object(LocationInfo)

Informations concernant la localisation de l'entité détectée. Plusieurs éléments LocationInfo peuvent être présents, car un emplacement peut faire référence à un lieu représenté sur l'image et un autre à l'endroit où l'image a été prise. Des informations concernant la localisation sont généralement disponibles pour les points de repère.

properties[]

object(Property)

Certaines entités peuvent inclure des champs Property (nom/valeur) facultatifs fournis par l'utilisateur, tels qu'un score ou une chaîne qualifiant l'entité.

LocationInfo

Informations sur l'emplacement de l'entité détectée.

Représentation JSON
{
  "latLng": {
    object(LatLng)
  }
}
Champs
latLng

object(LatLng)

Coordonnées de latitude et de longitude de l'emplacement.

Valeur

Une propriété (Property) est constituée d'une paire nom/valeur fournie par l'utilisateur.

Représentation JSON
{
  "name": string,
  "value": string,
  "uint64Value": string
}
Champs
name

string

Nom de la propriété.

value

string

Valeur de la propriété.

uint64Value

string

Valeur des propriétés numériques.

LocalizedObjectAnnotation

Ensemble d'objets détectés avec des cadres de délimitation.

Représentation JSON
{
  "mid": string,
  "languageCode": string,
  "name": string,
  "score": number,
  "boundingPoly": {
    object(BoundingPoly)
  }
}
Champs
mid

string

ID d'objet conforme au champ "mid" d'EntityAnnotation.

languageCode

string

Le code de langue BCP-47, tel que "en-US" ou "sr-Latn". Pour en savoir plus, consultez la page http://www.unicode.org/reports/tr35/#Unicode_locale_identifier.

name

string

Nom d'objet, exprimé dans sa langue languageCode.

score

number

Score du résultat. Plage [0, 1].

boundingPoly

object(BoundingPoly)

Zone de l'image à laquelle appartient cet objet. Ces informations doivent être renseignées.

TextAnnotation

TextAnnotation contient une représentation structurée du texte extrait par l'OCR. La hiérarchie d'une structure de texte extraite par l'OCR se présente comme suit : TextAnnotation -> Page -> Bloc -> Paragraphe -> Mot -> Symbole. Chaque composant structurel, à partir de la page, peut également posséder ses propres propriétés. Les propriétés décrivent les langues détectées, les sauts, etc. Pour en savoir plus, consultez la définition du message TextAnnotation.TextProperty ci-dessous.

Représentation JSON
{
  "pages": [
    {
      object(Page)
    }
  ],
  "text": string
}
Champs
pages[]

object(Page)

Liste des pages détectées par l'OCR.

text

string

Texte UTF-8 détecté sur les pages.

Page

Page détectée par l'OCR.

Représentation JSON
{
  "property": {
    object(TextProperty)
  },
  "width": number,
  "height": number,
  "blocks": [
    {
      object(Block)
    }
  ],
  "confidence": number
}
Champs
property

object(TextProperty)

Informations supplémentaires détectées sur la page.

width

number

Largeur de la page. Pour les PDF, l'unité est exprimée en points. Pour les images (y compris au format TIFF), l'unité est exprimée en pixels.

height

number

Hauteur de la page. Pour les PDF, l'unité est exprimée en points. Pour les images (y compris au format TIFF), l'unité est exprimée en pixels.

blocks[]

object(Block)

Liste de blocs de texte, d'images, etc. sur la page.

confidence

number

Niveau de confiance des résultats de l'OCR sur la page. Plage [0, 1].

TextProperty

Informations supplémentaires détectées dans le composant structurel.

Représentation JSON
{
  "detectedLanguages": [
    {
      object(DetectedLanguage)
    }
  ],
  "detectedBreak": {
    object(DetectedBreak)
  }
}
Champs
detectedLanguages[]

object(DetectedLanguage)

Liste des langues détectées en toute confiance.

detectedBreak

object(DetectedBreak)

Début ou fin d'un segment de texte détecté.

DetectedLanguage

Langue détectée d'un composant structurel.

Représentation JSON
{
  "languageCode": string,
  "confidence": number
}
Champs
languageCode

string

Le code de langue BCP-47, tel que "en-US" ou "sr-Latn". Pour en savoir plus, consultez la page http://www.unicode.org/reports/tr35/#Unicode_locale_identifier.

confidence

number

Niveau de confiance de la langue détectée. Plage [0, 1].

DetectedBreak

Début ou fin d'un composant structurel détecté.

Représentation JSON
{
  "type": enum(BreakType),
  "isPrefix": boolean
}
Champs
type

enum(BreakType)

Type de saut détecté.

isPrefix

boolean

La valeur est "true" si le saut est ajouté au début de l'élément.

BreakType

Énumération indiquant le type de saut détecté. Nouvelle ligne, espace, etc.

Enums
UNKNOWN Type de libellé de saut inconnu.
SPACE Espace standard.
SURE_SPACE Espace sûre (très large).
EOL_SURE_SPACE Saut de ligne.
HYPHEN Césure qui n'est pas présente dans le texte. Ce champ ne peut pas être utilisé avec SPACE, LEADER_SPACE ou LINE_BREAK.
LINE_BREAK Saut de ligne qui termine un paragraphe.

Bloquer

Élément logique sur la page.

Représentation JSON
{
  "property": {
    object(TextProperty)
  },
  "boundingBox": {
    object(BoundingPoly)
  },
  "paragraphs": [
    {
      object(Paragraph)
    }
  ],
  "blockType": enum(BlockType),
  "confidence": number
}
Champs
property

object(TextProperty)

Informations supplémentaires détectées pour le bloc.

boundingBox

object(BoundingPoly)

Cadre de délimitation du bloc. Les sommets sont présentés dans l'ordre suivant : en haut à gauche, en haut à droite, en bas à droite et en bas à gauche. Lorsqu'une rotation du cadre de délimitation est détectée, elle est représentée autour de l'angle supérieur gauche en suivant l'ordre naturel de lecture du texte. Exemple :

  • Lorsque le texte est horizontal, il peut se présenter sous la forme suivante :
    0----1
    |    |
    3----2
  • Lors d'une rotation à 180 degrés autour de l'angle supérieur gauche, il se présente sous la forme suivante :
    2----3
    |    |
    1----0

L'ordre des sommets est toujours (0, 1, 2, 3).

paragraphs[]

object(Paragraph)

Liste des paragraphes du bloc (s'il est de type texte).

blockType

enum(BlockType)

Type de bloc détecté (texte, image, etc.) pour le bloc.

confidence

number

Niveau de confiance des résultats de l'OCR dans le bloc. Plage [0, 1].

Paragraph

Unité structurelle de texte représentant un certain nombre de mots dans un ordre particulier.

Représentation JSON
{
  "property": {
    object(TextProperty)
  },
  "boundingBox": {
    object(BoundingPoly)
  },
  "words": [
    {
      object(Word)
    }
  ],
  "confidence": number
}
Champs
property

object(TextProperty)

Informations supplémentaires détectées pour le paragraphe.

boundingBox

object(BoundingPoly)

Cadre de délimitation du paragraphe. Les sommets sont présentés dans l'ordre suivant : en haut à gauche, en haut à droite, en bas à droite et en bas à gauche. Lorsqu'une rotation du cadre de délimitation est détectée, elle est représentée autour de l'angle supérieur gauche en suivant l'ordre naturel de lecture du texte. Par exemple : * lorsque le texte est horizontal, il peut se présenter sous la forme suivante : 0----1 | | 3----2 * lorsqu'il a été pivoté de 180 degrés autour de l'angle supérieur gauche, il se présente sous la forme suivante : 2----3 | | 1----0 et l'ordre des sommets est toujours (0, 1, 2, 3).

words[]

object(Word)

Liste des mots du paragraphe.

confidence

number

Niveau de confiance des résultats de l'OCR pour le paragraphe. Plage [0, 1].

Word

Représentation d'un mot.

Représentation JSON
{
  "property": {
    object(TextProperty)
  },
  "boundingBox": {
    object(BoundingPoly)
  },
  "symbols": [
    {
      object(Symbol)
    }
  ],
  "confidence": number
}
Champs
property

object(TextProperty)

Informations supplémentaires détectées pour le mot.

boundingBox

object(BoundingPoly)

Cadre de délimitation du mot. Les sommets sont présentés dans l'ordre suivant : en haut à gauche, en haut à droite, en bas à droite et en bas à gauche. Lorsqu'une rotation du cadre de délimitation est détectée, elle est représentée autour de l'angle supérieur gauche en suivant l'ordre naturel de lecture du texte. Par exemple : * lorsque le texte est horizontal, il peut se présenter sous la forme suivante : 0----1 | | 3----2 * lorsqu'il a été pivoté de 180 degrés autour de l'angle supérieur gauche, il se présente sous la forme suivante : 2----3 | | 1----0 et l'ordre des sommets sera toujours (0, 1, 2, 3).

symbols[]

object(Symbol)

Liste de symboles dans le mot. L'ordre des symboles suit l'ordre naturel de lecture.

confidence

number

Niveau de confiance des résultats de l'OCR pour le mot. Plage [0, 1].

Symbole

Représentation d'un seul symbole.

Représentation JSON
{
  "property": {
    object(TextProperty)
  },
  "boundingBox": {
    object(BoundingPoly)
  },
  "text": string,
  "confidence": number
}
Champs
property

object(TextProperty)

Informations supplémentaires détectées pour le symbole.

boundingBox

object(BoundingPoly)

Cadre de délimitation du symbole. Les sommets sont présentés dans l'ordre suivant : en haut à gauche, en haut à droite, en bas à droite et en bas à gauche. Lorsqu'une rotation du cadre de délimitation est détectée, elle est représentée autour de l'angle supérieur gauche en suivant l'ordre naturel de lecture du texte. Par exemple : * lorsque le texte est horizontal, il peut se présenter sous la forme suivante : 0----1 | | 3----2 * lorsqu'il a été pivoté de 180 degrés autour de l'angle supérieur gauche, il se présente sous la forme suivante : 2----3 | | 1----0 et l'ordre des sommets est toujours (0, 1, 2, 3).

text

string

Représentation actuelle du symbole en UTF-8.

confidence

number

Niveau de confiance des résultats de l'OCR pour le symbole. Plage [0, 1].

BlockType

Type de bloc (texte, image, etc.) tel qu'identifié par l'OCR.

Enums
UNKNOWN Type de bloc inconnu.
TEXT Bloc de texte standard.
TABLE Bloc de table.
PICTURE Bloc d'image.
RULER Zone de ligne horizontale/verticale.
BARCODE Bloc de code-barres.

SafeSearchAnnotation

Ensemble de caractéristiques liées à l'image, calculées à l'aide de méthodes de vision par ordinateur sur des domaines de recherche sécurisée (par exemple, contenu réservé aux adultes, spoofing, images médicales, violence).

Représentation JSON
{
  "adult": enum(Likelihood),
  "spoof": enum(Likelihood),
  "medical": enum(Likelihood),
  "violence": enum(Likelihood),
  "racy": enum(Likelihood)
}
Champs
adult

enum(Likelihood)

Représente la probabilité que l'image comprenne du contenu réservé aux adultes. Le contenu réservé aux adultes peut comporter des éléments tels que des scènes de nudité, des images ou des dessins animés à caractère pornographique, ou des activités à caractère sexuel.

spoof

enum(Likelihood)

Probabilité de spoofing. Probabilité qu'une modification ait été apportée à la version canonique de l'image pour la rendre amusante ou choquante.

medical

enum(Likelihood)

Probabilité de présence d'images médicales.

violence

enum(Likelihood)

Probabilité que l'image comprenne du contenu violent.

racy

enum(Likelihood)

Probabilité que l'image de la requête comporte du contenu pour adultes. Le contenu réservé aux adultes peut inclure, mais sans s'y limiter, des tenues courtes ou transparentes, des scènes de nudité habilement dissimulée, des poses obscènes ou provocantes, ou des gros plans de zones intimes du corps.

ImageProperties

Stocke les propriétés de l'image, telles que les couleurs dominantes.

Représentation JSON
{
  "dominantColors": {
    object(DominantColorsAnnotation)
  }
}
Champs
dominantColors

object(DominantColorsAnnotation)

Si ce champ est présent, les couleurs dominantes ont bien été identifiées.

DominantColorsAnnotation

Ensemble de couleurs dominantes et scores correspondants.

Représentation JSON
{
  "colors": [
    {
      object(ColorInfo)
    }
  ]
}
Champs
colors[]

object(ColorInfo)

Valeurs des couleurs RVB avec leur score et leur fraction en pixels.

ColorInfo

Les informations associées aux couleurs incluent les canaux RVB, les scores et la fraction de l'image sur laquelle la couleur est présente.

Représentation JSON
{
  "color": {
    object(Color)
  },
  "score": number,
  "pixelFraction": number
}
Champs
color

object(Color)

Composants RVB de la couleur.

score

number

Score de la couleur spécifique à l'image. Valeur comprise dans la plage [0, 1].

pixelFraction

number

Fraction de pixels sur laquelle la couleur est présente. Valeur comprise dans la plage [0, 1].

CropHintsAnnotation

Ensemble de suggestions de cadrage permettant de générer des cadrages lors de la diffusion d'images.

Représentation JSON
{
  "cropHints": [
    {
      object(CropHint)
    }
  ]
}
Champs
cropHints[]

object(CropHint)

Résultats de la suggestion de cadrage.

CropHint

Suggestion de cadrage unique permettant de générer un cadrage lors de la diffusion d'une image.

Représentation JSON
{
  "boundingPoly": {
    object(BoundingPoly)
  },
  "confidence": number,
  "importanceFraction": number
}
Champs
boundingPoly

object(BoundingPoly)

Polygone de délimitation de la zone cadrée. Les coordonnées du cadre de délimitation sont à l'échelle de l'image d'origine, comme indiqué dans ImageParams.

confidence

number

Niveau de confiance de l'importance de la zone. Plage [0, 1].

importanceFraction

number

Fraction d'importance de la région par rapport à l'image d'origine.

WebDetection

Informations pertinentes sur une image provenant d'Internet.

Représentation JSON
{
  "webEntities": [
    {
      object(WebEntity)
    }
  ],
  "fullMatchingImages": [
    {
      object(WebImage)
    }
  ],
  "partialMatchingImages": [
    {
      object(WebImage)
    }
  ],
  "pagesWithMatchingImages": [
    {
      object(WebPage)
    }
  ],
  "visuallySimilarImages": [
    {
      object(WebImage)
    }
  ],
  "bestGuessLabels": [
    {
      object(WebLabel)
    }
  ]
}
Champs
webEntities[]

object(WebEntity)

Entités issues d'images similaires sur Internet.

fullMatchingImages[]

object(WebImage)

Images identiques provenant d'Internet. Peut inclure des copies redimensionnées de l'image de la requête.

partialMatchingImages[]

object(WebImage)

Images à correspondance partielle provenant d'Internet. Ces images sont suffisamment similaires pour partager certaines fonctionnalités clés. Par exemple, une image d'origine peut avoir une correspondance partielle si elle est associée à une zone de recadrage.

pagesWithMatchingImages[]

object(WebPage)

Pages Web contenant les images correspondantes issues d'Internet.

visuallySimilarImages[]

object(WebImage)

Résultats d'images visuellement similaires.

bestGuessLabels[]

object(WebLabel)

Meilleure estimation du service par rapport au thème de l'image de la requête. Elle est déduite à partir d'images similaires sur le Web ouvert.

WebEntity

Entité extraite d'images similaires sur Internet.

Représentation JSON
{
  "entityId": string,
  "score": number,
  "description": string
}
Champs
entityId

string

ID d'entité opaque.

score

number

Score de pertinence global de l'entité. Non normalisé et non comparable entre différentes requêtes d'images.

description

string

Description canonique de l'entité en anglais.

WebImage

Métadonnées des images en ligne.

Représentation JSON
{
  "url": string,
  "score": number
}
Champs
url

string

URL de l'image du résultat.

score

number

(Obsolète) Score de pertinence global de l'image.

WebPage

Métadonnées des pages Web.

Représentation JSON
{
  "url": string,
  "score": number,
  "pageTitle": string,
  "fullMatchingImages": [
    {
      object(WebImage)
    }
  ],
  "partialMatchingImages": [
    {
      object(WebImage)
    }
  ]
}
Champs
url

string

URL de la page Web de résultat.

score

number

(Obsolète) Score de pertinence global de la page Web.

pageTitle

string

Le titre de la page Web peut contenir des balises HTML.

fullMatchingImages[]

object(WebImage)

Images identiques sur la page. Peut inclure des copies redimensionnées de l'image de la requête.

partialMatchingImages[]

object(WebImage)

Images à correspondance partielle sur la page. Ces images sont suffisamment similaires pour partager certaines fonctionnalités clés. Par exemple, une image d'origine peut avoir une correspondance partielle si elle est associée à une zone de recadrage.

WebLabel

Libellé permettant de fournir des métadonnées supplémentaires pour la détection Web.

Représentation JSON
{
  "label": string,
  "languageCode": string
}
Champs
label

string

Libellé pour les métadonnées supplémentaires.

languageCode

string

Code de langue BCP-47 pour label, tel que "en-US" ou "sr-Latn". Pour en savoir plus, consultez la page http://www.unicode.org/reports/tr35/#Unicode_locale_identifier.

ProductSearchResults

Résultats d'une requête de recherche de produits.

Représentation JSON
{
  "indexTime": string,
  "results": [
    {
      object(Result)
    }
  ],
  "productGroupedResults": [
    {
      object(GroupedResult)
    }
  ]
}
Champs
indexTime

string (Timestamp format)

Horodatage de l'index ayant fourni les résultats. Les modifications apportées après cette date ne sont pas reflétées dans les résultats actuels.

Horodatage au format RFC3339 UTC "Zulu", précis à la nanoseconde près. Exemple : "2014-10-02T15:01:23.045123456Z".

results[]

object(Result)

Liste des résultats, un pour chaque correspondance de produit.

productGroupedResults[]

object(GroupedResult)

Liste des résultats regroupés par produits détectés dans l'image de la requête. Chaque entrée correspond à un polygone de délimitation dans l'image de la requête et contient les produits correspondants spécifiques à cette région. Il peut y avoir des doublons de correspondances de produits si vous regroupez tous les résultats par produit.

Résultat

Informations sur un produit.

Représentation JSON
{
  "product": {
    object(Product)
  },
  "score": number,
  "image": string
}
Champs
product

object(Product)

Ressource Product.

score

number

Niveau de confiance de la correspondance, compris entre 0 (aucune confiance) et 1 (confiance totale).

image

string

Nom de ressource de l'image à partir du produit qui correspond le mieux à la requête.

GroupedResult

Informations sur des produits semblables à un seul produit dans une image de requête.

Représentation JSON
{
  "boundingPoly": {
    object(BoundingPoly)
  },
  "results": [
    {
      object(Result)
    }
  ]
}
Champs
boundingPoly

object(BoundingPoly)

Polygone de délimitation autour du produit détecté dans l'image de la requête.

results[]

object(Result)

Liste des résultats, un pour chaque correspondance de produit.

ImageAnnotationContext

Si une image a été générée à partir d'un fichier (PDF, par exemple), ce message fournit des informations sur la source de cette image.

Représentation JSON
{
  "uri": string,
  "pageNumber": number
}
Champs
uri

string

URI du fichier permettant de générer l'image.

pageNumber

number

Si le fichier est au format PDF ou TIFF, ce champ indique le numéro de page dans le fichier utilisé pour générer l'image.