- HTTP-Anfrage
- Anfragetext
- Antworttext
- Autorisierungsbereiche
- AnnotateImageRequest
- Image
- ImageSource
- AnnotateImageResponse
- FaceAnnotation
- Landmark
- Typ
- Position
- Likelihood
- EntityAnnotation
- LocationInfo
- Property
- LocalizedObjectAnnotation
- TextAnnotation
- Page
- TextProperty
- DetectedLanguage
- DetectedBreak
- BreakType
- Block
- Paragraph
- Word
- Symbol
- BlockType
- SafeSearchAnnotation
- ImageProperties
- DominantColorsAnnotation
- ColorInfo
- CropHintsAnnotation
- CropHint
- WebDetection
- WebEntity
- WebImage
- WebPage
- WebLabel
- ProductSearchResults
- Ergebnis
- GroupedResult
- ImageAnnotationContext
Führen Sie Bilderkennung und -anmerkung für einen Satz von Bildern aus.
HTTP-Anfrage
POST https://vision.googleapis.com/v1p3beta1/images:annotate
Die URL verwendet die Syntax der gRPC-Transcodierung.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
JSON-Darstellung | |
---|---|
{
"requests": [
{
object( |
Felder | |
---|---|
requests[] |
Individuelle Bildanmerkungsanfragen für diesen Satz |
Antworttext
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
Antwort auf eine Anmerkungsanfrage für Sätze von Bildern
JSON-Darstellung | |
---|---|
{
"responses": [
{
object( |
Felder | |
---|---|
responses[] |
Individuelle Antworten auf Bildanmerkungsanfragen innerhalb des Satzes |
Autorisierungsbereiche
Erfordert einen der folgenden OAuth-Bereiche:
https://www.googleapis.com/auth/cloud-platform
https://www.googleapis.com/auth/cloud-vision
Weitere Informationen finden Sie in der Authentifizierungsübersicht.
AnnotateImageRequest
Anfrage zum Ausführen von Google Cloud Vision API-Aufgaben für ein vom Nutzer bereitgestelltes Bild mit vom Nutzer angeforderten Funktionen.
JSON-Darstellung | |
---|---|
{ "image": { object( |
Felder | |
---|---|
image |
Das zu verarbeitende Bild |
features[] |
Die angeforderten Funktionen |
imageContext |
Zusätzlicher Kontext, den das Bild umfassen kann |
Bild
Kundenbild, für das Google Cloud Vision API-Aufgaben ausgeführt werden sollen
JSON-Darstellung | |
---|---|
{
"content": string,
"source": {
object( |
Felder | |
---|---|
content |
Bildinhalt, dargestellt als ein Stream von Byte. Hinweis: Wie bei allen Ein base64-codierter String. |
source |
Google Cloud Storage-Bildspeicherort oder öffentlich zugängliche Bild-URL Wenn sowohl ein |
ImageSource
Externe Bildquelle (Google Cloud Storage- oder Web-URL-Bildspeicherort)
JSON-Darstellung | |
---|---|
{ "gcsImageUri": string, "imageUri": string } |
Felder | |
---|---|
gcsImageUri |
Verwenden Sie stattdessen Der Google Cloud Storage-URI der Form |
imageUri |
Der URI des Quell-Images. Es gibt folgende Möglichkeiten:
Wenn sowohl |
AnnotateImageResponse
Antworten auf eine Bildanmerkungsanfrage
JSON-Darstellung | |
---|---|
{ "faceAnnotations": [ { object( |
Felder | |
---|---|
faceAnnotations[] |
Falls vorhanden, wurde die Gesichtserkennung erfolgreich abgeschlossen. |
landmarkAnnotations[] |
Falls vorhanden, wurde die Landmark-Erkennung erfolgreich abgeschlossen. |
logoAnnotations[] |
Falls vorhanden, wurde die Logoerkennung erfolgreich abgeschlossen. |
labelAnnotations[] |
Falls vorhanden, wurde die Labelerkennung erfolgreich abgeschlossen. |
localizedObjectAnnotations[] |
Falls vorhanden, wurde die Objekterkennung erfolgreich abgeschlossen. Diese Sortierung wird absteigend nach Konfidenzwert sortiert. |
textAnnotations[] |
Falls vorhanden, wurde die Texterkennung (OCR) erfolgreich abgeschlossen. |
fullTextAnnotation |
Falls vorhanden, wurde die Erkennung von Text (OCR) oder Dokumenttext (OCR) erfolgreich abgeschlossen. Diese Anmerkung stellt die strukturelle Hierarchie für den OCR-Erkennungstext bereit. |
safeSearchAnnotation |
Falls vorhanden, wurde die SafeSearch-Anmerkung erfolgreich abgeschlossen. |
imagePropertiesAnnotation |
Falls vorhanden, wurden Bildeigenschaften erfolgreich extrahiert. |
cropHintsAnnotation |
Falls vorhanden, wurden Zuschneidehinweise erfolgreich abgeschlossen. |
webDetection |
Falls vorhanden, wurde die Weberkennung erfolgreich abgeschlossen. |
productSearchResults |
Falls vorhanden, wurde die Produktsuche erfolgreich abgeschlossen. |
error |
Die Fehlermeldung für den Vorgang, falls diese festgelegt ist. Beachten Sie, dass die eingetragenen Bildanmerkungen garantiert korrekt sind, auch wenn ein |
context |
Falls vorhanden, sind Kontextinformationen erforderlich, um zu verstehen, woher dieses Bild stammt. |
FaceAnnotation
Ein Gesichtsanmerkungsobjekt enthält die Ergebnisse der Gesichtserkennung.
JSON-Darstellung | |
---|---|
{ "boundingPoly": { object( |
Felder | |
---|---|
boundingPoly |
Das Begrenzungspolygon um das Gesicht. Die Koordinaten des Begrenzungsrahmens haben den Maßstab des Originalbilds, wie in |
fdBoundingPoly |
Das
(face detection, Gesichtserkennung). |
landmarks[] |
Erkannte markante Stellen im Gesicht (Landmarks). |
rollAngle |
Rollwinkel, der den Betrag der Drehung des Gesichts im Uhrzeigersinn/gegen den Uhrzeigersinn relativ zur senkrechten Achse des Bildes um die Achse senkrecht zum Gesicht angibt. Bereich [-180,180]. |
panAngle |
Schiebewinkel, der den nach links/rechts gerichteten Winkel des Gesichts relativ zur vertikalen Ebene senkrecht zum Bild anzeigt. Bereich [-180,180]. |
tiltAngle |
Neigungswinkel, der den Aufwärts-/Abwärtswinkel des Gesichts relativ zur horizontalen Ebene des Bildes anzeigt. Bereich [-180,180]. |
detectionConfidence |
Erkennungskonfidenz. Bereich [0, 1]. |
landmarkingConfidence |
Gesichts-Landmark-Konfidenz. Bereich [0, 1]. |
joyLikelihood |
Wahrscheinlichkeit für Freude. |
sorrowLikelihood |
Wahrscheinlichkeit für Kummer. |
angerLikelihood |
Wahrscheinlichkeit für Wut. |
surpriseLikelihood |
Wahrscheinlichkeit für Überraschung. |
underExposedLikelihood |
Wahrscheinlichkeit für unterbelichtetes Foto. |
blurredLikelihood |
Wahrscheinlichkeit für unscharfes Foto. |
headwearLikelihood |
Wahrscheinlichkeit für Kopfbedeckung. |
Landmark
Eine gesichtsspezifische markante Stelle (z. B. ein Gesichtsmerkmal).
JSON-Darstellung | |
---|---|
{ "type": enum( |
Felder | |
---|---|
type |
Gesichts-Landmark-Typ |
position |
Gesichts-Landmark-Position |
Typ
Gesichts-Landmark-Typ (Gesichtsmerkmaltyp). Links und rechts werden aus der Sicht des Betrachters des Bildes definiert, ohne Spiegelprojektionen zu berücksichtigen, die für Fotos typisch sind. Deshalb ist LEFT_EYE
typischerweise das rechte Auge der Person.
Enums | |
---|---|
UNKNOWN_LANDMARK |
Unbekannte Gesichts-Landmark erkannt. Sollte nicht ausgefüllt sein. |
LEFT_EYE |
Linkes Auge |
RIGHT_EYE |
Rechtes Auge |
LEFT_OF_LEFT_EYEBROW |
Links von der linken Augenbraue |
RIGHT_OF_LEFT_EYEBROW |
Rechte von der linken Augenbraue |
LEFT_OF_RIGHT_EYEBROW |
Linke von der rechten Augenbraue |
RIGHT_OF_RIGHT_EYEBROW |
Rechts von der rechten Augenbraue |
MIDPOINT_BETWEEN_EYES |
Mittelpunkt zwischen den Augen |
NOSE_TIP |
Nasenspitze |
UPPER_LIP |
Oberlippe |
LOWER_LIP |
Unterlippe |
MOUTH_LEFT |
Mund links |
MOUTH_RIGHT |
Mund rechts |
MOUTH_CENTER |
Mundmitte |
NOSE_BOTTOM_RIGHT |
Nase, unten rechts |
NOSE_BOTTOM_LEFT |
Nase, unten links |
NOSE_BOTTOM_CENTER |
Nase, unten Mitte |
LEFT_EYE_TOP_BOUNDARY |
Linkes Auge, obere Begrenzung |
LEFT_EYE_RIGHT_CORNER |
Linkes Auge, rechte Ecke |
LEFT_EYE_BOTTOM_BOUNDARY |
Linkes Auge, untere Begrenzung |
LEFT_EYE_LEFT_CORNER |
Linkes Auge, linke Ecke |
RIGHT_EYE_TOP_BOUNDARY |
Rechtes Auge, obere Begrenzung |
RIGHT_EYE_RIGHT_CORNER |
Rechtes Auge, rechte Ecke |
RIGHT_EYE_BOTTOM_BOUNDARY |
Rechtes Auge, untere Begrenzung |
RIGHT_EYE_LEFT_CORNER |
Rechtes Auge, linke Ecke |
LEFT_EYEBROW_UPPER_MIDPOINT |
Linke Augenbraue, oberer Mittelpunkt |
RIGHT_EYEBROW_UPPER_MIDPOINT |
Rechte Augenbraue, oberer Mittelpunkt |
LEFT_EAR_TRAGION |
Tragion linkes Ohr |
RIGHT_EAR_TRAGION |
Tragion rechtes Ohr |
LEFT_EYE_PUPIL |
Pupille linkes Auge |
RIGHT_EYE_PUPIL |
Pupille rechtes Auge |
FOREHEAD_GLABELLA |
Glabella Stirn |
CHIN_GNATHION |
Gnathion Kinn |
CHIN_LEFT_GONION |
Kinn, linker Gonion |
CHIN_RIGHT_GONION |
Kinn, rechter Gonion |
Position
Eine 3D-Position im Bild, die hauptsächlich für Gesichtserkennungs-Landmarks verwendet wird. Eine gültige Position muss sowohl x- als auch y-Koordinaten haben. Die Positionskoordinaten haben den gleichen Maßstab wie das Originalbild.
JSON-Darstellung | |
---|---|
{ "x": number, "y": number, "z": number } |
Felder | |
---|---|
x |
X-Koordinate |
y |
Y-Koordinate |
z |
Z-Koordinate (oder Tiefe) |
Likelihood
Eine "bucketisierte" Darstellung von Wahrscheinlichkeiten, die Kunden höchst stabile Ergebnisse bei Modellaktualisierungen liefern soll.
Enums | |
---|---|
UNKNOWN |
Unbekannte Wahrscheinlichkeit |
VERY_UNLIKELY |
Es ist sehr unwahrscheinlich, dass das Bild zur angegebenen Kategorie gehört. |
UNLIKELY |
Es ist unwahrscheinlich, dass das Bild zur angegebenen Kategorie gehört. |
POSSIBLE |
Es ist möglich, dass das Bild zur angegebenen Kategorie gehört. |
LIKELY |
Es ist wahrscheinlich, dass das Bild zur angegebenen Kategorie gehört. |
VERY_LIKELY |
Es ist sehr wahrscheinlich, dass das Bild zur angegebenen Kategorie gehört. |
EntityAnnotation
Satz erkannter Entitätsmerkmale
JSON-Darstellung | |
---|---|
{ "mid": string, "locale": string, "description": string, "score": number, "confidence": number, "topicality": number, "boundingPoly": { object( |
Felder | |
---|---|
mid |
Intransparente Entitäts-ID. Einige IDs sind möglicherweise in Google Knowledge Graph Search API verfügbar. |
locale |
Der Sprachcode für die Sprache, in der die Entität |
description |
Entitätstextbeschreibungen in ihrer |
score |
Gesamtwert des Ergebnisses. Bereich [0, 1]. |
confidence |
Eingestellt. Verwenden Sie stattdessen |
topicality |
Die Relevanz des ICA-Labels (Image Content Annotation) für das Bild. Zum Beispiel ist die Relevanz von "Turm" für ein Bild, das den erkannten "Eiffelturm" enthält, wahrscheinlich höher als für ein Bild, das ein erkanntes entferntes, hoch aufragendes Gebäude enthält. Dabei kann die Konfidenz, dass es in jedem Bild einen Turm gibt, gleich sein. Bereich [0, 1]. |
boundingPoly |
Bildbereich, zu dem diese Entität gehört. Nicht für |
locations[] |
Die Standortinformation für die erkannte Entität. Es können mehrere |
properties[] |
Einige Entitäten verfügen möglicherweise über optionale, vom Nutzer angegebene |
LocationInfo
Erkannte Entitätsstandortinformationen
JSON-Darstellung | |
---|---|
{
"latLng": {
object( |
Felder | |
---|---|
latLng |
Breiten-/Längengradkoordinaten des Standorts |
Attribut
Eine Property
besteht aus einem vom Nutzer bereitgestellten Name-Wert-Paar.
JSON-Darstellung | |
---|---|
{ "name": string, "value": string, "uint64Value": string } |
Felder | |
---|---|
name |
Name der Eigenschaft |
value |
Wert der Eigenschaft |
uint64Value |
Wert von numerischen Eigenschaften |
LocalizedObjectAnnotation
Satz erkannter Objekte mit Begrenzungsrahmen.
JSON-Darstellung | |
---|---|
{
"mid": string,
"languageCode": string,
"name": string,
"score": number,
"boundingPoly": {
object( |
Felder | |
---|---|
mid |
Objekt-ID, die mit EntityAnnotation Mitte ausgerichtet werden soll. |
languageCode |
Der BCP-47-Sprachcode, z. B. „en-US“ oder „sr-Latn“. Weitere Informationen finden Sie unter http://www.unicode.org/reports/tr35/#Unicode_locale_identifier. |
name |
Objektname, ausgedrückt in der Sprache |
score |
Punktzahl des Ergebnisses. Bereich [0, 1]. |
boundingPoly |
Bildbereich, zu dem diese Entität gehört. Dies muss ausgefüllt werden. |
TextAnnotation
TextAnnotation enthält eine strukturierte Darstellung von mit OCR extrahiertem Text. Die Hierarchie einer mit OCR extrahierten Textstruktur sieht folgendermaßen aus: TextAnnotation -> Seite -> Block -> Absatz -> Wort -> Symbol. Jede Strukturkomponente ab Seite kann außerdem eigene Eigenschaften haben. Eigenschaften beschreiben erkannte Sprachen, Unterbrechungen usw. Weitere Informationen finden Sie in der TextAnnotation.TextProperty
-Nachrichtendefinition unten.
JSON-Darstellung | |
---|---|
{
"pages": [
{
object( |
Felder | |
---|---|
pages[] |
Liste der durch OCR erkannten Seiten |
text |
Auf den Seiten erkannter UTF-8-Text |
Seite
Mit OCR erkannte Seite
JSON-Darstellung | |
---|---|
{ "property": { object( |
Felder | |
---|---|
property |
Weitere auf der Seite erkannte Informationen |
width |
Seitenbreite. Bei PDF-Dateien handelt es sich um Punkte. Bei Bildern (einschließlich TIFFs) ist die Einheit Pixel. |
height |
Seitenhöhe. Bei PDF-Dateien handelt es sich um Punkte. Bei Bildern (einschließlich TIFFs) ist die Einheit Pixel. |
blocks[] |
Liste von Textblöcken, Bildern usw. auf dieser Seite |
confidence |
Die Konfidenz der OCR-Ergebnisse auf der Seite. Bereich [0, 1]. |
TextProperty
Zusätzliche Informationen, die bei der Strukturkomponente erkannt wurden
JSON-Darstellung | |
---|---|
{ "detectedLanguages": [ { object( |
Felder | |
---|---|
detectedLanguages[] |
Eine Liste der erkannten Sprachen zusammen mit der Konfidenz |
detectedBreak |
Erkannter Anfang oder erkanntes Ende eines Textsegments |
DetectedLanguage
Erkannte Sprache für eine Strukturkomponente
JSON-Darstellung | |
---|---|
{ "languageCode": string, "confidence": number } |
Felder | |
---|---|
languageCode |
Der BCP-47-Sprachcode, z. B. „en-US“ oder „sr-Latn“. Weitere Informationen finden Sie unter http://www.unicode.org/reports/tr35/#Unicode_locale_identifier. |
confidence |
Die Konfidenz der erkannten Sprache. Bereich [0, 1]. |
DetectedBreak
Erkannter Anfang oder erkanntes Ende einer Strukturkomponente
JSON-Darstellung | |
---|---|
{
"type": enum( |
Felder | |
---|---|
type |
Erkannte Art der Unterbrechung |
isPrefix |
Wahr, wenn die Unterbrechung vor dem Element steht |
BreakType
Aufzählung zur Angabe der Art der erkannten Unterbrechung. Neue Zeile, Leerzeichen usw.
Enums | |
---|---|
UNKNOWN |
Unbekannte Art von Unterbrechungslabel |
SPACE |
Normales Leerzeichen |
SURE_SPACE |
Sichere Lücke (sehr breit) |
EOL_SURE_SPACE |
Zeilenumbruch |
HYPHEN |
Bindestrich am Ende der Zeile, der im Text nicht vorhanden ist; tritt nicht gleichzeitig mit SPACE , LEADER_SPACE oder LINE_BREAK auf. |
LINE_BREAK |
Zeilenumbruch, der einen Absatz beendet |
Block
Logisches Element auf der Seite
JSON-Darstellung | |
---|---|
{ "property": { object( |
Felder | |
---|---|
property |
Zusätzliche für den Block erkannte Informationen |
boundingBox |
Der Begrenzungsrahmen für den Block. Die Eckpunkte werden in der Reihenfolge von oben links, rechts oben, rechts unten und unten links angeordnet. Wenn eine Drehung des Begrenzungsrahmens erkannt wird, wird die Drehung als „um die obere linke Ecke“ dargestellt, gemäß der Definition des Lesens des Texts in „natürlicher“ Ausrichtung. Beispiel:
und die Eckpunktreihenfolge ist weiterhin (0, 1, 2, 3). |
paragraphs[] |
Liste der Absätze in diesem Block (wenn der Block den Typ "Text" hat) |
blockType |
Erkannter Blocktyp (Text, Bild usw.) für diesen Block |
confidence |
Die Konfidenz der OCR-Ergebnisse für den Block. Bereich [0, 1]. |
Absatz
Strukturelle Texteinheit, die mehrere Wörter in einer bestimmten Reihenfolge darstellt
JSON-Darstellung | |
---|---|
{ "property": { object( |
Felder | |
---|---|
property |
Zusätzliche für den Absatz erkannte Informationen |
boundingBox |
Der Begrenzungsrahmen für den Absatz. Die Eckpunkte werden in der Reihenfolge von oben links, rechts oben, rechts unten und unten links angeordnet. Wenn eine Drehung des Begrenzungsrahmens erkannt wird, wird die Drehung als „um die obere linke Ecke“ dargestellt, gemäß der Definition des Lesens des Texts in „natürlicher“ Ausrichtung. Beispiel: * Wenn der Text horizontal ist, kann dies so aussehen: 0----1 | | 3----2 * Wenn er um 180 Grad um die obere linke Ecke gedreht wird, wird daraus 2----3 | | 1----0 und die Eckpunktreihenfolge ist weiterhin (0, 1, 2, 3). |
words[] |
Liste der Wörter in diesem Absatz |
confidence |
Die Konfidenz der OCR-Ergebnisse für den Absatz. Bereich [0, 1]. |
Microsoft Word
Darstellung eines Worts
JSON-Darstellung | |
---|---|
{ "property": { object( |
Felder | |
---|---|
property |
Zusätzliche für das Wort erkannte Informationen |
boundingBox |
Der Begrenzungsrahmen für das Wort. Die Eckpunkte werden in der Reihenfolge von oben links, rechts oben, rechts unten und unten links angeordnet. Wenn eine Drehung des Begrenzungsrahmens erkannt wird, wird die Drehung als „um die obere linke Ecke“ dargestellt, gemäß der Definition des Lesens des Texts in „natürlicher“ Ausrichtung. Beispiel: * Wenn der Text horizontal ist, kann dies so aussehen: 0----1 | | 3----2 * Wenn er um 180 Grad um die obere linke Ecke gedreht wird, wird daraus 2----3 | | 1----0 und die Eckpunktreihenfolge ist weiterhin (0, 1, 2, 3). |
symbols[] |
Liste der Symbole im Wort. Die Reihenfolge der Symbole folgt der natürlichen Lesereihenfolge. |
confidence |
Die Konfidenz der OCR-Ergebnisse für das Wort. Bereich [0, 1]. |
Symbole
Eine einzelne Symboldarstellung
JSON-Darstellung | |
---|---|
{ "property": { object( |
Felder | |
---|---|
property |
Zusätzliche für das Symbol erkannte Informationen |
boundingBox |
Der Begrenzungsrahmen für das Symbol. Die Eckpunkte werden in der Reihenfolge von oben links, rechts oben, rechts unten und unten links angeordnet. Wenn eine Drehung des Begrenzungsrahmens erkannt wird, wird die Drehung als „um die obere linke Ecke“ dargestellt, gemäß der Definition des Lesens des Texts in „natürlicher“ Ausrichtung. Beispiel: * Wenn der Text horizontal ist, kann dies wie folgt aussehen: 0----1 | | 3----2 * Wenn er um 180 Grad um die obere linke Ecke gedreht wird, wird daraus 2----3 | | 1----0 und die Eckpunktreihenfolge ist weiterhin (0, 1, 2, 3). |
text |
Die tatsächliche UTF-8-Darstellung des Symbols |
confidence |
Die Konfidenz der OCR-Ergebnisse für das Symbol. Bereich [0, 1]. |
BlockType
Typ eines Blocks (Text, Bild usw.), der durch OCR identifiziert wurde.
Enums | |
---|---|
UNKNOWN |
Unbekannter Blocktyp |
TEXT |
Normaler Textblock |
TABLE |
Tabellenblock |
PICTURE |
Bildblock |
RULER |
Feld mit horizontaler/vertikaler Linie |
BARCODE |
Barcodeblock |
SafeSearchAnnotation
Eine Reihe von Merkmalen des Bildes, die durch Methoden für maschinelles Sehen in Bezug auf SafeSearch-Kategorien berechnet wurden (z. B. nicht jugendfreie Inhalte, Spoofing, Medizin, Gewalt).
JSON-Darstellung | |
---|---|
{ "adult": enum( |
Felder | |
---|---|
adult |
Stellt die Wahrscheinlichkeit für nur für Erwachsene bestimmte Inhalte für das Bild dar. Inhalte nur für Erwachsene können Elemente wie Nacktheit, pornografische Bilder oder Cartoons oder sexuelle Aktivitäten enthalten. |
spoof |
Wahrscheinlichkeit für Spoofing. Die Wahrscheinlichkeit, dass eine Änderung an der kanonischen Version des Bildes vorgenommen wurde, um es lustig oder anstößig erscheinen zu lassen. |
medical |
Wahrscheinlichkeit, dass dies ein medizinisches Bild ist. |
violence |
Wahrscheinlichkeit, dass dieses Bild gewalttätige Inhalte enthält. |
racy |
Wahrscheinlichkeit, dass das Anfragebild nicht jugendfreie Inhalte enthält. Nicht jugendfreie Inhalte können unter anderem knappe oder durchsichtige Bekleidung, strategisch verhüllte Nacktheit, anzügliche oder provozierende Posen oder Nahaufnahmen sensibler Körperpartien umfassen. |
ImageProperties
Speichert Bildeigenschaften, z. B. dominante Farben
JSON-Darstellung | |
---|---|
{
"dominantColors": {
object( |
Felder | |
---|---|
dominantColors |
Falls vorhanden, wurden dominante Farben erfolgreich abgeschlossen. |
DominantColorsAnnotation
Satz dominierender Farben und ihre entsprechenden Werte
JSON-Darstellung | |
---|---|
{
"colors": [
{
object( |
Felder | |
---|---|
colors[] |
RGB-Farbwerte mit ihren Werten und ihrem Pixelanteil |
ColorInfo
Die Farbinformationen umfassen RGB-Kanäle, den Wert sowie den Anteil des Bildes, den die jeweilige Farbe einnimmt.
JSON-Darstellung | |
---|---|
{
"color": {
object( |
Felder | |
---|---|
color |
RGB-Komponenten der Farbe |
score |
Bildspezifischer Wert für diese Farbe. Wert im Bereich [0, 1]. |
pixelFraction |
Der Anteil der Pixel, die die jeweilige Farbe im Bild belegt. Wert im Bereich [0, 1]. |
CropHintsAnnotation
Ein Satz von Zuschneidehinweisen, die zum Generieren neuer Zuschneidevorgänge beim Verarbeiten von Bildern verwendet werden.
JSON-Darstellung | |
---|---|
{
"cropHints": [
{
object( |
Felder | |
---|---|
cropHints[] |
Ergebnisse der Zuschneidehinweise |
CropHint
Einzelner Zuschneidehinweis, der zum Generieren eines neuen Zuschneidevorgangs beim Verarbeiten eines Bildes verwendet wird.
JSON-Darstellung | |
---|---|
{
"boundingPoly": {
object( |
Felder | |
---|---|
boundingPoly |
Das Begrenzungspolygon für den Zuschnittsbereich. Die Koordinaten des Begrenzungsrahmens haben den Maßstab des Originalbilds, wie in |
confidence |
Die Konfidenz, dass dies ein auffälliger Bereich ist. Bereich [0, 1]. |
importanceFraction |
Anteil der Bedeutung dieses auffälligen Bereichs in Bezug auf das Originalbild. |
WebDetection
Relevante Informationen für das Bild aus dem Internet
JSON-Darstellung | |
---|---|
{ "webEntities": [ { object( |
Felder | |
---|---|
webEntities[] |
Abgeleitete Entitäten aus ähnlichen Bildern im Internet |
fullMatchingImages[] |
Komplett übereinstimmende Bilder aus dem Internet. Können skalierte Kopien des Abfragebildes beinhalten. |
partialMatchingImages[] |
Teilweise übereinstimmende Bilder aus dem Internet. Die Bilder sind so ähnlich, dass sie einige Hauptmerkmale teilen. Zum Beispiel wird ein Originalbild wahrscheinlich eine partielle Übereinstimmung mit seinen Zuschnitten haben. |
pagesWithMatchingImages[] |
Webseiten, die die den übereinstimmenden Bilder aus dem Internet enthalten |
visuallySimilarImages[] |
Die visuell ähnlichen Bildergebnisse |
bestGuessLabels[] |
Die Vermutung, dass der Dienst das Thema des Anfragebilds schätzt. Abgeleitet aus ähnlichen Bildern im offenen Web |
WebEntity
Aus ähnlichen Bildern im Internet abgeleitete Entität
JSON-Darstellung | |
---|---|
{ "entityId": string, "score": number, "description": string } |
Felder | |
---|---|
entityId |
Intransparente Entitäts-ID |
score |
Gesamtrelevanzbewertung für die Entität. Nicht normalisiert und nicht für verschiedene Bildabfragen vergleichbar. |
description |
Kanonische Beschreibung der Entität auf Englisch |
WebImage
Metadaten für Onlinebilder
JSON-Darstellung | |
---|---|
{ "url": string, "score": number } |
Felder | |
---|---|
url |
Die Ergebnisbild-URL |
score |
(Verworfen) Gesamtrelevanzbewertung für das Bild |
WebPage
Metadaten für Webseiten
JSON-Darstellung | |
---|---|
{ "url": string, "score": number, "pageTitle": string, "fullMatchingImages": [ { object( |
Felder | |
---|---|
url |
Die URL der Ergebniswebseite |
score |
(Verworfen) Gesamtrelevanzbewertung für die Webseite |
pageTitle |
Titel der Webseite, kann HTML-Markups enthalten |
fullMatchingImages[] |
Komplett übereinstimmende Bilder auf der Seite. Können skalierte Kopien des Abfragebildes beinhalten. |
partialMatchingImages[] |
Teilweise übereinstimmende Bilder auf der Seite. Die Bilder sind so ähnlich, dass sie einige Hauptmerkmale teilen. Zum Beispiel wird ein Originalbild wahrscheinlich eine partielle Übereinstimmung mit seinen Zuschnitten haben. |
WebLabel
Label, um zusätzliche Metadaten für die Weberkennung bereitzustellen
JSON-Darstellung | |
---|---|
{ "label": string, "languageCode": string } |
Felder | |
---|---|
label |
Label für zusätzliche Metadaten |
languageCode |
Der BCP-47-Sprachcode für |
ProductSearchResults
Ergebnisse für eine Produktsuche
JSON-Darstellung | |
---|---|
{ "indexTime": string, "results": [ { object( |
Felder | |
---|---|
indexTime |
Zeitstempel des Index, der diese Ergebnisse bereitgestellt hat. Änderungen nach diesem Zeitpunkt werden in den aktuellen Ergebnissen nicht angezeigt. Zeitstempel im Format RFC3339 UTC "Zulu" in Nanosekunden. Beispiel: |
results[] |
Ergebnisliste, eine für jede Produktübereinstimmung. |
productGroupedResults[] |
Liste der Ergebnisse, die nach im Abfragebild erkannten Produkten gruppiert sind. Jeder Eintrag entspricht einem Begrenzungspolygon im Abfragebild und enthält die passenden Produkte für diese Region. Es kann zu Übereinstimmungen bei den Produkten kommen, die alle Produktergebnisse enthalten. |
Folge
Informationen zu einem Produkt.
JSON-Darstellung | |
---|---|
{
"product": {
object( |
Felder | |
---|---|
product |
Das Produkt |
score |
Eine Konfidenzstufe der Übereinstimmung, zwischen 0 (keine Konfidenz) und 1 (hohe Konfidenz). |
image |
Der Ressourcenname des Bildes des Produkts, das der Abfrage am nächsten kommt. |
Gruppiertes Ergebnis
Informationen zu Produkten, die einem einzelnen Produkt in einem Abfragebild ähneln.
JSON-Darstellung | |
---|---|
{ "boundingPoly": { object( |
Felder | |
---|---|
boundingPoly |
Das Begrenzungspolygon um das im Abfragebild erkannte Produkt. |
results[] |
Ergebnisliste, eine für jede Produktübereinstimmung. |
ImageAnnotationContext
Wenn ein Bild aus einer Datei (z. B. einer PDF-Datei) erstellt wurde, enthält diese Nachricht Informationen zur Quelle des Bildes.
JSON-Darstellung | |
---|---|
{ "uri": string, "pageNumber": number } |
Felder | |
---|---|
uri |
Der URI der Datei, die zur Erstellung des Bildes verwendet wurde. |
pageNumber |
Falls es sich um eine PDF- oder TIFF-Datei handelt, gibt dieses Feld die Seitenzahl in der Datei an, die zum Erstellen des Bildes verwendet wurde. |