Methode: projects.locations.models.predict

Führt eine Onlinevorhersage durch. Das Vorhersageergebnis wird unmittelbar in der Antwort zurückgegeben.

Verfügbar für folgende ML-Probleme und deren erwarteten Anfragenutzlasten:

  • Bildklassifizierung – Bilder im JPEG-, GIF- oder PNG-Format, imageBytes bis zu 30 MB.
  • Textklassifizierung – TextSnippet, kann bis zu 10.000 Zeichen enthalten, UTF-8-codiert.
  • Übersetzung – TextSnippet, kann bis zu 25.000 Zeichen enthalten, UTF-8-codiert.

HTTP-Anfrage

POST https://automl.googleapis.com/v1beta1/{name}:predict

Pfadparameter

Parameter
name

string

Name des Modells, das zur Vorhersage angefordert wurde.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • automl.models.predict

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

JSON-Darstellung

{
  "payload": {
    object(ExamplePayload)
  },
  "params": {
    string: string,
    ...
  }
}
Felder
payload

object(ExamplePayload)

Erforderlich. Nutzlast bei der Ausführung einer Vorhersage. Die Nutzlast muss mit dem Problemtyp übereinstimmen, für den das Modell trainiert wurde.

params

map (key: string, value: string)

Zusätzliche domainspezifische Parameter. Jeder String kann bis zu 25.000 Zeichen umfassen.

  • Für die Bildklassifizierung:

score_threshold – (float) Ein Wert von 0,0 bis 1,0. Wenn das Modell Vorhersagen für ein Bild trifft, werden nur Ergebnisse erzeugt, die mindestens diesen Konfidenzwert haben. Der Standardwert ist 0,5.

Ein Objekt mit einer Liste der Paare "key": value. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

Antworttext

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Antwortnachricht für PredictionService.Predict.

JSON-Darstellung

{
  "payload": [
    {
      object(AnnotationPayload)
    }
  ],
  "metadata": {
    string: string,
    ...
  }
}
Felder
payload[]

object(AnnotationPayload)

Vorhersageergebnis. Übersetzung und Textsentimente liefern genau eine Nutzlast.

metadata

map (key: string, value: string)

Zusätzliche domainspezifische Antwortmetadaten zu Vorhersagen.

Ein Objekt mit einer Liste der Paare "key": value. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

Autorisierungsbereiche

Erfordert den folgenden OAuth-Bereich:

  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

ExamplePayload

Beispieldaten für Training oder Vorhersage.

JSON-Darstellung

{

  // Union field payload can be only one of the following:
  "image": {
    object(Image)
  },
  "textSnippet": {
    object(TextSnippet)
  }
  // End of list of possible types for union field payload.
}
Felder
Union-Feld payload. Erforderlich. Nur Eingabe. Beispieldaten. Für payload ist nur einer der folgenden Werte zulässig:
image

object(Image)

Beispielbild.

textSnippet

object(TextSnippet)

Beispieltext.

Bild

Darstellung eines Bilds. Es werden nur Bilder mit einer Größe von bis zu 30 MB unterstützt.

JSON-Darstellung

{
  "thumbnailUri": string,

  // Union field data can be only one of the following:
  "imageBytes": string,
  "inputConfig": {
    object(InputConfig)
  }
  // End of list of possible types for union field data.
}
Felder
thumbnailUri

string

Nur Ausgabe. HTTP-URI zur Miniaturansicht.

Union-Feld data. Nur Eingabe. Die Daten, die das Bild darstellen. Für Predict-Aufrufe muss [image_bytes] [] festgelegt werden, da andere Optionen derzeit nicht von der Prediction API unterstützt werden. Mit dem Feld [content_uri][] können Sie den Inhalt eines hochgeladenen Bilds lesen. Für data ist nur einer der folgenden Werte zulässig:
imageBytes

string (bytes format)

Bildinhalt, dargestellt als ein Bytestream. Hinweis: Wie bei allen bytes-Feldern verwenden auch Protokollpuffer eine reine Binärdarstellung, während JSON-Darstellungen Base64 verwenden.

Ein base64-codierter String.

inputConfig

object(InputConfig)

Eine Eingabekonfiguration, die den Inhalt des Bilds angibt.

TextSnippet

Darstellung eines Text-Snippets.

JSON-Darstellung

{
  "content": string,
  "mimeType": string,
  "contentUri": string
}
Felder
content

string

Erforderlich. Der Inhalt des Text-Snippets als String. Bis zu 250.000 Zeichen lang.

mimeType

string

Das Format des Ausgangstextes. Aktuell sind nur zwei Werte zulässig: "text/html" und "text/plain". Wenn dieser Wert leer ist, wird das Format automatisch anhand des hochgeladenen Inhalts ermittelt.

contentUri

string

Nur Ausgabe. HTTP-URI, unter dem Sie den Inhalt herunterladen können.

AnnotationPayload

Enthält Annotationsinformationen, die für AutoML relevant sind.

JSON-Darstellung

{
  "annotationSpecId": string,
  "displayName": string,

  // Union field detail can be only one of the following:
  "translation": {
    object(TranslationAnnotation)
  },
  "classification": {
    object(ClassificationAnnotation)
  },
  "videoClassification": {
    object(VideoClassificationAnnotation)
  }
  // End of list of possible types for union field detail.
}
Felder
annotationSpecId

string

Nur Ausgabe. Die Ressourcen-ID der Annotationsspezifikation, auf die sich diese Annotation bezieht. Die Annotationsspezifikation stammt entweder aus einem Ancestor-Dataset oder aus dem Dataset, das zum Trainieren des eingesetzten Modells verwendet wurde.

displayName

string

Nur Ausgabe. Der Wert für AnnotationSpec.display_name, wenn das Modell trainiert wurde. Da dieses Feld beim Modelltraining einen Wert zurückgibt, kann der zurückgegebene Wert für verschiedene Modelle, die mit demselben Dataset trainiert werden, unterschiedlich sein. Das liegt daran, dass der Modellinhaber den displayName zwischen zwei beliebigen Modelltrainings aktualisieren kann.

Union-Feld detail. Nur Ausgabe. Zusätzliche Informationen zur Annotation, die für die AutoML-Lösung spezifisch ist. Für detail ist nur eine der folgenden Annotationen zulässig:
translation

object(TranslationAnnotation)

Annotationsdetails für die Übersetzung.

classification

object(ClassificationAnnotation)

Annotationsdetails für die Inhalts- oder Bildklassifizierung.

videoClassification

object(VideoClassificationAnnotation)

Annotationsdetails für die Videoklassifizierung. Wird für Vorhersagen für die Videoklassifizierung zurückgegeben.

TranslationAnnotation

Spezifische Annotationsdetails für die Übersetzung.

JSON-Darstellung

{
  "translatedContent": {
    object(TextSnippet)
  }
}
Felder
translatedContent

object(TextSnippet)

Nur Ausgabe. Übersetzter Inhalt.

ClassificationAnnotation

Enthält Annotationsdetails, die speziell für die Klassifizierung gelten.

JSON-Darstellung

{
  "score": number
}
Felder
score

number

Nur Ausgabe. Eine Konfidenzschätzung zwischen 0,0 und 1,0. Je höherer der Wert ist, desto wahrscheinlicher ist eine positive Annotation. Bestätigt der Nutzer eine Annotation als negativ oder positiv, bleibt der Wert unverändert. Erstellt der Nutzer eine Annotation, ist 0 der Wert für negativ und 1 der Wert für positiv.

VideoClassificationAnnotation

Enthält Annotationsdetails, die speziell für die Videoklassifizierung gelten.

JSON-Darstellung

{
  "type": string,
  "classificationAnnotation": {
    object(ClassificationAnnotation)
  },
  "timeSegment": {
    object(TimeSegment)
  }
}
Felder
type

string

Nur Ausgabe. Drückt die Art der Videoklassifizierung aus. Mögliche Werte: * segment – Klassifizierung für ein durch den Nutzer angegebenes Zeitsegment eines Videos. Auf die Annotationsspezifikation wird geantwortet, in diesem Zeitsegment vorhanden zu sein, falls sie irgendwo in diesem Zeitsegment auftaucht. Die Video ML-Modellbewertungen werden nur für diese Art der Klassifizierung vorgenommen. * shot – Einstufung auf Aufnahmeebene. AutoML Video Intelligence bestimmt die Grenzen für jede Kameraaufnahme, die im gesamten Segment des Videos aufgenommen wurde, das der Nutzer in der Anfragekonfiguration angegeben hat. AutoML Video Intelligence gibt dann für jede erkannte Aufnahme Beschriftungen und dessen Konfidenzwerte sowie die Start- und Endzeit der Aufnahme zurück. WARNUNG: Die Modellbewertung wird für diesen Klassifizierungstyp nicht durchgeführt. Die Qualität hängt von den Trainingsdaten ab. Es werden jedoch keine Messwerte zur Beschreibung dieser Qualität bereitgestellt. * 1s_interval –AutoML Video Intelligence gibt Labels und dessen Konfidenzwerte für das gesamte Segment des Videos im Sekundentakt zurück, das der Nutzer in der Anfragekonfiguration angegeben hat. WARNUNG: Die Modellbewertung wird für diesen Klassifizierungstyp nicht durchgeführt. Die Qualität hängt von den Trainingsdaten ab. Es werden jedoch keine Messwerte zur Beschreibung dieser Qualität bereitgestellt.

classificationAnnotation

object(ClassificationAnnotation)

Nur Ausgabe. Die Klassifizierungsdetails dieser Annotation.

timeSegment

object(TimeSegment)

Nur Ausgabe. Das Zeitsegment des Videos, für das die Annotation gilt.

TimeSegment

Ein Zeitraum innerhalb eines Beispiels mit einer Zeitdimension (zum Beispiel Video).

JSON-Darstellung

{
  "startTimeOffset": string,
  "endTimeOffset": string
}
Felder
startTimeOffset

string (Duration format)

Beginn des Zeitsegments (einschließlich), dargestellt als Dauer seit dem Start des Beispiels.

Eine Zeitangabe in Sekunden mit bis zu neun Nachkommastellen und s am Ende. Beispiel: "3.5s"

endTimeOffset

string (Duration format)

Ende des Zeitsegments (exklusiv), dargestellt als Dauer seit dem Start des Beispiels.

Eine Zeitangabe in Sekunden mit bis zu neun Nachkommastellen und s am Ende. Beispiel: "3.5s"