Methode: projects.locations.models.batchPredict

Führt eine Batchvorhersage durch. Im Gegensatz zum Online-models.predict sind Ergebnisse der Batchvorhersage nicht sofort in der Antwort verfügbar. Stattdessen wird ein lang laufendes Vorgangsobjekt zurückgegeben. Nutzer können das Ergebnis des Vorgangs über die operations.get-Methode abfragen. Nach Abschluss des Vorgangs wird BatchPredictResult im Feld response zurückgegeben. Verfügbar für folgende ML-Probleme:

  • Videoklassifizierung

HTTP-Anfrage

POST https://automl.googleapis.com/v1beta1/{name}:batchPredict

Pfadparameter

Parameter
name

string

Name des Modells, das zur Batchvorhersage angefordert wurde.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • automl.models.predict

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

JSON-Darstellung

{
  "inputConfig": {
    object(BatchPredictionInputConfig)
  },
  "outputConfig": {
    object(BatchPredictionOutputConfig)
  },
  "params": {
    string: string,
    ...
  }
}
Felder
inputConfig

object(BatchPredictionInputConfig)

Erforderlich. Die Eingabekonfiguration für die Batchvorhersage.

outputConfig

object(BatchPredictionOutputConfig)

Erforderlich. Die Konfiguration gibt an, wo Ausgabevorhersagen geschrieben werden sollen.

params

map (key: string, value: string)

Zusätzliche domainspezifische Parameter für die Vorhersagen. Jeder String kann bis zu 25.000 Zeichen umfassen.

Weitere Informationen finden Sie unter Videos annotieren.

Sie können folgende Parameter angeben:

score_threshold – (float) Ein Wert von 0,0 bis 1,0. Wenn das Modell Vorhersagen für ein Video trifft, werden nur Ergebnisse erzeugt, die mindestens diesen Konfidenzwert haben. Der Standardwert ist 0,5.

segment_classification – (boolean) Auf "true" setzen, um die Klassifizierung auf Segmentebene anzufordern. AutoML Video Intelligence gibt Labels und dessen Konfidenzwerte für das gesamte Segment des Videos zurück, das der Nutzer in der Anfragekonfiguration angegeben hat. Die Standardeinstellung ist "true".

shot_classification – (boolean) Auf "true" setzen, um die Klassifizierung auf Aufnahmeebene anzufordern. AutoML Video Intelligence bestimmt die Grenzen für jede Kameraaufnahme, die im gesamten Segment des Videos aufgenommen wurde, das der Nutzer in der Anfragekonfiguration angegeben hat. AutoML Video Intelligence gibt dann für jede erkannte Aufnahme Labels und dessen Konfidenzwerte sowie die Start- und Endzeit der Aufnahme zurück. WARNUNG: Die Modellbewertung wird für diesen Klassifizierungstyp nicht durchgeführt. Die Qualität hängt von den Trainingsdaten ab. Es werden jedoch keine Messwerte zur Beschreibung dieser Qualität bereitgestellt. Die Standardeinstellung ist "false".

1s_interval – (boolean) Auf "true" setzen, um die Klassifizierung für ein Video im Sekundentakt anzufordern. AutoML Video Intelligence gibt Labels und deren Konfidenzwerte für das gesamte Segment des Videos im Sekundentakt zurück, das der Nutzer in der Anfragekonfiguration angegeben hat. WARNUNG: Die Modellbewertung wird für diesen Klassifizierungstyp nicht durchgeführt. Die Qualität hängt von den Trainingsdaten ab. Es werden jedoch keine Messwerte zur Beschreibung dieser Qualität bereitgestellt. Die Standardeinstellung ist "false".

Ein Objekt mit einer Liste der Paare "key": value. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

Antworttext

Bei Erfolg enthält der Antworttext eine Instanz von Operation.

Autorisierungsbereiche

Erfordert den folgenden OAuth-Bereich:

  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

BatchPredictionInputConfig

Eingabekonfiguration für die Methode batchPredict.

Das Format der Eingabedatei hängt von dem ML-Problem des für die Vorhersage verwendeten Modells ab. Weitere Informationen finden Sie in der Dokumentation unter "Daten vorbereiten". Die CSV-Eingabedatei wird mit dem Feld gcsSource angegeben.

Die Formate werden in EBNF dargestellt, wobei Kommas literal sind und am Ende dieses Kommentars nicht-terminale Symbole definiert werden. Die Formate sind:

Videoklassifizierung:

Jede Zeile einer CSV-Datei im Format:

GCS_FILE_PATH,TIME_SEGMENT_START,TIME_SEGMENT_END

  • GCS_FILE_PATH – Der Google Cloud Storage-Pfad für ein Video mit einer Dauer von bis zu einer Stunde. Unterstützte Erweiterungen sind MOV, MPEG4, MP4, AVI und jedes von ffmpeg unterstützte Dateiformat.

  • TIME_SEGMENT_START und TIME_SEGMENT_END – Die Start- und End-Zeitstempel für das Videosegment, das annotiert werden soll. Die Werte müssen innerhalb der Länge des Videos liegen und TIME_SEGMENT_END muss nach TIME_SEGMENT_START kommen.

Beispiel:

gs://folder/video1.mp4,10,40
gs://folder/video1.mp4,20,60
gs://folder/vid2.mov,0,inf

Fehler: Wenn eine der bereitgestellten CSV-Dateien nicht analysiert oder wenn mehr als ein bestimmter Prozentsatz der CSV-Zeilen nicht verarbeitet werden kann, schlägt der Vorgang fehl und die Vorhersage findet nicht statt. Ungeachtet des Gesamterfolgs oder Misserfolgs werden die Fehler pro Zeile bis zu einer bestimmten Höchstzahl in Operation.metadata.partial_failures aufgelistet.

JSON-Darstellung

{
  "gcsSource": {
    object(GcsSource)
  }
}
Felder
gcsSource

object(GcsSource)

Der Google Cloud Storage-Speicherort für den eingegebenen Inhalt.

BatchPredictionOutputConfig

Ausgabekonfiguration für die Methode batchPredict.

Im bereitgestellten gcsDestination wird ein neues Verzeichnis namens prediction-[model-display-name]-[timestamp-of-prediction-call] erstellt. Der Zeitstempel in diesem Verzeichnis hat das ISO 8601-Format YYYY-MM-DDThh:mm:ss.sssZ. Das Verzeichnis enthält die Ergebnisse des ML-Vorhersagevorgangs.

Videoklassifizierung:

Eine Datei namens videoClassification.csv wird im Ausgabeverzeichnis erstellt. Die CSV-Datei verweist auf JSON-Dateien, die mit der Ausgabe für jedes annotierte Video verknüpft sind. Die Dateien sind video_classification_1.json, video_classification_2.json,..., video_classification_N.json, wobei N für die Anzahl der Videoklassifizierungsanfragen steht, die von der Eingabe in die batchPredict-Anfrage stammen.

Die Felder in videoClassification.csv sind:

GCS_FILE_PATH,TIME_SEGMENT_START,TIME_SEGMENT_END,JSON_FILE_NAME,STATUS

  • GCS_FILE_PATH, TIME_SEGMENT_START,TIME_SEGMENT_END – Die Werte aus jeder Zeile der CSV-Eingabedatei für die batchPredict-Anfrage.

  • JSON_FILE_NAME – Der Name der json-Datei im Ausgabeverzeichnis, das die Vorhersageantworten für das Videosegment enthält.

  • STATUS – "OK", wenn die Vorhersage erfolgreich abgeschlossen wurde. Andernfalls wird eine Fehlernachricht angezeigt, die den Grund für den Fehler beschreibt, zum Beispiel eine referenzierte Videodatei ist nicht vorhanden oder leer.

Jede JSON-Ausgabedatei mit dem STATUS "OK" enthält eine Liste der AnnotationPayload-Objekte im JSON-Format. Diese Objekte sind die Vorhersagen für das Videosegment, dem die Datei in videoClassification.csv zugewiesen ist. Für alle AnnotationPayload-Objekte wird das Feld videoClassification festgelegt. Alle Objekte werden nach dem Feld videoClassification.type sortiert.

JSON-Darstellung

{
  "gcsDestination": {
    object(GcsDestination)
  }
}
Felder
gcsDestination

object(GcsDestination)

Der Google Cloud Storage-Speicherort des Verzeichnisses, in das die Ausgabe geschrieben werden muss.