Méthode : projects.locations.models.batchPredict

Permet d'effectuer une prédiction par lot. Contrairement à la prédiction models.predict en ligne, la prédiction par lot n'affiche pas immédiatement le résultat dans la réponse. Au lieu de cela, un objet "opération de longue durée" est renvoyé. L'utilisateur peut interroger le résultat de l'opération via la méthode operations.get. Une fois l'opération terminée, BatchPredictResult est renvoyé dans le champ response. Disponible pour les problèmes ML suivants :

  • Classification de vidéos

Requête HTTP

POST https://automl.googleapis.com/v1beta1/{name}:batchPredict

Paramètres de chemin

Paramètres
name

string

Le nom du modèle demandé pour diffuser la prévision par lot.

L'autorisation Google IAM suivante est nécessaire pour la ressource name spécifiée :

  • automl.models.predict

Corps de la requête

Le corps de la requête contient des données qui ont la structure suivante :

Représentation JSON

{
  "inputConfig": {
    object(BatchPredictionInputConfig)
  },
  "outputConfig": {
    object(BatchPredictionOutputConfig)
  },
  "params": {
    string: string,
    ...
  }
}
Champs
inputConfig

objet ( BatchPredictionInputConfig )

Obligatoire. La configuration d'entrée pour la prédiction par lot.

outputConfig

objet ( BatchPredictionOutputConfig )

Obligatoire. La configuration spécifiant où les prédictions de sortie doivent être écrites.

params

map (key: string, value: string)

Paramètres supplémentaires spécifiques au domaine pour les prédictions : la longueur d'une chaîne ne doit pas dépasser 25 000 caractères.

Consultez la section Annoter des vidéos pour en savoir plus.

Vous pouvez spécifier les paramètres suivants :

score_threshold : (Nombre à virgule flottante) Valeur comprise entre 0 et 1. Lorsque le modèle effectue des prédictions pour une vidéo, il ne génère que les résultats présentant au moins ce score de confiance. La valeur par défaut est 0,5.

segment_classification : (Valeur booléenne) Définissez la valeur sur "True" (Actif) pour activer la classification au niveau des séquences. AutoML Video Intelligence renvoie les libellés et leurs scores de confiance pour l'intégralité de la séquence vidéo que l'utilisateur a spécifiée dans la configuration de la requête. La valeur par défaut est "True" (Actif).

shot_classification : (Valeur booléenne) Définissez la valeur sur "True" (Actif) pour activer la classification au niveau des plans. AutoML Video Intelligence détermine les limites de chaque plan de caméra dans l'ensemble de la séquence vidéo que l'utilisateur a spécifiée dans la configuration de la requête. AutoML Video Intelligence renvoie ensuite les libellés et leurs scores de confiance pour chaque plan détecté, ainsi que l'heure de début et de fin du plan. AVERTISSEMENT : Aucune évaluation du modèle n'est effectuée pour ce type de classification. Sa qualité dépend des données d'entraînement, mais aucune métrique n'est fournie pour décrire cette qualité. La valeur par défaut est "False" (Inactif).

1s_interval : (Valeur booléenne) Définissez la valeur sur "True" (Actif) pour activer la classification d'une vidéo à intervalles d'une seconde. AutoML Video Intelligence renvoie les libellés et leurs scores de confiance pour l'intégralité de la séquence vidéo que l'utilisateur a spécifiée dans la configuration de la requête. AVERTISSEMENT : Aucune évaluation du modèle n'est effectuée pour ce type de classification. Sa qualité dépend des données d'entraînement, mais aucune métrique n'est fournie pour décrire cette qualité. La valeur par défaut est "False" (Inactif).

Un objet contenant une liste de paires "key": value. Exemple : { "name": "wrench", "mass": "1.3kg", "count": "3" }.

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de Operation.

Champs d'application des autorisations

Requiert le champ d'application OAuth suivant :

  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, reportez-vous à la section Présentation de l'authentification.

BatchPredictionInputConfig

Configuration d'entrée pour la méthode batchPredict.

Le format du fichier d'entrée dépend du problème de ML du modèle utilisé pour la prédiction. Consultez la section "Préparer vos données" de la documentation pour plus de détails. Le fichier CSV d'entrée est spécifié à l'aide du champ gcsSource.

Les formats sont représentés en EBNF (BNF étendu), avec des virgules "littérales" et des symboles "non terminaux" définis vers la fin de ce commentaire. Les formats sont les suivants :

Classification de vidéos :

Fichier(s) CSV avec chaque ligne au format :

GCS_FILE_PATH,TIME_SEGMENT_START,TIME_SEGMENT_END

  • GCS_FILE_PATH : Le chemin d'accès à une vidéo d'une durée maximale de 60 minutes, stockée dans Google Cloud Storage. Extensions compatibles : .MOV, .MPEG4, .MP4, .AVI et tout format de fichier compatible avec ffmpeg.

  • TIME_SEGMENT_START et TIME_SEGMENT_END : Les horodatages (heures de début et de fin) de la séquence vidéo à annoter. Les valeurs ne doivent pas dépasser la durée de la vidéo, et TIME_SEGMENT_END doit être postérieur à TIME_SEGMENT_START.

Exemple :

gs://folder/video1.mp4,10,40
gs://folder/video1.mp4,20,60
gs://folder/vid2.mov,0,inf

Erreurs : Si l'un des fichiers CSV fournis ne peut pas être analysé ou s'il est impossible de traiter plus d'un certain pourcentage de lignes CSV, l'opération échoue et la prédiction n'est pas effectuée. Indépendamment du succès ou de l'échec global, les échecs par ligne seront répertoriés dans Operation.metadata.partial_failures (jusqu'à un certain plafond de dénombrement).

Représentation JSON

{
  "gcsSource": {
    object(GcsSource)
  }
}
Champs
gcsSource

objet ( GcsSource )

Emplacement Google Cloud Storage pour le contenu d'entrée.

BatchPredictionOutputConfig

Configuration de sortie pour la méthode batchPredict.

Un nouveau répertoire est créé dans le gcsDestination fourni avec le nom prediction-[model-display-name]-[timestamp-of-prediction-call], où l'horodatage est au format ISO-8601 : YYYY-MM-DDThh:mm:ss.sssZ. Le répertoire contient les résultats de l'opération de prédiction de ML.

Classification de vidéos :

Un fichier nommé fichier videoClassification.csv est créé dans le répertoire de sortie. Le fichier CSV fait référence aux fichiers de sortie JSON pour chaque vidéo annotée. Par exemple : video_classification_1.json, video_classification_2.json,..., video_classification_N.json, où N est le nombre de requêtes de classification de vidéos, depuis l'entrée jusqu'à la requête batchPredict.

Les champs présents dans videoClassification.csv sont les suivants :

GCS_FILE_PATH,TIME_SEGMENT_START,TIME_SEGMENT_END,JSON_FILE_NAME,STATUS

  • GCS_FILE_PATH, TIME_SEGMENT_START, TIME_SEGMENT_END : Les valeurs de chaque ligne du fichier CSV d'entrée pour la requête batchPredict.

  • JSON_FILE_NAME : Le nom du fichier json du répertoire de sortie contenant les réponses de prédiction pour la séquence vidéo.

  • STATUS : L'état "OK" s'affiche si la prédiction a réussi ; sinon, un message d'erreur décrivant la raison de l'erreur s'affiche, tel qu'un fichier vidéo référencé inexistant ou vide.

Chaque fichier de sortie JSON où STATUS indique l'état "OK" contient une liste d'objets AnnotationPayload au format json. Il s'agit des prédictions pour la séquence vidéo à laquelle le fichier videoClassification.csv est attribué. Tous les objets AnnotationPayload ayant un champ videoClassification configuré seront triés en fonction du champ videoClassification.type.

Représentation JSON

{
  "gcsDestination": {
    object(GcsDestination)
  }
}
Champs
gcsDestination

objet ( GcsDestination )

L'emplacement Google Cloud Storage du répertoire dans lequel le résultat doit être écrit.