Méthode : projects.locations.models.predict

Permet d'effectuer une prédiction en ligne. Le résultat de la prédiction sera directement renvoyé dans la réponse.

Problèmes de ML compatibles et détails sur les charges utiles attendues des requêtes associées :

  • Classification d'images : Images au format .JPEG, .GIF ou .PNG (taille des images : jusqu'à 30 Mo).
  • Classification de texte : Extrait de texte (TextSnippet) : jusqu'à 10 000 caractères, au format UTF-8.
  • Traduction : Extrait de texte (TextSnippet) : jusqu'à 25 000 caractères, au format UTF-8.

Requête HTTP

POST https://automl.googleapis.com/v1beta1/{name}:predict

Paramètres de chemin

Paramètres
name

string

Le nom du modèle demandé pour les besoins de la prédiction.

L'autorisation Google IAM suivante est requise pour la ressource name spécifiée :

  • automl.models.predict

Corps de la requête

Le corps de la requête contient des données qui ont la structure suivante :

Représentation JSON

{
  "payload": {
    object(ExamplePayload)
  },
  "params": {
    string: string,
    ...
  }
}
Champs
payload

object(ExamplePayload)

Obligatoire. Charge utile sur laquelle la prédiction doit être effectuée. La charge utile doit correspondre au type de problème pour lequel le modèle a été entraîné.

params

map (key: string, value: string)

Paramètres supplémentaires spécifiques au domaine : la longueur d'une chaîne ne doit pas dépasser 25 000 caractères.

  • Pour la classification d'images :

score_threshold - (nombre à virgule flottante) Une valeur comprise entre 0 et 1. Lorsque le modèle effectue des prédictions pour une image, il ne génère que les résultats présentant au moins ce score de confiance. La valeur par défaut est 0,5.

Un objet contenant une liste de paires "key": value. Exemple : { "name": "wrench", "mass": "1.3kg", "count": "3" }.

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Message de réponse pour PredictionService.Predict.

Représentation JSON

{
  "payload": [
    {
      object(AnnotationPayload)
    }
  ],
  "metadata": {
    string: string,
    ...
  }
}
Champs
payload[]

object(AnnotationPayload)

Résultat de la prédiction. La traduction et l'analyse des sentiments du texte renverront précisément une charge utile.

metadata

map (key: string, value: string)

Métadonnées de réponse de prédiction supplémentaires spécifiques à un domaine.

Un objet contenant une liste de paires "key": value. Exemple : { "name": "wrench", "mass": "1.3kg", "count": "3" }.

Champs d'application des autorisations

Requiert le champ d'application OAuth suivant :

  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez la page Présentation de l'authentification.

ExamplePayload

Exemple de données utilisées pour l'entraînement ou la prédiction.

Représentation JSON

{

  // Union field payload can be only one of the following:
  "image": {
    object(Image)
  },
  "textSnippet": {
    object(TextSnippet)
  }
  // End of list of possible types for union field payload.
}
Champs
Valeur payload du champ d'union. Obligatoire. Uniquement en entrée. Données d'exemple. La valeur payload ne peut être qu'un des éléments suivants :
image

object(Image)

Exemple d'image

textSnippet

object(TextSnippet)

Exemple de texte

Image

Une représentation d'une image. Seules les images d'une taille maximale de 30 Mo sont acceptées.

Représentation JSON

{
  "thumbnailUri": string,

  // Union field data can be only one of the following:
  "imageBytes": string,
  "inputConfig": {
    object(InputConfig)
  }
  // End of list of possible types for union field data.
}
Champs
thumbnailUri

string

Uniquement dans les résultats. URI HTTP de la vignette de l'image.

Valeur data du champ d'union. Uniquement en entrée. Données représentant l'image. Pour les appels Predict, l'option [image_bytes][] doit être définie, car les autres options ne sont actuellement pas compatibles avec l'API Prédiction. Vous pouvez lire le contenu d'une image importée à l'aide du champ [content_uri][]. La valeur data ne peut être que l'un des éléments suivants :
imageBytes

string (bytes format)

Contenu de l'image représenté sous forme de flux d'octets. Remarque : Comme pour tous les champs bytes, les protobuffers utilisent une représentation binaire pure, tandis que les représentations JSON sont encodées en base64.

Chaîne encodée en base64.

inputConfig

object(InputConfig)

Une configuration d'entrée spécifiant le contenu de l'image.

TextSnippet

Une représentation d'un extrait de texte.

Représentation JSON

{
  "content": string,
  "mimeType": string,
  "contentUri": string
}
Champs
content

string

Obligatoire. Contenu de l'extrait de texte sous forme de chaîne. 250 000 caractères maximum.

mimeType

string

Format du texte source. Actuellement, les deux seules valeurs autorisées sont "text/html" et "text/plain". Si ce champ n'est pas renseigné, le format est automatiquement déterminé à partir du type de contenu importé.

contentUri

string

Uniquement dans les résultats. URI HTTP où vous pouvez télécharger le contenu.

AnnotationPayload

Contient des annotations pertinentes pour AutoML.

Représentation JSON

{
  "annotationSpecId": string,
  "displayName": string,

  // Union field detail can be only one of the following:
  "translation": {
    object(TranslationAnnotation)
  },
  "classification": {
    object(ClassificationAnnotation)
  },
  "videoClassification": {
    object(VideoClassificationAnnotation)
  }
  // End of list of possible types for union field detail.
}
Champs
annotationSpecId

string

Uniquement dans les résultats. ID de ressource de la spécification d'annotation à laquelle cette annotation se rapporte. La spécification d'annotation provient soit d'un ensemble de données ancêtre, soit de l'ensemble de données qui a servi à entraîner le modèle utilisé.

displayName

string

Uniquement dans les résultats. Valeur de AnnotationSpec.display_name lors de l'entraînement du modèle. Comme ce champ renvoie une valeur définie lors de l'entraînement du modèle, la valeur renvoyée peut être différente pour différents modèles entraînés à l'aide du même ensemble de données, car le propriétaire du modèle peut mettre à jour le nom d'affichage entre les entraînements de deux modèles.

Valeur detail du champ d'union. Uniquement dans les résultats. Informations supplémentaires sur l'annotation spécifique à la solution AutoML. La valeur detail ne peut être que l'un des éléments suivants :
translation

object(TranslationAnnotation)

Détails d'annotation pour la traduction.

classification

object(ClassificationAnnotation)

Détails d'annotation pour la classification de contenus ou d'images.

videoClassification

object(VideoClassificationAnnotation)

Détails d'annotation pour la classification de vidéos. Retourné pour les prédictions de classification de vidéos.

TranslationAnnotation

Détails d'annotation spécifiques à la traduction.

Représentation JSON

{
  "translatedContent": {
    object(TextSnippet)
  }
}
Champs
translatedContent

object(TextSnippet)

Uniquement dans les résultats. Contenu traduit.

ClassificationAnnotation

Contient des détails d'annotation spécifiques à la classification.

Représentation JSON

{
  "score": number
}
Champs
score

number

Uniquement dans les résultats. Estimation du niveau de confiance comprise entre 0 et 1. Une valeur supérieure indique une plus grande confiance dans le fait que l'annotation est positive. Si un utilisateur approuve le caractère négatif ou positif d'une annotation, la valeur "score" reste inchangée. Si un utilisateur crée une annotation, le score est 0 si elle est négative, et 1 si elle est positive.

VideoClassificationAnnotation

Contient des détails d'annotation spécifiques à la classification de vidéos.

Représentation JSON

{
  "type": string,
  "classificationAnnotation": {
    object(ClassificationAnnotation)
  },
  "timeSegment": {
    object(TimeSegment)
  }
}
Champs
type

string

Uniquement dans les résultats. Exprime le type de classification de vidéos. Valeurs possibles : * segment : Classification effectuée sur un segment temporel d'une vidéo spécifié par l'utilisateur. Si "AnnotationSpec" est présent dans n'importe quelle partie du segment temporel, la réponse renvoyée confirme sa présence dans ce segment. Les évaluations du modèle de ML vidéo ne sont effectuées que pour ce type de classification. * shot : Classification au niveau des plans. AutoML Video Intelligence détermine les limites de chaque plan de caméra dans l'ensemble de la séquence vidéo spécifiée par l'utilisateur dans la configuration de la requête. AutoML Video Intelligence renvoie ensuite les libellés et leurs scores de confiance pour chaque plan détecté, ainsi que l'heure de début et de fin du plan. AVERTISSEMENT : Aucune évaluation du modèle n'est effectuée pour ce type de classification. Sa qualité dépend des données d'entraînement, mais aucune métrique n'est fournie pour décrire cette qualité. * 1s_interval : AutoML Video Intelligence renvoie les libellés et leurs scores de confiance pour chaque seconde de la séquence vidéo spécifiée par l'utilisateur dans la configuration de la requête. AVERTISSEMENT : Aucune évaluation du modèle n'est effectuée pour ce type de classification. Sa qualité dépend des données d'entraînement, mais aucune métrique n'est fournie pour décrire cette qualité.

classificationAnnotation

object(ClassificationAnnotation)

Uniquement dans les résultats. Détails de classification de cette annotation.

timeSegment

object(TimeSegment)

Uniquement dans les résultats. Segment temporel de la vidéo auquel l'annotation s'applique.

TimeSegment

Une période dans un exemple qui a une dimension temporelle (par exemple, une vidéo).

Représentation JSON

{
  "startTimeOffset": string,
  "endTimeOffset": string
}
Champs
startTimeOffset

string (Duration format)

Début du segment temporel (inclusif), représenté par la durée écoulée depuis le début de l'exemple.

Durée en secondes avec neuf chiffres au maximum après la virgule. Se termine par "s". Exemple : "3.5s".

endTimeOffset

string (Duration format)

Fin du segment temporel (exclusif), représentée par la durée écoulée depuis le début de l'exemple.

Durée en secondes avec neuf chiffres au maximum après la virgule. Se termine par "s". Exemple : "3.5s".