Les requêtes de prédiction par lot sont asynchrones (contrairement aux requêtes de prédiction en ligne qui sont synchrones). Vous demandez des prédictions par lot directement à partir de la ressource de modèle. Vous n'avez pas besoin de déployer le modèle sur un point de terminaison. Pour les types de données compatibles avec les prédictions par lot et en ligne, utilisez les prédictions par lot lorsque vous n'avez pas besoin d'une réponse immédiate et souhaitez traiter les données accumulées en une seule requête.
Pour effectuer une prédiction par lot, vous devez spécifier une source d'entrée et un emplacement de sortie dans lesquels Vertex AI stocke les résultats des prédictions. Les entrées et les sorties dépendent du type de modèle que vous utilisez. Par exemple, les prédictions par lot pour le type de modèle d'image AutoML nécessitent un fichier JSON Lines d'entrée et le nom d'un bucket Cloud Storage pour stocker le résultat.
Entrée pour les requêtes par lot
L'entrée des requêtes par lot spécifie les éléments à envoyer à votre modèle pour la prédiction. Le contenu suivant fournit des exigences de format d'entrée pour chaque type de modèle.
Soumis à un entraînement personnalisé
Pour obtenir des prédictions par lot à partir d'un modèle soumis à un entraînement personnalisé, préparez vos données d'entrée de l'une des manières suivantes :
JSON Lines
Utilisez un fichier JSON Lines pour spécifier une liste d'instances d'entrée sur lesquelles effectuer des prédictions. Stockez le fichier JSON Lines dans un bucket Cloud Storage.
Exemple 1
L'exemple suivant montre deux instances dans un fichier JSON Lines d'entrée :
[1, 2, 3, 4] [5, 6, 7, 8]
Voici ce qui est envoyé au conteneur de prédiction dans le corps de la requête HTTP :
{"instances": [ [1, 2, 3, 4], [5, 6, 7, 8] ]}
Exemple 2
L'exemple suivant montre deux instances dans un fichier JSON Lines d'entrée où le conteneur de prédiction attend un objet :
{"values": [1, 2, 3, 4], "key": 1} {"values": [5, 6, 7, 8], "key": 2}
Voici ce qui est envoyé au conteneur de prédiction dans le corps de la requête HTTP :
{"instances": [ {"values": [1, 2, 3, 4], "key": 1}, {"values": [5, 6, 7, 8], "key": 2} ]}
TFRecord
Enregistrez les instances d'entrée au format TFRecord. Vous pouvez éventuellement compresser les fichiers TFRecord avec Gzip. Stockez les fichiers TFRecord dans un bucket Cloud Storage.
Vertex AI lit chaque instance de vos fichiers TFRecord en tant qu'élément binaire, puis l'encode en base64 en tant qu'objet JSON avec une seule clé nommée b64
.
Voici ce qui est envoyé au conteneur de prédiction dans le corps de la requête HTTP :
{"instances": [ {"b64","b64EncodedASCIIString"}, {"b64","b64EncodedASCIIString"} ]}
Assurez-vous que votre conteneur de prédiction sait comment décoder l'instance.
CSV
Spécifiez une instance d'entrée par ligne dans un fichier CSV. La première ligne doit être une ligne d'en-tête. Vous devez placer toutes les chaînes entre guillemets doubles ("). Nous n'acceptons pas les valeurs de cellule incluant un caractère de nouvelle ligne. Les valeurs sans guillemets sont lues sous forme de nombres à virgule flottante.
L'exemple suivant montre un fichier CSV avec deux instances d'entrée :
"input1","input2","input3" 0.1,1.2,"cat1" 4.0,5.0,"cat2"
Voici ce qui est envoyé au conteneur de prédiction dans le corps de la requête HTTP :
{"instances": [ [0.1,1.2,"cat1"], [4.0,5.0,"cat2"] ]}
Liste de fichiers
Créez un fichier texte dans lequel chaque ligne correspond à l'URI Cloud Storage d'un fichier. Vertex AI lit le contenu de chaque fichier en tant qu'élément binaire, puis l'encode en base64 en tant qu'objet JSON avec une seule clé nommée b64
.
Si vous prévoyez d'utiliser la console Google Cloud pour obtenir des prédictions par lot, collez votre liste de fichiers directement dans la console Google Cloud. Sinon, enregistrez votre liste de fichiers dans un bucket Cloud Storage.
L'exemple suivant montre une liste de fichiers avec deux instances d'entrée :
gs://path/to/image/image1.jpg gs://path/to/image/image2.jpg
Voici ce qui est envoyé au conteneur de prédiction dans le corps de la requête HTTP :
{"instances": [ {"b64","b64EncodedASCIIString"}, {"b64","b64EncodedASCIIString"} ]}
Assurez-vous que votre conteneur de prédiction sait comment décoder l'instance.
BigQuery
Spécifiez une table BigQuery en tant que projectId.datasetId.tableId
.
Vertex AI transforme chaque ligne de la table en instance JSON.
Par exemple, si votre table contient les éléments suivants :
Colonne 1 | Colonne 2 | Colonne 3 |
---|---|---|
1.0 | 3.0 | "Cat1" |
2.0 | 4.0 | "Cat2" |
Voici ce qui est envoyé au conteneur de prédiction dans le corps de la requête HTTP :
{"instances": [ [1.0,3.0,"cat1"], [2.0,4.0,"cat2"] ]}
Voici comment les types de données BigQuery sont convertis au format JSON :
Type BigQuery | Type JSON | Exemple de valeur |
---|---|---|
String | String | "abc" |
Integer | Integer | 1 |
Nombre à virgule flottante | Nombre à virgule flottante | 1.2 |
Numeric | Nombre à virgule flottante | 4925.000000000 |
Booléen | Booléen | true |
TimeStamp | String | "2019-01-01 23:59:59.999999+00:00" |
Date | String | "2018-12-31" |
Temps | String | "23:59:59.999999" |
DateTime | String | "2019-01-01T00:00:00" |
Enregistrer | Objet | { "A": 1,"B": 2} |
Type répété | Array[Type] | [1, 2] |
Enregistrement imbriqué | Objet | {"A": {"a": 0}, "B": 1} |
Images
Utilisez un fichier JSON Lines pour spécifier une liste d'images afin de réaliser des prédictions, puis stockez le fichier JSON Lines dans un bucket Cloud Storage. L'exemple suivant montre une seule ligne dans un fichier JSON Lines d'entrée.
{"content": "gs://sourcebucket/datasets/images/source_image.jpg", "mimeType": "image/jpeg"}
Tabulaire
Pour les données tabulaires, vous pouvez utiliser un fichier CSV dans un bucket Cloud Storage ou une table dans BigQuery. Vous pouvez fournir des données de prédiction au format CSV dans Cloud Storage ou sous forme de table dans BigQuery. Nous vous recommandons d'utiliser le même format d'entrée pour vos données d'entraînement et de prédiction. Comme Vertex AI traite tous les champs d'entrée CSV comme des chaînes, l'utilisation d'un format d'entrée différent dans l'entraînement et la prédiction peut entraîner une erreur. Par exemple, si vous avez entraîné votre modèle à l'aide de données dans BigQuery, il est préférable d'utiliser une table BigQuery comme source pour vos prédictions par lot.
Votre source de données doit contenir des données tabulaires incluant toutes les colonnes, dans n'importe quel ordre, qui ont été utilisées pour entraîner le modèle. Vous pouvez inclure des colonnes qui ne figuraient pas dans les données d'entraînement, ou qui y figuraient mais qui ont été exclues de l'entraînement. Ces colonnes supplémentaires sont incluses dans le résultat de la prédiction, mais elles ne sont pas utilisées pour générer la prédiction.
Vous n'avez pas besoin d'utiliser la même destination pour vos résultats que pour vos données de prédiction. Par exemple, si vous avez utilisé BigQuery pour la source de données de prédiction, vous pouvez envoyer les résultats dans un fichier CSV dans Cloud Storage.
Exigences relatives aux tables BigQuery
- Les tables de source de données BigQuery ne doivent pas dépasser 100 Go.
- Vous devez utiliser un ensemble de données BigQuery multirégional dans les zones
US
ouEU
. - Si la table se trouve dans un autre projet, vous devez fournir le rôle
BigQuery Data Editor
au compte de service Vertex AI de ce projet.
Exigences relatives aux fichiers CSV
- La source de données doit commencer par une ligne d'en-tête avec les noms de colonne.
- Chaque fichier de source de données ne doit pas dépasser 10 Go. Vous pouvez inclure plusieurs fichiers, jusqu'à une taille maximale de 100 Go.
- Si le bucket Cloud Storage se trouve dans un projet différent de celui où vous utilisez l'IA Vertex, vous devez fournir le rôle
Storage Object Creator
au compte de service Vertex AI de ce projet. - Vous devez placer toutes les chaînes entre guillemets doubles (").
Exigences liées aux prévisions
Outre les exigences concernant la table BigQuery ou les fichiers CSV, la saisie des modèles de prévision doit également respecter les exigences suivantes :
- Toutes les valeurs de la colonne Heure doivent être présentes et valides.
- La fréquence des données dans la table de prédiction par lot doit être identique à la fréquence des données d'entraînement. La série temporelle ne doit pas comporter de lignes manquantes. Insérez manuellement les lignes manquantes en fonction des connaissances associées au domaine.
- Les séries temporelles avec des horodatages en double sont supprimées des prédictions. Pour les inclure, supprimez les horodatages en double.
- Fournissez des données de l'historique pour chaque série temporelle à prédire. Pour que les prédictions soient les plus précises possible, la quantité de données doit être égale à la fenêtre de contexte définie lors de l'entraînement. Si vous fournissez moins de données, Vertex AI remplit les données avec des valeurs vides. Par exemple, si la période de contexte est de 14 jours, indiquez au moins 14 jours de données d'historique.
- La prévision commence à la première ligne d'une série temporelle (classée par heure) et comporte une valeur nulle dans la colonne cible. La valeur nulle doit être continue au sein de la série temporelle. Par exemple, si la colonne cible est classée par heure, vous ne pouvez pas avoir une valeur telle que "1", "2", "null", "3", "4", "null", "null". pour une seule série temporelle. Pour les fichiers CSV, Vertex AI traite une chaîne vide comme une valeur nulle et, pour BigQuery, les valeurs nulles sont compatibles de manière native.
Texte
Classification et analyse des sentiments
Utilisez un fichier JSON Lines pour spécifier une liste de documents afin de réaliser des prédictions, puis stockez le fichier JSON Lines dans un bucket Cloud Storage. L'exemple suivant montre une seule ligne dans un fichier JSON Lines d'entrée.
{"content": "gs://sourcebucket/datasets/texts/source_text.txt", "mimeType": "text/plain"}
Extraction d'entités
Pour l'extraction d'entités, vous pouvez inclure du texte intégré ou des références à des documents se trouvant dans un bucket Cloud Storage. Pour chaque document, vous pouvez également ajouter un champ key
à votre entrée.
Généralement, les résultats de la prédiction par lot mappent les entrées et les sorties à l'aide du champ instance
, qui inclut les champs content
et mimeType
. Si vous utilisez le champ key
dans votre entrée, la sortie de la prédiction par lot remplace le champ instance
par le champ key
. Cela permet de simplifier le résultat de la prédiction par lot si, par exemple, votre entrée inclut des extraits de texte volumineux.
L'exemple suivant montre un fichier JSON Lines qui inclut des références à des documents et des extraits de texte intégrés avec et sans le champ key
.
{"content": "gs://sourcebucket/datasets/texts/source_text.txt", "mimeType": "text/plain"} {"content": "gs://bucket/sample.txt", "mimeType": "text/plain", "key": "sample-file"} {"content": "Text snippet", "mimeType": "text/plain"} {"content": "Sample text snippet", "mimeType": "text/plain", "key": "sample-snippet"}
Vidéo
Utilisez un fichier JSON Lines pour spécifier une liste de vidéos afin de réaliser des prédictions, puis stockez le fichier JSON Lines dans un bucket Cloud Storage. Vous pouvez spécifier Infinity
pour le champ timeSegmentEnd
pour indiquer la fin de la vidéo. L'exemple suivant montre une seule ligne dans un fichier JSON Lines d'entrée.
{'content': 'gs://sourcebucket/datasets/videos/source_video.mp4', 'mimeType': 'video/mp4', 'timeSegmentStart': '0.0s', 'timeSegmentEnd': '2.366667s'}
Demander une prédiction par lots
Pour les requêtes de prédiction par lot, vous pouvez utiliser Google Cloud Console ou l'API Vertex AI. Selon le nombre d'éléments d'entrée envoyés, la tâche de prédiction par lot peut prendre un certain temps.
console Google Cloud
Utilisez la console Google Cloud pour demander une prédiction par lot.
Dans la console Google Cloud, dans la section Vertex AI, accédez à la page Prédictions par lot.
Cliquez sur Créer pour ouvrir la fenêtre Nouvelle prédiction par lot.
Pour Définir votre prédiction par lot, procédez comme suit :
Entraînement personnalisé
- Saisissez un nom pour la prédiction par lot.
- Dans Nom du modèle, sélectionnez le nom du modèle à utiliser pour cette prédiction par lot.
- Pour Version, sélectionnez la version de modèle à utiliser pour cette prédiction par lot.
- Pour Sélectionner une source :
- Si vous avez formaté votre entrée au format JSON Lines, CSV ou TFRecord, sélectionnez Fichier sur Cloud Storage (JSON Lines, CSV, TFRecord, TFRecord zip). Ensuite, spécifiez votre fichier d'entrée dans le champ Chemin source.
- Si vous utilisez une liste de fichiers en entrée, sélectionnez Fichiers sur Cloud Storage (autre) et collez votre liste de fichiers dans la zone de texte suivante.
- Pour l'entrée BigQuery, sélectionnez Chemin d'accès BigQuery. Si vous sélectionnez BigQuery en tant qu'entrée, vous devez également sélectionner BigQuery en tant que sortie.
- Dans le champ Destination path (Chemin de la destination), spécifiez le répertoire Cloud Storage dans lequel vous souhaitez que Vertex AI stocke le résultat de la prédiction par lot.
- Vous pouvez éventuellement cocher Activer les attributions de caractéristiques pour ce modèle afin d'obtenir des attributions de caractéristiques dans le cadre de la réponse de prédiction par lot. Cliquez ensuite sur Modifier pour configurer les paramètres d'explication. (La modification des paramètres d'explication est facultative si vous avez précédemment configuré les paramètres d'explications pour le modèle. Elle est obligatoire dans les autres cas.)
- Spécifiez les options de calcul pour la tâche de prédiction par lot : Nombre de nœuds de calcul, Type de machine et (éventuellement) Type d'accélérateur et Nombre d'accélérateurs.
Image, texte ou vidéo
- Saisissez un nom pour la prédiction par lot.
- Dans Nom du modèle, sélectionnez le nom du modèle à utiliser pour cette prédiction par lot.
- Dans le champ Chemin source, spécifiez l'emplacement Cloud Storage où se trouve votre fichier d'entrée JSON Lines.
- Pour le chemin d'accès de la destination, spécifiez un emplacement Cloud Storage où les résultats de la prédiction par lot sont stockés. Le format de sortie est déterminé par l'objectif de votre modèle. Par exemple, les modèles AutoML pour les objectifs de texte génèrent des fichiers JSON Lines.
Tabulaire
- Saisissez un nom pour la prédiction par lot.
- Dans Nom du modèle, sélectionnez le nom du modèle à utiliser pour cette prédiction par lot.
- Dans le champ Sélectionner une source, indiquez si vos données d'entrée source sont un fichier CSV sur Cloud Storage ou une table dans BigQuery.
- Pour les fichiers CSV, spécifiez l'emplacement Cloud Storage où se trouve votre fichier d'entrée CSV.
- Pour les tables BigQuery, spécifiez l'ID du projet dans lequel se trouve la table, l'ID de l'ensemble de données BigQuery, et l'ID de la table ou de la vue BigQuery.
- Dans le champ Résultat, sélectionnez CSV ou BigQuery.
- Pour le format CSV, spécifiez le bucket Cloud Storage dans lequel Vertex AI stocke votre sortie.
- Pour BigQuery, vous pouvez spécifier un ID de projet ou un ensemble de données existant :
- Pour spécifier l'ID du projet, saisissez l'ID du projet dans le champ ID du projet Google Cloud. Vertex AI crée un ensemble de données de sortie à votre place.
- Pour spécifier un ensemble de données existant, saisissez son chemin BigQuery dans le champ ID du projet Google Cloud, tel que
bq://projectid.datasetid
.
-
Si vous avez spécifié BigQuery comme destination de sortie et que vous souhaitez obtenir des valeurs d'importance des caractéristiques pour vos prédictions, cochez la case Générer l'importance des caractéristiques.
L'importance des caractéristiques n'est pas acceptée lorsque les données de prédiction sont renvoyées dans Cloud Storage ou pour des modèles de prévision.
Facultatif : L'analyse Model Monitoring est disponible pour les modèles AutoML tabulaires soumis à un entraînement personnalisé et tabulaires. Consultez la section Prérequis pour ajouter une configuration de détection de décalages à votre tâche de prédiction par lot.
Cliquez sur Activer la surveillance du modèle pour cette prédiction par lot.
Sélectionnez une source de données d'entraînement.
Saisissez le chemin d'accès aux données d'entraînement pour la source de données d'entraînement que vous avez sélectionnée.
Cliquez sur Créer.
API
Envoyez des requêtes de prédiction par lot à l'aide de l'API Vertex AI.
Soumis à un entraînement personnalisé
Sélectionnez l'onglet correspondant à l'outil que vous utilisez pour obtenir des prédictions par lot :
API REST et ligne de commande
Pour découvrir la documentation de référence de l'API REST, consultez la section BatchPredictionJob
.
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
LOCATION : région où le modèle est stocké et où la tâche de prédiction par lot est exécutée. Exemple :
us-central1
PROJECT : ID de votre projet
BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
INPUT_FORMAT : format des données d'entrée :
jsonl
,csv
,tf-record
,tf-record-gzip
oufile-list
.INPUT_URI : URI Cloud Storage de vos données d'entrée. Peut contenir des caractères génériques.
OUTPUT_DIRECTORY: URI Cloud Storage d'un répertoire dans lequel vous souhaitez que Vertex AI enregistre la sortie.
MACHINE_TYPE : ressources de machine à utiliser pour cette tâche de prédiction par lot.
Vous pouvez éventuellement configurer le champ
machineSpec
pour utiliser des accélérateurs, mais l'exemple suivant n'illustre pas ce cas de figure.BATCH_SIZE : nombre d'instances à envoyer dans chaque requête de prédiction. La valeur par défaut est 64. L'augmentation de la taille du lot peut entraîner un débit plus élevé, mais elle peut également provoquer l'expiration des requêtes.
STARTING_REPLICA_COUNT : nombre de nœuds pour cette tâche de prédiction par lot.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/LOCATION/models/MODEL_ID", "inputConfig": { "instancesFormat": "INPUT_FORMAT", "gcsSource": { "uris": ["INPUT_URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_DIRECTORY", }, }, "dedicatedResources" : { "machineSpec" : { "machineType": MACHINE_TYPE }, "startingReplicaCount": STARTING_REPLICA_COUNT }, "manualBatchTuningParameters": { "batch_size": BATCH_SIZE, } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT/locations/us-central1/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "INPUT_URI" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_DIRECTORY" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", }
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Dans l'exemple suivant, remplacez PREDICTIONS_FORMAT par jsonl
. Pour savoir comment remplacer les autres espaces réservés, consultez l'onglet REST & CMD LINE
de cette section.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Importance des fonctionnalités
Si vous souhaitez que les valeurs d'importance des caractéristiques soient renvoyées pour vos prédictions, définissez la propriété generateExplanation
sur true
. Notez que les modèles de prévision ne sont pas compatibles avec l'importance des caractéristiques. Vous ne pouvez donc pas l'inclure dans vos requêtes de prédiction par lot.
L'importance des caractéristiques, parfois appelée attribution de caractéristiques, fait partie de Vertex Explainable AI.
Vous pouvez uniquement définir generateExplanation
sur true
si vous avez configuré votre Model
pour obtenir des explications Si vous spécifiez le champ explanationSpec
de BatchPredictionJob
.
Image
L'exemple de prédiction par lot suivant fonctionne pour les objectifs de classification et de détection d'objets.
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- THRESHOLD_VALUE (facultatif): Vertex AI ne renvoie que des prédictions ayant au moins cette valeur de score de confiance. La valeur par défaut est
0.0
. - MAX_PREDICTIONS (facultatif): Vertex AI renvoie jusqu'à ce nombre de prédictions commençant par les prédictions ayant les scores de confiance les plus élevés. La valeur par défaut est
10
. - URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/LOCATION/models/MODEL_ID", "modelParameters": { "confidenceThreshold": THRESHOLD_VALUE, "maxPredictions": MAX_PREDICTIONS }, "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT/locations/us-central1/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
Vous pouvez interroger l'état de la tâche par lot à l'aide de BATCH_JOB_ID jusqu'à ce que le paramètre state
soit défini sur JOB_STATE_SUCCEEDED
.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Tabulaire
Le code nécessaire pour demander des prédictions par lot varie selon que les données de prédiction sont des fichiers CSV dans Cloud Storage ou une table BigQuery. Vous pouvez utiliser un format différent (Cloud Storage ou BigQuery) pour vos données de prédiction et votre destination de sortie. Si les données de prédiction résident dans un projet différent de celui où Vertex AI est exécuté, veillez à configurer les autorisations requises.
Demander une prédiction par lot à l'aide de fichiers CSV
API REST et ligne de commande
Utilisez la méthode batchPredictionJobs.create pour demander une prédiction par lot.
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
-
URI: chemins (URI) vers les buckets Cloud Storage contenant les données d'entraînement.
Il peut y en avoir plusieurs. Chaque URI se présente sous la forme suivante:
gs://bucketName/pathToFileName
-
OUTPUT_URI_PREFIX: chemin d'accès à une destination Cloud Storage où les prédictions seront écrites. Vertex AI écrit des prédictions par lots dans un sous-répertoire horodaté de ce chemin. Définissez cette valeur sur une chaîne au format suivant:
gs://bucketName/pathToOutputDirectory
- MACHINE_TYPE : ressources de machine à utiliser pour cette tâche de prédiction par lot. En savoir plus
- STARTING_REPLICA_COUNT : nombre de nœuds initial pour cette tâche de prédiction par lot. Le nombre de nœuds peut être augmenté ou réduit selon les besoins de la charge, jusqu'à atteindre le nombre maximal de nœuds. Toutefois, il ne sera jamais inférieur à ce nombre.
- MAX_REPLICA_COUNT : nombre maximal de nœuds pour cette tâche de prédiction par lot. Le nombre de nœuds peut être augmenté ou réduit selon les besoins de la charge, mais ne dépassera jamais le maximum. (Facultatif) La valeur par défaut est 10.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ URI1,... ] }, }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/12345/locations/us-central1/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ "gs://bp_bucket/reg_mode_test" ] } }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 } "outputInfo": { "gcsOutputDataset": "OUTPUT_URI_PREFIX/prediction-batch_job_1 202005291958-2020-09-30T02:58:44.341643Z" } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
L'importance des caractéristiques n'est pas disponible lorsque les données de prédiction sont renvoyées dans Cloud Storage.
Demander une prédiction par lot à l'aide de BigQuery
API REST et ligne de commande
Utilisez la méthode batchPredictionJobs.create pour demander une prédiction par lot.
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
-
INPUT_URI : référence à la source de données BigQuery. Sous la forme :
bq://bqprojectId.bqDatasetId.bqTableId
-
OUTPUT_URI : référence à la destination BigQuery (où les prédictions seront écrites). Spécifiez l'ID du projet et, éventuellement, un un ID d'ensemble de données existant. Si vous ne spécifiez que l'ID du projet, Vertex AI crée un ensemble de données de sortie à votre place. Utilisez le formulaire suivant :
bq://bqprojectId.bqDatasetId
- MACHINE_TYPE : ressources de machine à utiliser pour cette tâche de prédiction par lot. En savoir plus
- STARTING_REPLICA_COUNT : nombre de nœuds initial pour cette tâche de prédiction par lot. Le nombre de nœuds peut être augmenté ou réduit selon les besoins de la charge, jusqu'à atteindre le nombre maximal de nœuds. Toutefois, il ne sera jamais inférieur à ce nombre.
- MAX_REPLICA_COUNT : nombre maximal de nœuds pour cette tâche de prédiction par lot. Le nombre de nœuds peut être augmenté ou réduit selon les besoins de la charge, mais ne dépassera jamais le maximum. (Facultatif) La valeur par défaut est 10.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "OUTPUT_URI" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/12345/locations/us-central1/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": bq://12345 } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 }, "generateExplanation": false, "outputInfo": { "bigqueryOutputDataset": "bq://12345.reg_model_2020_10_02_06_04 } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Dans l'exemple suivant, remplacez INSTANCES_FORMAT et PREDICTIONS_FORMAT par bigquery
. Pour savoir comment remplacer les autres espaces réservés, consultez l'onglet REST & CMD LINE
de cette section.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Dans l'exemple suivant, définissez les paramètres instances_format
et predictions_format
sur "bigquery"
. Pour savoir comment définir les autres paramètres, consultez l'onglet REST & CMD LINE
de cette section.
Importance des fonctionnalités
Si vous souhaitez que les valeurs d'importance des caractéristiques soient renvoyées pour vos prédictions, définissez la propriété generateExplanation
sur true
. Notez que les modèles de prévision ne sont pas compatibles avec l'importance des caractéristiques. Vous ne pouvez donc pas l'inclure dans vos requêtes de prédiction par lot.
L'importance des caractéristiques, parfois appelée attribution de caractéristiques, fait partie de Vertex Explainable AI.
L'importance des caractéristiques n'est pas acceptée lorsque les données de prédiction sont renvoyées dans Cloud Storage ou pour des modèles de prévision.
Texte
Sélectionnez un objectif de texte pour afficher un exemple de requête de prédiction par lot.
Classification
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/LOCATION/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
state
soit défini sur JOB_STATE_SUCCEEDED
.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Extraction d'entités
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/LOCATION/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
state
soit défini sur JOB_STATE_SUCCEEDED
.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Analyse des sentiments
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/LOCATION/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
state
soit défini sur JOB_STATE_SUCCEEDED
.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Vidéo
Reconnaissance des actions
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- THRESHOLD_VALUE (facultatif) : le modèle ne renvoie que les prédictions dont le score de confiance est au moins égal à cette valeur.
- URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/us-central1/MODEL_ID", "modelParameters": { "confidenceThreshold": THRESHOLD_VALUE, }, "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_NUMBER/locations/us-central1/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
state
soit défini sur JOB_STATE_SUCCEEDED
.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Classification
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- THRESHOLD_VALUE (facultatif) : le modèle ne renvoie que les prédictions dont le score de confiance est au moins égal à cette valeur.
- SEGMENT_CLASSIFICATION (facultatif) : valeur booléenne qui détermine si une classification au niveau du segment est requise. Vertex AI renvoie les étiquettes et leurs scores de confiance pour l'intégralité du segment de temps de la vidéo que vous avez spécifiée dans l'instance d'entrée. La valeur par défaut est
true
. - SHOT_CLASSIFICATION (facultatif) : valeur booléenne qui détermine si une classification au niveau des plans est requise. L'IA Vertex détermine les limites de chaque plan de caméra dans l'intégralité du segment de temps de la vidéo que vous avez spécifiée dans l'instance d'entrée. L'IA Vertex renvoie les étiquettes et leurs scores de confiance pour chaque plan détecté, ainsi que les heures de début et de fin du plan. La valeur par défaut est
false
. - ONE_SEC_INTERVAL_CLASSIFICATION (facultatif) : valeur booléenne qui détermine si une requête de classification est requise pour une vidéo à intervalles d'une seconde. L'IA Vertex renvoie les étiquettes et leurs scores de confiance pour chaque seconde de l'intégralité du temps de segment de la vidéo que vous avez spécifiée dans l'instance d'entrée. La valeur par défaut est
false
. - URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/us-central1/MODEL_ID", "modelParameters": { "confidenceThreshold": THRESHOLD_VALUE, "segmentClassification": SEGMENT_CLASSIFICATION, "shotClassification": SHOT_CLASSIFICATION, "oneSecIntervalClassification": ONE_SEC_INTERVAL_CLASSIFICATION }, "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_NUMBER/locations/us-central1/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
state
soit défini sur JOB_STATE_SUCCEEDED
.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Suivi des objets
API REST et ligne de commande
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région où le modèle est stocké et la tâche de prédiction par lot est exécutée. Exemple :
us-central1
. - PROJECT : ID de votre projet
- BATCH_JOB_NAME : nom à afficher de la tâche de prédiction par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des prédictions.
- THRESHOLD_VALUE (facultatif): Vertex AI ne renvoie que des prédictions ayant au moins cette valeur de score de confiance. La valeur par défaut est
0.0
. - URI : URI Cloud Storage où se trouve le fichier JSON Lines d'entrée.
- BUCKET : votre bucket Cloud Storage.
- PROJECT_NUMBER: numéro de votre projet
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT/locations/us-central1/MODEL_ID", "modelParameters": { "confidenceThreshold": THRESHOLD_VALUE, }, "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": ["URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_BUCKET", }, }, }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_NUMBER/locations/us-central1/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_NUMBER/locations/us-central1/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "CONTENT" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "BUCKET" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", "modelDisplayName": "MODEL_NAME", "modelObjective": "MODEL_OBJECTIVE" }
state
soit défini sur JOB_STATE_SUCCEEDED
.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Node.js.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Vertex AI, consultez Bibliothèques clientes Vertex AI. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Python.
Récupérer des résultats de prédiction par lot
Vertex AI envoie une sortie de prédiction par lot à la destination spécifiée.
Entraînement personnalisé
Lorsqu'une tâche de prédiction par lot est terminée, le résultat de la prédiction est stocké dans l'emplacement Cloud Storage ou BigQuery que vous avez spécifié dans votre requête.
Images
Lorsqu'une tâche de prédiction par lot est terminée, le résultat de la prédiction est stocké dans l'emplacement Cloud Storage ou BigQuery que vous avez spécifié dans votre requête.
Tabular
La récupération des résultats dépend de la destination que vous avez spécifiée pour la prédiction par lot (BigQuery ou Cloud Storage).
Récupérer les résultats dans BigQuery
Si vous avez spécifié BigQuery comme destination de sortie, les résultats de votre requête de prédiction par lot sont renvoyés dans un ensemble de données dans le projet BigQuery que vous avez spécifié. Si vous n'avez pas spécifié d'ensemble de données BigQuery, Vertex AI crée un ensemble de données. Le nom de l'ensemble de données est celui de votre modèle, précédé de "prediction_" et suivi de l'horodatage du début de la tâche de prédiction. Vous trouverez le nom de l'ensemble de données BigQuery dans l'onglet Prédictions par lot de votre modèle.
L'ensemble de données BigQuery contient deux tables, qui sont également ajoutées avec l'horodatage du début de la tâche de prédiction : predictions_timestamp
et errors_timestampe
. La table des erreurs comprend une ligne pour chaque ligne de votre requête de prédiction pour laquelle Vertex AI n'a pas pu renvoyer de prédiction (par exemple, une caractéristique ne pouvant être vide contient une valeur nulle). La table des prédictions contient une ligne pour chaque prédiction affichée.
Dans la table des prédictions, Vertex AI affiche les données de prédiction et crée une colonne pour les résultats de prédiction en ajoutant "predicted_" au nom de la colonne cible. La colonne des résultats de prédiction comporte une structure BigQuery imbriquée qui contient les résultats de prédiction.
Pour extraire les résultats de prédiction, vous pouvez utiliser une requête dans la console BigQuery. Le format de la requête dépend du type de votre modèle. Les exemples de requêtes suivants montrent comment obtenir des résultats pour chaque objectif.
Classification :
SELECT predicted_<target-column-name>.classes AS classes, predicted_<target-column-name>.scores AS scores,
"classes" correspond à la liste des classes potentielles, et "scores" au score de confiance correspondant.
Prévision :
Pour les modèles optimisés pour la perte quantile, utilisez la requête suivante :
SELECT predicted_target-column-name.quantile_predictions, predicted_target-column-name.quantile_values, FROM bq-dataset-name.predictions_timestamp
Pour toute autre optimisation, utilisez la requête suivante :
SELECT predicted_target-column-name.value, FROM bq-dataset-name.predictions_timestamp
Régression :
SELECT predicted_<target-column-name>.value, predicted_<target-column-name>.lower_bound, predicted_<target-column-name>.upper_bound FROM <bq-dataset-name>.predictions_timestamp
Récupérer les résultats dans Cloud Storage
Si vous avez spécifié Cloud Storage comme destination de sortie, les résultats de votre requête de prédiction par lot sont affichés sous forme de fichiers CSV dans un nouveau dossier du bucket spécifié. Le nom du dossier est celui de votre modèle, précédé de "prédiction-" et suivi de l'horodatage du début de la tâche de prédiction. Vous trouverez le nom du dossier Cloud Storage dans l'onglet Prédictions par lot de votre modèle.
Le dossier Cloud Storage contient deux types de fichiers : les fichiers d'erreur et les fichiers de prédiction. Si les résultats sont volumineux, des fichiers supplémentaires sont créés.
Les fichiers d'erreur sont nommés errors_1.csv
, errors_2.csv
, etc. Ils contiennent une ligne d'en-tête et une ligne pour chaque ligne de votre requête de prédiction pour laquelle Vertex AI n'a pas pu afficher de prédiction.
Les fichiers de prédiction sont nommés predictions_1.csv
, predictions_2.csv
, etc. Ils contiennent une ligne d'en-tête avec les noms de colonne et une ligne pour chaque prédiction affichée.
Dans les fichiers de prédiction, Vertex AI renvoie les données de prédiction et crée une ou plusieurs colonnes pour les résultats de prédiction, en fonction de votre type de modèle :
Classification :
Pour chaque valeur potentielle de votre colonne cible, une colonne nommée <target-column-name>_<value>_score
est ajoutée aux résultats. Cette colonne contient le score, ou estimation du niveau de confiance, pour cette valeur.
Prévision :
Les valeurs prédites sont renvoyées dans une colonne nommée predicted_<target-column-name>
. Pour les prévisions quantiles, la colonne de sortie contient les prédictions et les valeurs quantiles au format JSON.
Régression :
La valeur prédite pour cette ligne est affichée dans une colonne intitulée predicted_<target-column-name>
. L'intervalle de prédiction n'est pas affiché dans la sortie au format CSV.
Texte
Lorsqu'une tâche de prédiction par lot est terminée, le résultat de la prédiction est stocké dans l'emplacement Cloud Storage ou BigQuery que vous avez spécifié dans votre requête.
Vidéo
Lorsqu'une tâche de prédiction par lot est terminée, le résultat de la prédiction est stocké dans l'emplacement Cloud Storage ou BigQuery que vous avez spécifié dans votre requête.
Exemples de résultats de prédictions par lot
Les exemples suivants sont des résultats de prédiction par lot. Pour plus d'informations sur les résultats d'AutoML, consultez la section Interpréter les résultats des modèles AutoML.
Entraînement personnalisé
Le dossier de sortie contient un ensemble de fichiers JSON Lines. Les fichiers sont nommés "{gcs_path}/prediction.results-{file_number}-of-{number_of_files_generated}". Le nombre de fichiers est non déterministe en raison de la nature distribuée de la prédiction par lot. Chaque ligne du fichier correspond à une instance de l'entrée et possède les paires clé/valeur suivantes :prediction
: contient la valeur renvoyée par le conteneur de prédiction.instance
: pour FileList, contient l'URI Cloud Storage. Pour tous les autres formats d'entrée, elle contient la valeur envoyée au conteneur de prédiction dans le corps de la requête HTTP.Exemple 1
Si la requête HTTP contient les éléments suivants :{ "instances": [ [1, 2, 3, 4], [5, 6, 7, 8] ]}
Et que le conteneur de prédiction renvoie ce qui suit :{ "predictions": [ [0.1,0.9], [0.7,0.3] ], }
Alors le fichier de sortie jsonl se présente ainsi :{ "instance": [1, 2, 3, 4], "prediction": [0.1,0.9]} { "instance": [5, 6, 7, 8], "prediction": [0.7,0.3]}
Exemple 2
Si la requête HTTP contient les éléments suivants :{ "instances": [ {"values": [1, 2, 3, 4], "key": 1}, {"values": [5, 6, 7, 8], "key": 2} ]}
Et que le conteneur de prédiction renvoie ce qui suit :{ "predictions": [ {"result":1}, {"result":0} ], }
Alors le fichier de sortie jsonl se présente ainsi :{ "instance": {"values": [1, 2, 3, 4], "key": 1}, "prediction": {"result":1}} { "instance": {"values": [5, 6, 7, 8], "key": 2}, "prediction": {"result":0}}
Images
Classification
{ "instance": {"content": "gs://bucket/image.jpg", "mimeType": "image/jpeg"}, "prediction": { "ids": [1, 2], "displayNames": ["cat", "dog"], "confidences": [0.7, 0.5] } }
Détection d'objets
Important : Les cadres de délimitation sont spécifiés comme suit:
"bboxes": [
[xMin, xMax, yMin, yMax],
...]
xMin, xMax
correspond aux valeurs minimale et maximale de x, et
yMin, yMax
sont les valeurs y minimales et maximales, respectivement.
{ "instance": {"content": "gs://bucket/image.jpg", "mimeType": "image/jpeg"}, "prediction": { "ids": [1, 2], "displayNames": ["cat", "dog"], "bboxes": [ [0.1, 0.2, 0.3, 0.4], [0.2, 0.3, 0.4, 0.5] ], "confidences": [0.7, 0.5] } }
Texte
Classification
{ "instance": {"content": "gs://bucket/text.txt", "mimeType": "text/plain"}, "predictions": [ { "ids": [ "1234567890123456789", "2234567890123456789", "3234567890123456789" ], "displayNames": [ "GreatService", "Suggestion", "InfoRequest" ], "confidences": [ 0.8986392080783844, 0.81984345316886902, 0.7722353458404541 ] } ] }
Extraction d'entités
{ "key": 1, "predictions": { "ids": [ "1234567890123456789", "2234567890123456789", "3234567890123456789" ], "displayNames": [ "SpecificDisease", "DiseaseClass", "SpecificDisease" ], "textSegmentStartOffsets": [13, 40, 57], "textSegmentEndOffsets": [29, 51, 75], "confidences": [ 0.99959725141525269, 0.99912621492484128, 0.99935531616210938 ] } }
Analyse des sentiments
{ "instance": {"content": "gs://bucket/text.txt", "mimeType": "text/plain"}, "prediction": {"sentiment": 8} }
Vidéo
Reconnaissance des actions
{ "instance": { "content": "gs://bucket/video.mp4", "mimeType": "video/mp4", "timeSegmentStart": "1s", "timeSegmentEnd": "5s" } "prediction": [{ "id": "1", "displayName": "swing", "timeSegmentStart": "1.2s", "timeSegmentEnd": "1.2s", "confidence": 0.7 }, { "id": "2", "displayName": "jump", "timeSegmentStart": "3.4s", "timeSegmentEnd": "3.4s", "confidence": 0.5 }] }
Classification
{ "instance": { "content": "gs://bucket/video.mp4", "mimeType": "video/mp4", "timeSegmentStart": "1s", "timeSegmentEnd": "5s" } "prediction": [{ "id": "1", "displayName": "cat", "type": "segment-classification", "timeSegmentStart": "1s", "timeSegmentEnd": "5s", "confidence": 0.7 }, { "id": "1", "displayName": "cat", "type": "shot-classification", "timeSegmentStart": "1s", "timeSegmentEnd": "4s", "confidence": 0.9 }, { "id": "2", "displayName": "dog", "type": "shot-classification", "timeSegmentStart": "4s", "timeSegmentEnd": "5s", "confidence": 0.6 }, { "id": "1", "displayName": "cat", "type": "one-sec-interval-classification", "timeSegmentStart": "1s", "timeSegmentEnd": "1s", "confidence": 0.95 }, { "id": "1", "displayName": "cat", "type": "one-sec-interval-classification", "timeSegmentStart": "2s", "timeSegmentEnd": "2s", "confidence": 0.9 }, { "id": "1", "displayName": "cat", "type": "one-sec-interval-classification", "timeSegmentStart": "3s", "timeSegmentEnd": "3s", "confidence": 0.85 }, { "id": "2", "displayName": "dog", "type": "one-sec-interval-classification", "timeSegmentStart": "4s", "timeSegmentEnd": "4s", "confidence": 0.6 }] }
Suivi des objets
{ "instance": { "content": "gs://bucket/video.mp4", "mimeType": "video/mp4", "timeSegmentStart": "1s", "timeSegmentEnd": "5s" } "prediction": [{ "id": "1", "displayName": "cat", "timeSegmentStart": "1.2s", "timeSegmentEnd": "3.4s", "frames": [{ "timeOffset": "1.2s", "xMin": 0.1, "xMax": 0.2, "yMin": 0.3, "yMax": 0.4 }, { "timeOffset": "3.4s", "xMin": 0.2, "xMax": 0.3, "yMin": 0.4, "yMax": 0.5, }], "confidence": 0.7 }, { "id": "1", "displayName": "cat", "timeSegmentStart": "4.8s", "timeSegmentEnd": "4.8s", "frames": [{ "timeOffset": "4.8s", "xMin": 0.2, "xMax": 0.3, "yMin": 0.4, "yMax": 0.5, }], "confidence": 0.6 }, { "id": "2", "displayName": "dog", "timeSegmentStart": "1.2s", "timeSegmentEnd": "3.4s", "frames": [{ "timeOffset": "1.2s", "xMin": 0.1, "xMax": 0.2, "yMin": 0.3, "yMax": 0.4 }, { "timeOffset": "3.4s", "xMin": 0.2, "xMax": 0.3, "yMin": 0.4, "yMax": 0.5, }], "confidence": 0.5 }] }
Étape suivante
- Interpréter les résultats des prédictions à partir de modèles AutoML.
- Ajoutez l'analyse Model Monitoring aux prédictions par lot.