La ressource BatchPredictionJob
vous permet d'exécuter une requête de prédiction asynchrone. Demandez des prédictions par lot directement à partir de la ressource model
. Vous n'avez pas besoin de déployer
le modèle sur un endpoint
. Pour les types de données compatibles avec les prédictions par lot et en ligne, vous pouvez utiliser les prédictions par lot.
Cette méthode s'avère utile lorsque vous n'avez pas besoin d'une réponse immédiate et que vous souhaitez traiter des données accumulées à l'aide d'une seule requête.
Pour effectuer une prédiction par lot, vous devez spécifier une source d'entrée et un emplacement de sortie permettant à Vertex AI de stocker les résultats des prédictions. Les entrées et les sorties dépendent du type de model
que vous utilisez. Par exemple, les prédictions par lot pour le type de modèle d'image AutoML nécessitent un fichier JSON Lines d'entrée et le nom d'un bucket Cloud Storage pour stocker le résultat.
Pour en savoir plus sur la prédiction par lot, consultez la section Obtenir des prédictions par lot.
Vous pouvez utiliser le composant ModelBatchPredictOp
pour accéder à cette ressource via Vertex AI Pipelines.
Documentation de référence de l'API
- Pour en savoir plus sur les composants, consultez la documentation de référence du SDK des composants du pipeline Google Cloud pour les composants de la prédiction par lot.
- Pour en savoir plus sur l'API Vertex AI, consultez la page Ressource
BatchPredictionJob
.
Tutoriels
Historique des versions et notes de version
Pour en savoir plus sur l'historique des versions et les modifications apportées au SDK des composants du pipeline Google Cloud, consultez les notes de version du SDK des composants du pipeline Google Cloud.
Contacts pour l'assistance technique
Si vous avez des questions, veuillez nous contacter à l'adresse kubeflow-pipelines-components@google.com.