Composant de prédiction par lot

La ressource BatchPredictionJob vous permet d'exécuter une requête de prédiction asynchrone. Demandez des prédictions par lot directement à partir de la ressource model. Vous n'avez pas besoin de déployer le modèle sur un endpoint. Pour les types de données compatibles avec les prédictions par lot et en ligne, vous pouvez utiliser les prédictions par lot. Cette méthode s'avère utile lorsque vous n'avez pas besoin d'une réponse immédiate et que vous souhaitez traiter des données accumulées à l'aide d'une seule requête.

Pour effectuer une prédiction par lot, vous devez spécifier une source d'entrée et un emplacement de sortie permettant à Vertex AI de stocker les résultats des prédictions. Les entrées et les sorties dépendent du type de model que vous utilisez. Par exemple, les prédictions par lot pour le type de modèle d'image AutoML nécessitent un fichier JSON Lines d'entrée et le nom d'un bucket Cloud Storage pour stocker le résultat. Pour en savoir plus sur la prédiction par lot, consultez la section Obtenir des prédictions par lot.

Vous pouvez utiliser le composant ModelBatchPredictOp pour accéder à cette fonctionnalité via Vertex AI Pipelines.

Document de référence sur les API

Tutoriels

Historique des versions et notes de version

Pour en savoir plus sur l'historique des versions et les modifications apportées au SDK des composants du pipeline Google Cloud, consultez les notes de version du SDK des composants du pipeline Google Cloud.

Contacts pour l'assistance technique

Si vous avez des questions, veuillez nous contacter à l'adresse kubeflow-pipelines-components@google.com.