Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
La ressource BatchPredictionJob vous permet d'exécuter une requête de prédiction asynchrone. Demandez des prédictions par lot directement à partir de la ressource model. Vous n'avez pas besoin de déployer
le modèle sur un endpoint. Pour les types de données compatibles avec les prédictions par lot et en ligne, vous pouvez utiliser les prédictions par lot.
Cette méthode s'avère utile lorsque vous n'avez pas besoin d'une réponse immédiate et que vous souhaitez traiter des données accumulées à l'aide d'une seule requête.
Pour effectuer une prédiction par lot, vous devez spécifier une source d'entrée et un emplacement de sortie permettant à Vertex AI de stocker les résultats des prédictions. Les entrées et les sorties dépendent du type de model que vous utilisez. Par exemple, les prédictions par lot pour le type de modèle d'image AutoML nécessitent un fichier JSON Lines d'entrée et le nom d'un bucket Cloud Storage pour stocker le résultat.
Pour en savoir plus sur la prédiction par lot, consultez la section Obtenir des prédictions par lot.
Vous pouvez utiliser le composant ModelBatchPredictOp pour accéder à cette ressource via Vertex AI Pipelines.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/23 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/23 (UTC)."],[],[],null,["# Batch prediction components\n\n| To learn more,\n| run the \"Learn how to use prebuilt Pipeline Components to train a custom model\" notebook in one of the following\n| environments:\n|\n| [Open in Colab](https://colab.research.google.com/github/GoogleCloudPlatform/vertex-ai-samples/blob/main/notebooks/official/pipelines/custom_model_training_and_batch_prediction.ipynb)\n|\n|\n| \\|\n|\n| [Open in Colab Enterprise](https://console.cloud.google.com/vertex-ai/colab/import/https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fvertex-ai-samples%2Fmain%2Fnotebooks%2Fofficial%2Fpipelines%2Fcustom_model_training_and_batch_prediction.ipynb)\n|\n|\n| \\|\n|\n| [Open\n| in Vertex AI Workbench](https://console.cloud.google.com/vertex-ai/workbench/deploy-notebook?download_url=https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fvertex-ai-samples%2Fmain%2Fnotebooks%2Fofficial%2Fpipelines%2Fcustom_model_training_and_batch_prediction.ipynb)\n|\n|\n| \\|\n|\n| [View on GitHub](https://github.com/GoogleCloudPlatform/vertex-ai-samples/blob/main/notebooks/official/pipelines/custom_model_training_and_batch_prediction.ipynb)\n\nThe `BatchPredictionJob` resource lets you run an asynchronous\nprediction request. Request batch predictions directly from the `model`\nresource. You don't need to deploy the model to an `endpoint`. For data types\nthat support both batch and online predictions you can use batch predictions.\nThis is useful when you don't require an immediate response and want to process\naccumulated data by using a single request.\n\nTo make a batch prediction, specify an input source and an output location\nfor Vertex AI to store predictions results. The inputs and outputs\ndepend on the `model` type that you're working with. For example, batch\npredictions for the AutoML image model type require an input\n[JSON Lines](https://jsonlines.org/)\nfile and the name of a Cloud Storage bucket to store the output.\nFor more information about batch prediction, see\n[Get batch predictions](/vertex-ai/docs/predictions/batch-predictions).\n\nYou can use the [`ModelBatchPredictOp`](https://google-cloud-pipeline-components.readthedocs.io/en/google-cloud-pipeline-components-2.19.0/api/v1/batch_predict_job.html#v1.batch_predict_job.ModelBatchPredictOp) component to access this resource through Vertex AI Pipelines.\n\nAPI reference\n-------------\n\n- For component reference, see the [Google Cloud SDK reference for Batch prediction components](https://google-cloud-pipeline-components.readthedocs.io/en/google-cloud-pipeline-components-2.19.0/api/v1/batch_predict_job.html).\n- For Vertex AI API reference, see the [`BatchPredictionJob` resource](/vertex-ai/docs/reference/rest/v1/projects.locations.batchPredictionJobs) page.\n\nTutorials\n---------\n\n- [Custom training with prebuilt Google Cloud Pipeline Components](https://github.com/GoogleCloudPlatform/vertex-ai-samples/blob/main/notebooks/official/pipelines/custom_model_training_and_batch_prediction.ipynb)\n\n### Version history and release notes\n\nTo learn more about the version history and changes to the Google Cloud Pipeline Components SDK, see the [Google Cloud Pipeline Components SDK Release Notes](https://google-cloud-pipeline-components.readthedocs.io/en/google-cloud-pipeline-components-2.19.0/release.html).\n\n### Technical support contacts\n\nIf you have any questions, reach out to\n[kubeflow-pipelines-components@google.com](mailto: kubeflow-pipelines-components@google.com)."]]