Entraîner un modèle à l'aide de Vertex AI et du SDK Python
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Ce tutoriel est un guide de bout en bout qui vous explique comment utiliser le SDK Vertex AI pour Python afin de créer un modèle à entraînement personnalisé. Vous exécutez du code dans un fichier de notebook (IPYNB) qui utilise un conteneur Docker pour entraîner et créer le modèle. Ce tutoriel s'adresse aux data scientists qui débutent sur Vertex AI et sont familiarisés avec les notebooks, Python et le workflow de machine learning (ML).
Le processus commence à l'aide de la console Google Cloud pour créer le projet contenant votre travail. Dans votre projet, vous utilisez Vertex AI Workbench pour créer un notebook Jupyter. L'environnement de notebook est l'endroit où vous exécutez le code qui télécharge et prépare un ensemble de données, puis utilise l'ensemble de données pour créer et entraîner un modèle. À la fin du tutoriel, le modèle entraîné génère des prédictions.
L'objectif de ce tutoriel est de vous guider à travers toutes les étapes nécessaires pour créer des prédictions en moins d'une heure. L'ensemble de données utilisé est relativement petit afin que l'entraînement de votre modèle ne prenne pas beaucoup de temps. Lorsque vous aurez terminé, vous pourrez appliquer ce que vous avez appris à des ensembles de données plus volumineux. Plus votre ensemble de données est volumineux, plus vos prédictions sont précises.
Étapes du tutoriel
Prérequis : créez votre Google Cloud
compte et votre projet.
Créer un notebook : créez et préparez un notebook Jupyter et son environnement. Vous utilisez le notebook pour exécuter du code qui crée votre ensemble de données, crée et entraîne votre modèle et génère vos prédictions.
Créer un ensemble de données - téléchargez un ensemble de données BigQuery accessible au public, puis utilisez-le pour créer un ensemble de données tabulaire Vertex AI. L'ensemble de données contient les données que vous utilisez pour entraîner le modèle.
Créer un script d'entraînement - créez un script Python que vous transmettez à votre job d'entraînement. Le script s'exécute lorsque le job d'entraînement entraîne et crée votre modèle.
Entraîner un modèle - utilisez votre ensemble de données tabulaire pour entraîner et déployer un modèle. Vous utilisez le modèle pour créer vos prédictions.
Effectuer des prédictions - utilisez votre modèle pour créer des prédictions. Cette section explique également comment supprimer les ressources que vous créez lors de l'exécution de ce tutoriel afin d'éviter des frais inutiles.
Objectifs
Ce tutoriel vous explique comment utiliser le SDK Vertex AI pour Python pour effectuer les opérations suivantes :
Créer un bucket Cloud Storage pour stocker un ensemble de données
Prétraiter les données pour l'entraînement
Utiliser les données traitées pour créer un ensemble de données dans BigQuery
Utiliser l'ensemble de données BigQuery pour créer un ensemble de données tabulaire Vertex AI
Créer et entraîner un modèle personnalisé
Déployer le modèle personnalisé sur un point de terminaison
Générer une prédiction
Annuler le déploiement du modèle
Supprimer toutes les ressources créées dans le tutoriel pour éviter des frais supplémentaires.
Ressources facturables utilisées
Ce tutoriel utilise des ressources facturables associées aux services Google Cloud Vertex AI, BigQuery et Cloud Storage. Si vous débutez sur Google Cloud, vous pouvez peut-être utiliser un ou plusieurs de ces services sans frais. Vertex AI offre 300 $de crédits gratuits aux nouveaux clients, et Cloud Storage et BigQuery proposent également des versions gratuites. Pour en savoir plus, consultez les ressources suivantes :
Pour éviter des frais supplémentaires, la dernière étape de ce tutoriel vous explique comment supprimer toutes les ressources Google Cloud facturables que vous avez créées.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Train a model using Vertex AI and the Python SDK\n\n| This tutorial takes between 30 and 60 minutes to complete.\n\n\u003cbr /\u003e\n\nThis tutorial is a start-to-finish guide that shows you how to use the\nVertex AI SDK for Python to create a custom-trained model. You run code in a\nnotebook (IPYNB) file that uses a Docker container to train and create the\nmodel. The tutorial is for data scientists who are new to Vertex AI and\nfamiliar with notebooks, Python, and the Machine Learning (ML) workflow.\n\nThe process starts using the Google Cloud console to create the project that\ncontains your work. In your project, you use Vertex AI Workbench to\ncreate a Jupyter notebook. The notebook environment is where you run code\nthat downloads and prepares a dataset, then use the dataset to create and train\na model. At the end of the tutorial, the trained model generates predictions.\n\nThe goal of this tutorial is to walk you through every step required to create\npredictions in less than an hour. The dataset used is relatively small so that it\ndoesn't take very long to train your model. When you're done, you can apply what\nyou learn to larger datasets. The larger your dataset is, the more accurate your\npredictions are.\n\nTutorial steps\n--------------\n\n1. [Prerequisites](/vertex-ai/docs/tutorials/tabular-bq-prediction/prerequisites) - Create your Google Cloud\n account and project.\n\n2. [Create a\n notebook](/vertex-ai/docs/tutorials/tabular-bq-prediction/create-notebook) -\n Create and prepare a Jupyter notebook and its environment. You use the\n notebook to run code that creates your dataset, creates and trains your\n model, and generates your predictions.\n\n3. [Create a dataset](/vertex-ai/docs/tutorials/tabular-bq-prediction/create-dataset) - Download a publicly\n available BigQuery dataset, then use it to create a Vertex AI\n tabular dataset. The dataset contains the data you use to train your model.\n\n4. [Create a training script](/vertex-ai/docs/tutorials/tabular-bq-prediction/create-training-script) - Create\n a Python script that you pass to your training job. The script runs when the\n training job trains and creates your model.\n\n5. [Train a model](/vertex-ai/docs/tutorials/tabular-bq-prediction/train-and-deploy-model) - Use your tabular\n dataset to train and deploy a model. You use the model to create your\n predictions.\n\n6. [Make predictions](/vertex-ai/docs/tutorials/tabular-bq-prediction/make-prediction) - Use your model to\n create predictions. This section also walks you through deleting resources\n you create while running this tutorial so you don't incur unnecessary\n charges.\n\nWhat you accomplish\n-------------------\n\nThis tutorial walks you through how to use the Vertex AI SDK for Python to do the\nfollowing:\n\n- Create a Cloud Storage bucket to store a dataset\n- Preprocess data for training\n- Use the processed data to create a dataset in BigQuery\n- Use the BigQuery dataset to create a Vertex AI tabular dataset\n- Create and train a custom-trained model\n- Deploy the custom-trained model to an endpoint\n- Generate a prediction\n- Undeploy the model\n- Delete all resources created in the tutorial so you don't incur further charges\n\nBillable resources used\n-----------------------\n\nThis tutorial uses billable resources associated with the Vertex AI,\nBigQuery, and Cloud Storage Google Cloud services. If you're\nnew to Google Cloud, you might be able to use one or more of these services at\nno cost. Vertex AI offers $300 in free credits to new customers, and\nCloud Storage and BigQuery have [free\ntiers](https://cloud.google.com/free). For more information, see the following:\n\n- [Vertex AI pricing](/vertex-ai/pricing) and [Free cloud features and trial offer](https://cloud.google.com/free/docs/free-cloud-features#free-trial)\n- [BigQuery pricing](/bigquery/pricing) and [BigQuery free tier usage](https://cloud.google.com/free/docs/free-cloud-features?#bigquery)\n- [Cloud Storage pricing](/storage/pricing) and [Cloud Storage free tier usage](https://cloud.google.com/free/docs/free-cloud-features#storage)\n- [Google Cloud pricing calculator](/products/calculator)\n\nTo prevent further charges, the final step of this tutorial walks you\nthrough removing all billable Google Cloud resources you created."]]