Cette page explique l'intégration de PyTorch à Vertex AI et fournit des ressources expliquant comment utiliser PyTorch sur Vertex AI. L'intégration de PyTorch dans Vertex AI vous permet d'entraîner, de déployer et d'orchestrer plus facilement des modèles PyTorch en production.
Exécuter du code dans des notebooks
Vertex AI propose deux options pour exécuter votre code dans les notebooks : Colab Enterprise et Vertex AI Workbench. Pour en savoir plus sur ces options, consultez la section Choisir une solution de notebook.
Conteneurs prédéfinis pour l'entraînement
Vertex AI fournit des images de conteneurs Docker prédéfinies pour l'entraînement de modèle. Ces conteneurs sont organisés par frameworks de machine learning et versions de framework. Ils incluent des dépendances communes que vous souhaiterez peut-être utiliser dans votre code d'entraînement. Pour savoir quelles sont les versions de PyTorch comportant des conteneurs d'entraînement prédéfinis et comment entraîner des modèles avec un conteneur d'entraînement prédéfini, consultez la page Conteneurs préconfigurés pour l'entraînement personnalisé.
Conteneurs préconfigurés pour la diffusion des prédictions
Vertex AI fournit des images de conteneur Docker prédéfinies pour diffuser les prédictions par lot et en ligne. Ces conteneurs sont organisés par frameworks de machine learning et versions de framework. Ils incluent des dépendances communes que vous souhaiterez peut-être utiliser dans votre code de prédiction. Pour savoir quelles versions de PyTorch contiennent des conteneurs de prédiction prédéfinis et comment diffuser des modèles avec un conteneur de prédiction prédéfini, consultez la page Conteneurs de prédiction prédéfinis pour l'entraînement personnalisé.
Entraînement distribué
Vous pouvez exécuter un entraînement distribué de modèles PyTorch sur Vertex AI. Pour un entraînement sur plusieurs nœuds de calcul, vous pouvez utiliser Reduction Server afin d'optimiser davantage les performances pour les opérations collectives de réduction globale (all-reduce). Pour en savoir plus sur l'entraînement distribué sur Vertex AI, consultez la page Entraînement distribué.
Ressources pour l'utilisation de PyTorch sur Vertex AI
Pour en savoir plus et commencer à utiliser PyTorch dans Vertex AI, consultez les ressources suivantes :
- Entraîner des modèles PyTorch et régler leurs paramètres sur Vertex AI : découvrez comment utiliser Vertex AI Training pour créer et entraîner un modèle de classification des sentiments d'après un texte, à l'aide de PyTorch, et comment utiliser le réglage des hyperparamètres de Vertex AI pour ajuster les hyperparamètres des modèles PyTorch.
- Déployer des modèles PyTorch sur Vertex AI : passez en revue le déploiement d'un modèle PyTorch qui utilise TorchServe comme conteneur personnalisé, en déployant les artefacts du modèle vers un service Vertex AI Prediction.
- Orchestrer les workflows de ML PyTorch sur les pipelines Vertex AI : découvrez comment créer et orchestrer des pipelines de ML pour entraîner et déployer des modèles PyTorch sur Google Cloud Vertex AI à l'aide de Vertex AI Pipelines.
- Workflows de ML évolutifs utilisant PyTorch sur Kubeflow Pipelines et Vertex Pipelines : consultez des exemples de workflows de ML basés sur PyTorch exécutés sur des pipelines Open Source Kubeflow Pipelines (dans le cadre du projet Kubeflow) et Vertex AI Pipelines. Nous partageons les nouveaux composants intégrés PyTorch qui sont ajoutés aux pipelines Kubeflow Pipelines.
- Diffuser des modèles d'image PyTorch avec des conteneurs prédéfinis sur Vertex AI : ce notebook déploie un modèle de classification d'images PyTorch sur Vertex AI à l'aide d'images de diffusion PyTorch prédéfinies.
Étape suivante
- Tutoriel : Utiliser Vertex AI pour entraîner un modèle de classification d'images PyTorch dans l'un des environnements de conteneurs prédéfinis de Vertex AI à l'aide de la console Google Cloud.
Pour obtenir des instructions détaillées sur cette tâche directement dans la console Google Cloud, cliquez sur Visite guidée :