Présentation de Vertex AI

Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Vertex AI est une plate-forme de machine learning (ML) qui vous permet d'entraîner et de déployer des modèles de ML et des applications d'IA. Vertex AI combine les workflows d'ingénierie des données, de science des données et d'ingénierie de ML, ce qui permet à vos équipes de collaborer à l'aide d'un ensemble d'outils commun.

Vertex AI propose plusieurs options d'entraînement de modèle :

  • AutoML vous permet d'entraîner des données tabulaires, d'images, de texte et vidéo sans écrire de code ni préparer de répartitions des données.

  • L'entraînement personnalisé vous offre un contrôle total sur le processus d'entraînement, y compris l'utilisation de votre framework de ML préféré, l'écriture de votre propre code d'entraînement et le choix des options de réglage des hyperparamètres.

Une fois vos modèles déployés, utilisez les outils MLOps de bout en bout de Vertex AI pour automatiser et faire évoluer les projets tout au long du cycle de vie du ML. Ces outils MLOps sont exécutés sur une infrastructure entièrement gérée que vous pouvez personnaliser en fonction de vos besoins en termes de performances et de budget.

Vous pouvez utiliser le SDK Vertex AI pour Python pour exécuter l'intégralité du workflow de machine learning dans Vertex AI Workbench, un environnement de développement basé sur un notebook Jupyter. Les autres interfaces disponibles comprennent la console Google Cloud, l'outil de ligne de commande gcloud, les bibliothèques clientes et Terraform (compatibilité limitée).

Vertex AI et workflow de machine learning (ML)

Cette section présente le workflow de machine learning et explique comment utiliser Vertex AI pour créer et déployer vos modèles.

schéma du workflow de ML

  1. Préparation des données : après avoir extrait et nettoyé votre ensemble de données, effectuez une analyse exploratoire des données (EDA, exploratory data analysis) pour comprendre le schéma de données et les caractéristiques attendues du modèle de ML. Appliquez les transformations de données et l'extraction de caractéristiques au modèle, et répartissez les données en ensembles d'entraînement, de validation et de test.

    • Explorez et visualisez les données à l'aide de notebooks Vertex AI Workbench. Vertex AI Workbench s'intègre à Cloud Storage et BigQuery pour vous aider à accéder à vos données et à les traiter plus rapidement.

    • Pour les ensembles de données volumineux, utilisez Dataproc Serverless Spark à partir d'un notebook Vertex AI Workbench pour exécuter des charges de travail Spark sans avoir à gérer vos propres clusters Dataproc.

  2. Entraînement du modèle : choisissez une méthode d'entraînement pour entraîner un modèle et le régler pour améliorer ses performances.

    • Pour entraîner un modèle sans écrire de code, consultez la présentation d'AutoML. AutoML accepte les données tabulaires, d'image, de texte et vidéo.

    • Pour écrire votre propre code d'entraînement et entraîner des modèles personnalisés à l'aide du framework de ML de votre choix, consultez la page Présentation de l'entraînement personnalisé.

    • Optimisez les hyperparamètres pour les modèles personnalisés à l'aide de jobs de réglage personnalisées.

    • Vertex AI Vizier ajuste automatiquement les hyperparamètres dans les modèles de machine learning complexes.

    • Utilisez les tests Vertex AI pour entraîner votre modèle à l'aide de différentes techniques de ML et comparez les résultats.

    • Enregistrez vos modèles entraînés dans Vertex AI Model Registry pour la gestion des versions et l'envoi en production. Vertex AI Model Registry s'intègre aux fonctionnalités de validation et de déploiement telles que l'évaluation des modèles et les points de terminaison.

  3. Évaluation et itération du modèle : évaluez votre modèle entraîné, ajustez vos données en fonction des métriques d'évaluation et effectuez des itérations sur votre modèle.

    • Utilisez les métriques d'évaluation de modèle, telles que la précision et le rappel, pour évaluer et comparer les performances de vos modèles. Créez des évaluations via Vertex AI Model Registry ou incluez des évaluations dans votre workflow Vertex AI Pipelines.
  4. Diffusion du modèle : déployez votre modèle en production et obtenez des prédictions.

    • Déployez votre modèle entraîné personnalisé à l'aide de conteneurs prédéfinis ou personnalisés pour obtenir des prédictions en ligne en temps réel (parfois appelée prédictions HTTP).

    • Obtenez des prédictions par lot asynchrones, qui ne nécessitent pas de déploiement sur des points de terminaison.

    • L'environnement d'exécution TensorFlow optimisé vous permet de diffuser des modèles TensorFlow à moindre coût et avec une latence inférieure à celle des conteneurs TensorFlow Serving prédéfinis basés sur Open Source.

    • Pour les cas de diffusion en ligne avec des modèles tabulaires, utilisez Vertex AI Feature Store pour diffuser des caractéristiques à partir d'un dépôt central et surveiller l'état des caractéristiques.

    • Vertex Explainable AI vous aide à comprendre comment chaque caractéristique contribue à la prédiction du modèle (attribution de caractéristiques) et à identifier les données mal étiquetées de l'ensemble de données d'entraînement (explications basées sur des exemples).

    • Déployez et obtenez des prédictions en ligne pour les modèles entraînés avec BigQuery ML.

  5. Surveillance des modèles : surveillez les performances de votre modèle déployé. Utilisez les données de prédiction entrantes pour réentraîner votre modèle afin d'améliorer les performances.

    • Vertex AI Model Monitoring surveille les écarts entraînement/diffusion et les dérives de prédiction, et vous envoie des alertes lorsque les données entrantes de prédiction sont trop éloignées de la référence d'entraînement.

Étapes suivantes