Présentation de Vertex AI

Vertex AI regroupe AutoML et AI Platform en une API unifiée, une bibliothèque cliente et une interface utilisateur. AutoML vous permet d'entraîner des modèles sur des ensembles de données d'image, tabulaires, texte et vidéo sans écrire de code, tandis que l'entraînement dans AI Platform vous permet d'exécuter du code d'entraînement personnalisé. Avec Vertex AI, l'entraînement AutoML et l'entraînement personnalisé sont disponibles. Quelle que soit l'option choisie pour l'entraînement, vous pouvez enregistrer des modèles, déployer des modèles et demander des prédictions avec Vertex AI.

Vertex AI dans le workflow de ML

Vous pouvez utiliser Vertex AI pour gérer les étapes suivantes du workflow de ML :

  • Créer un ensemble de données et importer des données.

  • Entraîner un modèle de ML sur vos données :

    • Entraîner le modèle
    • Évaluer la précision du modèle
    • Régler les hyperparamètres (entraînement personnalisé uniquement)
  • Importer et stocker le modèle dans Vertex AI

  • Déployer le modèle entraîné sur un point de terminaison pour réaliser des prédictions

  • Envoyer des requêtes de prédiction au point de terminaison

  • Spécifier une répartition du trafic des prédictions dans le point de terminaison

  • Gérer vos modèles et vos points de terminaison.

Composants de Vertex AI

Cette section décrit les éléments qui composent Vertex AI et l'objectif principal de chaque élément.

Entraînement de modèle

Vous pouvez entraîner des modèles sur Vertex AI à l'aide d'AutoML, ou utiliser l'entraînement personnalisé si vous avez besoin d'un plus grand éventail d'options de personnalisation disponibles dans AI Platform Training.

Dans un entraînement personnalisé, vous pouvez choisir parmi de nombreux types de machines différents pour traiter vos tâches d'entraînement, activer l'entraînement distribué, utiliser les réglages d'hyperparamètres et exploiter des GPU.

Déploiement de modèle pour la prédiction

Vous pouvez déployer des modèles sur Vertex AI et obtenir un point de terminaison pour diffuser des prédictions sur Vertex AI, que le modèle ait été entraîné ou non sur Vertex AI.

Vertex AI Data Labeling

Les tâches d'ajout d'étiquettes aux données vous permettent de demander un ajout manuel d'étiquettes sur un ensemble de données que vous prévoyez d'utiliser pour entraîner un modèle de machine learning personnalisé. Vous pouvez envoyer une demande d'étiquetage de vos données vidéo, données d'images ou données texte.

Pour envoyer une demande d'étiquetage, il vous suffit de fournir un échantillon représentatif de données étiquetées, de spécifier toutes les étiquettes possibles pour votre ensemble de données, et de fournir des instructions sur la manière d'ajouter ces étiquettes. Les évaluateurs humains suivent vos instructions et, lorsque la demande d'étiquetage est terminée, vous obtenez un ensemble de données annoté que vous pouvez utiliser pour entraîner un modèle de machine learning.

Feature Store Vertex AI

Vertex AI Feature Store est un dépôt entièrement géré dans lequel vous pouvez ingérer, diffuser et partager des valeurs de caractéristiques de ML dans votre organisation. Vertex AI Feature Store gère l'ensemble de l'infrastructure sous-jacente. Par exemple, il vous fournit des ressources de stockage et de calcul, et peut facilement évoluer en fonction des besoins.

Vertex AI Workbench

Vertex AI Workbench est un environnement de développement basé sur des notebooks Jupyter pour l'ensemble du workflow de science des données. Vertex AI Workbench vous permet d'accéder aux données, de les traiter dans un cluster Dataproc, d'entraîner un modèle, de partager vos résultats et bien plus, sans même quitter l'interface JupyterLab.

Outils pour interagir avec Vertex AI

Cette section décrit les outils utilisés pour interagir avec Vertex AI.

Google Cloud Console

Vous pouvez déployer des modèles dans le cloud et gérer vos ensembles de données, modèles, points de terminaison et tâches dans Cloud Console. Cette option fournit une interface utilisateur qui vous permet de travailler avec vos ressources de machine learning. Dans Google Cloud, vos ressources Vertex AI sont connectées à des outils utiles tels que Cloud Logging et Cloud Monitoring. La meilleure solution pour commencer à utiliser Cloud Console est la page Tableau de bord de la section Vertex AI :

Accéder au tableau de bord

Bibliothèques clientes Google Cloud

Vertex AI fournit des bibliothèques clientes pour certains langages pour vous aider à appeler l'API Vertex AI. Les bibliothèques clientes offrent une expérience de développement optimisée en utilisant les conventions et styles naturels de chaque langage compatible. Pour plus d'informations sur les langages compatibles et sur leur installation, consultez la page Installer les bibliothèques clientes.

Vous pouvez également utiliser les bibliothèques clientes pour les API Google pour accéder à l'API Vertex AI à l'aide d'autres langages tels que Dart. Lorsque vous utilisez les bibliothèques clientes pour les API Google, vous construisez des représentations des ressources et des objets utilisés par l'API. Cela est plus facile et nécessite moins de code que de travailler directement avec des requêtes HTTP.

API REST

L'API REST de Vertex AI fournit des services RESTful pour la gestion des tâches, des modèles et des points de terminaison, ainsi que pour la prédiction avec des modèles hébergés sur Google Cloud.

Images de VM Deep Learning

Deep Learning VM Images est un ensemble d'images de machines virtuelles optimisées pour les tâches de science des données et de machine learning. Toutes les images sont livrées avec des outils et des frameworks de ML clés pré-installés. Vous pouvez les utiliser directement sur les instances dotées de GPU pour accélérer vos tâches de traitement de données.

Les instances Deep Learning VM Image sont compatibles avec de nombreuses combinaisons de framework et de processeur. Il existe actuellement des images compatibles avec TensorFlow Enterprise, TensorFlow, PyTorch et le calcul hautes performances générique, dans des versions pour les workflows reposant uniquement sur le processeur ou utilisant des GPU.

Pour afficher la liste des frameworks disponibles, consultez la page Choisir une image.

Pour en savoir plus, consultez la page Utiliser Deep Learning VM Images et les conteneurs de deep learning avec Vertex AI.

Conteneurs de deep learning

Les conteneurs de deep learning sont un ensemble de conteneurs Docker avec des frameworks de science de données, des bibliothèques et des outils pré-installés. Ces conteneurs fournissent des environnements cohérents et optimisés pour les performances, qui peuvent vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows.

Pour en savoir plus, consultez la page Utiliser Deep Learning VM Images et les conteneurs de deep learning avec Vertex AI.

Étape suivante