Présentation de Vertex AI

Vertex AI regroupe AutoML et AI Platform en une API unifiée, une bibliothèque cliente et une interface utilisateur. AutoML vous permet d'entraîner des modèles sur des ensembles de données d'image, tabulaires, texte et vidéo sans écrire de code, tandis que l'entraînement dans AI Platform vous permet d'exécuter du code d'entraînement personnalisé. Avec l'IA Vertex, l'entraînement AutoML et l'entraînement personnalisé sont disponibles. Quelle que soit l'option choisie pour l'entraînement, vous pouvez enregistrer des modèles, déployer des modèles et demander des prédictions avec l'IA Vertex.

L'IA Vertex dans le workflow de ML

Vous pouvez utiliser Vertex AI pour gérer les étapes suivantes du workflow de ML :

  • Créer un ensemble de données et importer des données.

  • Entraîner un modèle de ML sur vos données :

    • Entraîner le modèle
    • Évaluer la précision du modèle
    • Régler les hyperparamètres (entraînement personnalisé uniquement)
  • Importez et stockez votre modèle dans l'IA Vertex.

  • Déployer le modèle entraîné sur un point de terminaison pour diffuser des prédictions.

  • Envoyer des requêtes de prédiction à votre point de terminaison.

  • Spécifier une répartition du trafic de prédiction dans votre point de terminaison.

  • Gérer vos modèles et vos points de terminaison.

Composants de l'IA Vertex

Cette section décrit les éléments qui composent l'IA Vertex et l'objectif principal de chaque élément.

Formation

Vous pouvez entraîner des modèles sur Vertex AI à l'aide d'AutoML, ou utiliser un entraînement personnalisé si vous avez besoin d'un plus large éventail d'options de personnalisation, disponibles dans AI Platform Training.

Dans un entraînement personnalisé, vous pouvez sélectionner de nombreux types de machines différents pour traiter vos tâches d'entraînement, activer l'entraînement distribué, utiliser les réglages d'hyperparamètres et exploiter des GPU.

Déployer des modèles pour la prédiction

Vous pouvez déployer des modèles sur Vertex AI et obtenir un point de terminaison pour diffuser les prédictions sur Vertex AI.

Vous pouvez déployer des modèles sur Vertex AI, que le modèle ait été entraîné ou non sur Vertex AI.

Ajout d'étiquettes aux données

Les tâches d'ajout d'étiquettes aux données vous permettent de demander un ajout manuel d'étiquettes sur un ensemble de données que vous prévoyez d'utiliser pour entraîner un modèle de machine learning personnalisé. Vous pouvez envoyer une demande d'étiquetage de vos données vidéo, données d'images ou données texte.

Pour envoyer une demande d'étiquetage, il vous suffit de fournir un échantillon représentatif de données étiquetées, de spécifier toutes les étiquettes possibles pour votre ensemble de données, et de fournir des instructions sur la manière d'ajouter ces étiquettes. Les évaluateurs humains suivent vos instructions et, lorsque la demande d'étiquetage est terminée, vous obtenez un ensemble de données annoté que vous pouvez utiliser pour entraîner un modèle de machine learning.

Feature Store

Feature Store est un dépôt entièrement géré dans lequel vous pouvez ingérer, diffuser et partager des valeurs de caractéristiques de ML dans votre organisation. Feature Store gère toute l'infrastructure sous-jacente à votre place. Par exemple, il vous fournit des ressources de stockage et de calcul, et peut facilement évoluer en fonction des besoins.

Outils pour interagir avec l'IA Vertex

Cette section décrit les outils que vous utilisez pour interagir avec Vertex AI.

Google Cloud Console

Vous pouvez déployer des modèles dans le cloud et gérer vos ensembles de données, modèles, points de terminaison et tâches dans Cloud Console. Il s'agit d'une interface utilisateur qui vous permet de travailler avec vos ressources de machine learning. Dans Google Cloud, vos ressources Vertex AI sont connectées à des outils utiles tels que Cloud Logging et Cloud Monitoring. La meilleure solution pour commencer à utiliser Cloud Console est la page Tableau de bord de la section Vertex AI :

Accéder à la page "Tableau de bord"

Bibliothèques clientes Cloud

Vertex AI fournit des bibliothèques clientes pour certains langages pour vous aider à appeler l'API Vertex AI. Les bibliothèques clientes offrent une expérience de développement optimisée en utilisant les conventions et styles naturels de chaque langage compatible. Pour plus d'informations sur les langages compatibles et sur leur installation, consultez la page Installer les bibliothèques clientes.

Vous pouvez également utiliser les bibliothèques clientes pour les API Google pour accéder à l'API Vertex AI à l'aide d'autres langages tels que Dart. Lorsque vous utilisez les bibliothèques clientes pour les API Google, vous construisez des représentations des ressources et des objets utilisés par l'API. Cela est plus facile et nécessite moins de code que de travailler directement avec des requêtes HTTP.

API REST

L'API REST de Vertex AI fournit des services RESTful pour la gestion des tâches, des modèles et des points de terminaison, ainsi que pour la prédiction avec des modèles hébergés sur Google Cloud.

Notebooks

À l'aide de Notebooks, vous pouvez créer et gérer des instances de machine virtuelle (VM) pré-empaquetées avec JupyterLab.

Les instances Notebooks disposent d'une suite préinstallée de packages de deep learning, assurant la compatibilité avec les frameworks TensorFlow et PyTorch. Afin de répondre au mieux à vos besoins, vous pouvez configurer des instances reposant uniquement sur le processeur ou des instances utilisant un ou plusieurs GPU.

Vos instances Notebooks sont protégées par l'authentification et l'autorisation Google Cloud, et sont disponibles via une URL d'instance Notebooks. Les instances Notebooks s'intègrent également à GitHub, ce qui offre un moyen simple de synchroniser votre notebook avec le dépôt GitHub.

Pour en savoir plus, consultez la page Utiliser Notebooks avec Vertex AI.

Images de VM Deep Learning

Deep Learning VM Images est un ensemble d'images de machines virtuelles optimisées pour les tâches de science des données et de machine learning. Toutes les images sont livrées avec des outils et des frameworks de ML clés pré-installés. Vous pouvez les utiliser directement sur les instances dotées de GPU pour accélérer vos tâches de traitement de données.

Les instances Deep Learning VM Image sont compatibles avec de nombreuses combinaisons de framework et de processeur. Il existe actuellement des images compatibles avec TensorFlow Enterprise, TensorFlow, PyTorch et le calcul hautes performances générique, dans des versions pour les workflows reposant uniquement sur le processeur ou utilisant des GPU.

Pour afficher la liste des frameworks disponibles, consultez la page Choisir une image.

Pour en savoir plus, consultez la page Utiliser Deep Learning VM Images et les conteneurs de deep learning avec Vertex AI.

Conteneurs de deep learning

Les conteneurs de deep learning sont un ensemble de conteneurs Docker avec des frameworks de science de données, des bibliothèques et des outils pré-installés. Ces conteneurs fournissent des environnements cohérents et optimisés pour les performances, qui peuvent vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows.

Pour en savoir plus, consultez la page Utiliser Deep Learning VM Images et les conteneurs de deep learning avec Vertex AI.

Étape suivante