Présentation d'AI Platform

Utilisez AI Platform pour entraîner vos modèles de machine learning à grande échelle, pour les héberger et pour utiliser votre modèle afin de réaliser des prédictions sur les nouvelles données.

Étapes où AI Platform s'intègre au workflow du ML

Le diagramme ci-dessous offre une vue d'ensemble des étapes du workflow de ML. Les cases bleues représentent celles pour lesquelles AI Platform fournit des services gérés et des API :

Workflow de ML
Workflow de ML

Comme le diagramme l'indique, vous pouvez utiliser AI Platform pour gérer les étapes suivantes du workflow de ML :

  • Entraîner un modèle de ML sur vos données :

    • Entraîner le modèle
    • Évaluer la précision du modèle
    • Régler les hyperparamètres
  • Déployer le modèle entraîné

  • Envoyer des requêtes de prédiction au modèle :

    • Prédiction en ligne
    • Prédiction par lot (pour TensorFlow uniquement)
  • Surveiller les prédictions en continu

  • Gérer les modèles et leurs versions

Composants d'AI Platform

Cette section décrit les éléments qui composent AI Platform et l'objectif principal de chaque élément.

Service d'entraînement

Le service d'entraînement AI Platform vous permet d'entraîner des modèles en utilisant une large gamme d'options de personnalisation.

Vous pouvez sélectionner différents types de machines pour alimenter vos tâches d'entraînement, activer l'entraînement distribué, utiliser les réglages d'hyperparamètres, et accélérer les opérations avec les GPU et les TPU.

Vous pouvez également sélectionner différentes manières de personnaliser votre application d'entraînement. Vous pouvez envoyer vos données d'entrée pour qu'AI Platform exécute l'entraînement à l'aide d'un algorithme intégré (version bêta). Si les algorithmes intégrés ne correspondent pas à votre cas d'utilisation, vous pouvez envoyer votre propre application d'entraînement à exécuter sur AI Platform, ou créer un conteneur personnalisé avec votre application d'entraînement et ses dépendances à exécuter sur AI Platform.

Service de prédiction

Le service de prédiction AI Platform vous permet de diffuser des prédictions en fonction d'un modèle entraîné, que le modèle ait été entraîné ou non sur AI Platform.

Service d'ajout d'étiquettes aux données

AI Platform Data Labeling Service (bêta) vous permet de demander un ajout manuel d'étiquettes sur un ensemble de données que vous prévoyez d'utiliser pour entraîner un modèle de machine learning personnalisé. Vous pouvez envoyer une demande d'étiquetage de vos données vidéo, données d'images ou données texte.

Pour envoyer une demande d'étiquetage, il vous suffit de fournir un échantillon représentatif de données étiquetées, de spécifier toutes les étiquettes possibles pour votre ensemble de données, et de fournir des instructions sur la manière d'ajouter ces étiquettes. Les évaluateurs humains suivent vos instructions et, lorsque la demande d'étiquetage est terminée, vous obtenez un ensemble de données annoté que vous pouvez utiliser pour entraîner un modèle de machine learning.

Outils pour interagir avec AI Platform

Cette section décrit les outils que vous utilisez pour interagir avec AI Platform.

console Google Cloud

Vous pouvez déployer des modèles dans le cloud et gérer vos modèles, vos versions et vos tâches sur la console Google Cloud. Il s'agit d'une interface utilisateur qui vous permet de travailler avec vos ressources de machine learning. Dans le cadre de Google Cloud, vos ressources AI Platform sont connectées à des outils utiles tels que Cloud Logging et Cloud Monitoring.

La Google Cloud CLI

Vous pouvez gérer vos modèles et versions, envoyer des tâches et effectuer d'autres opérations AI Platform via la ligne de commande, à l'aide de l'outil gcloud ai-platform.

Nous recommandons les commandes gcloud pour la plupart des tâches AI Platform, et l'API REST (voir ci-dessous) pour les prédictions en ligne.

API REST

L'API REST d'AI Platform fournit des services RESTful pour la gestion des tâches, des modèles et des versions, ainsi que pour la réalisation de prédictions avec des modèles hébergés sur Google Cloud.

Vous pouvez utiliser la bibliothèque cliente des API Google pour Python pour accéder aux API. Lorsque vous employez la bibliothèque cliente, vous utilisez des représentations Python des ressources et objets utilisés par l'API. Cela est plus facile et nécessite moins de code que de travailler directement avec des requêtes HTTP.

Nous recommandons l'API REST pour diffuser des prédictions en ligne en particulier.

Notebooks Vertex AI Workbench gérés par l'utilisateur

Les instances de notebooks gérés par l'utilisateur Vertex AI Workbench vous permettent de créer et de gérer des instances de machine virtuelle (VM) de deep learning préinstallées avec JupyterLab.

Les notebooks gérés par l'utilisateur disposent d'une suite préinstallée de packages de deep learning, assurant la compatibilité avec les frameworks TensorFlow et PyTorch. Vous pouvez configurer des instances reposant uniquement sur le processeur ou des instances utilisant un ou plusieurs GPU.

Vos instances de notebooks gérés par l'utilisateur sont protégées par l'authentification et l'autorisation Google Cloud, et sont disponibles via une URL d'instance de notebooks gérés par l'utilisateur. Les instances de notebooks gérés par l'utilisateur s'intègrent également à GitHub et peuvent être synchronisées avec un dépôt GitHub.

Pour en savoir plus, consultez la documentation sur les notebooks gérés par l'utilisateur.

Deep Learning VM

Deep Learning VM Images est un ensemble d'images de machines virtuelles optimisées pour les tâches de data science et de machine learning. Toutes les images sont livrées avec des outils et des frameworks de ML clés pré-installés. Vous pouvez les utiliser directement sur les instances dotées de GPU pour accélérer vos tâches de traitement de données.

Les instances Deep Learning VM Image sont compatibles avec de nombreuses combinaisons de framework et de processeur. Il existe actuellement des images compatibles avec TensorFlow Enterprise, TensorFlow, PyTorch et le calcul hautes performances générique, dans des versions pour les workflows reposant uniquement sur le processeur ou utilisant des GPU.

Pour afficher la liste des frameworks disponibles, consultez la page Choisir une image.

Pour en savoir plus, consultez la documentation de Deep Learning VM.

Étape suivante