Présentation d'AI Platform

Utilisez AI Platform pour entraîner vos modèles de machine learning à grande échelle, pour les héberger et pour utiliser votre modèle afin de réaliser des prédictions sur les nouvelles données.

Étapes où AI Platform s'intègre au workflow du ML

Le diagramme ci-dessous offre une vue d'ensemble des étapes du workflow de ML. Les cases bleues représentent celles pour lesquelles AI Platform fournit des services gérés et des API :

Workflow de ML
Workflow de ML

Comme le diagramme l'indique, vous pouvez utiliser AI Platform pour gérer les étapes suivantes du workflow de ML :

  • Entraîner un modèle de ML sur vos données :

    • Entraîner le modèle
    • Évaluer la précision du modèle
    • Régler les hyperparamètres
  • Déployer le modèle entraîné

  • Envoyer des requêtes de prédiction au modèle :

    • Prédiction en ligne
    • Prédiction par lot (pour TensorFlow uniquement)
  • Surveiller les prédictions en continu

  • Gérer les modèles et leurs versions

Composants d'AI Platform

Cette section décrit les éléments qui composent AI Platform et l'objectif principal de chaque élément.

Service d'entraînement

Le service d'entraînement AI Platform vous permet d'entraîner des modèles en utilisant une large gamme d'options de personnalisation.

Vous pouvez sélectionner différents types de machines pour alimenter vos tâches d'entraînement, activer l'entraînement distribué, utiliser les réglages d'hyperparamètres, et accélérer les opérations avec les GPU et les TPU.

Vous pouvez également sélectionner différentes manières de personnaliser votre application d'entraînement. Vous pouvez envoyer vos données d'entrée pour qu'AI Platform exécute l'entraînement à l'aide d'un algorithme intégré (version bêta). Si les algorithmes intégrés ne correspondent pas à votre cas d'utilisation, vous pouvez envoyer votre propre application d'entraînement à exécuter sur AI Platform, ou créer un conteneur personnalisé avec votre application d'entraînement et ses dépendances à exécuter sur AI Platform.

Service de prédiction

Le service de prédiction AI Platform vous permet de diffuser des prédictions en fonction d'un modèle entraîné, que le modèle ait été entraîné ou non sur AI Platform.

Notebooks

AI Platform Notebooks permet de créer et de gérer des instances de machine virtuelle (VM) pré-empaquetées avec JupyterLab.

Les instances AI Platform Notebooks disposent d'une suite préinstallée de packages de deep learning, assurant la compatibilité avec les frameworks TensorFlow et PyTorch. Afin de répondre au mieux à vos besoins, vous pouvez configurer des instances reposant uniquement sur le processeur ou des instances utilisant un ou plusieurs GPU.

Vos instances de notebook sont protégées par l'authentification et l'autorisation Google Cloud, et sont disponibles via une URL d'instance de notebook. Les instances de notebook s'intègrent également à GitHub, ce qui offre un moyen simple de synchroniser votre notebook avec le dépôt GitHub.

Service d'ajout d'étiquettes aux données

AI Platform Data Labeling Service (version bêta) vous permet de demander un ajout manuel d'étiquettes sur un ensemble de données que vous prévoyez d'utiliser pour entraîner un modèle de machine learning personnalisé. Vous pouvez envoyer une demande d'étiquetage de vos données vidéo, données d'images ou données texte.

Pour envoyer une demande d'étiquetage, il vous suffit de fournir un échantillon représentatif de données étiquetées, de spécifier toutes les étiquettes possibles pour votre ensemble de données, et de fournir des instructions sur la manière d'ajouter ces étiquettes. Les évaluateurs humains suivent vos instructions et, lorsque la demande d'étiquetage est terminée, vous obtenez un ensemble de données annoté que vous pouvez utiliser pour entraîner un modèle de machine learning.

Image de VM pour le deep learning

AI Platform Deep Learning VM Image permet de choisir parmi un ensemble d'images de machines virtuelles Compute Engine basées sur Debian 9 et optimisées pour les tâches de science des données et de machine learning. Toutes les images sont livrées avec des outils et des frameworks de ML clés préinstallés, et peuvent être utilisées telles quelles sur des instances dotées de GPU pour accélérer vos tâches de traitement de données.

Outils pour interagir avec AI Platform

Cette section décrit les outils que vous utilisez pour interagir avec AI Platform.

Google Cloud Console

Vous pouvez déployer des modèles dans le cloud et gérer vos modèles, vos versions et vos tâches sur Cloud Console. Il s'agit d'une interface utilisateur qui vous permet de travailler avec vos ressources de machine learning. Dans le cadre de Google Cloud, vos ressources AI Platform sont connectées à des outils utiles tels que Cloud Logging et Cloud Monitoring.

Outil de ligne de commande gcloud

Vous pouvez gérer vos modèles et versions, envoyer des tâches et effectuer d'autres opérations AI Platform via la ligne de commande, à l'aide de l'outil gcloud ai-platform.

Nous recommandons les commandes gcloud pour la plupart des tâches AI Platform, et l'API REST (voir ci-dessous) pour les prédictions en ligne.

API REST

L'API REST d'AI Platform fournit des services RESTful pour la gestion des tâches, des modèles et des versions, ainsi que pour la réalisation de prédictions avec des modèles hébergés sur Google Cloud.

Vous pouvez utiliser la bibliothèque cliente des API Google pour Python pour accéder aux API. Lorsque vous employez la bibliothèque cliente, vous utilisez des représentations Python des ressources et objets utilisés par l'API. Cela est plus facile et nécessite moins de code que de travailler directement avec des requêtes HTTP.

Nous recommandons l'API REST pour diffuser des prédictions en ligne en particulier.

Étapes suivantes