Projets, modèles, versions et tâches

De nombreux termes dans le domaine du machine learning (ML) peuvent avoir des significations différentes selon le contexte. Cette section définit certains termes tels qu'ils sont employés dans cette documentation.

Projets, modèles, versions et tâches

Projet
Le projet correspond à votre projet Google Cloud. Il s'agit du conteneur logique pour vos modèles déployés et vos tâches. Chaque projet que vous utilisez pour développer des solutions AI Platform Training doit avoir AI Platform Training activé. Votre compte Google peut avoir accès à plusieurs projets Google Cloud.
Modèle
En ML, un model représente la solution à un problème que vous essayez de résoudre. En d'autres termes, il s'agit de la recette qui permet de prédire une valeur à partir de données. Dans AI Platform Training, un modèle est un conteneur logique pour les versions individuelles de cette solution. Par exemple, supposons que le problème que vous souhaitez résoudre consiste à prédire le prix de vente de logements en fonction d'un ensemble de données sur les ventes précédentes. Vous créez un modèle dans AI Platform Training nommé housing_prices, puis vous essayez plusieurs techniques de machine learning pour tenter de résoudre le problème. À chaque étape, vous pouvez déployer des versions de ce modèle, soit complètement différentes les unes des autres, soit organisées sous le même modèle si cela correspond à votre flux de travail.
Modèle entraîné
Un modèle entraîné inclut l'état de votre modèle de calcul et ses paramètres après l'entraînement.
Modèle enregistré
La plupart des frameworks de machine learning peuvent sérialiser les informations représentant votre modèle entraîné et créer un fichier en tant que modèle enregistré, que vous pouvez déployer pour la prédiction dans le cloud.
Version de modèle
Une version de modèle, ou simplement une version, est une instance d'une solution de machine learning stockée dans le service de modèle d'AI Platform Training. Vous créez une version en transmettant un modèle entraîné sérialisé (en tant que modèle enregistré) au service. Lorsque vous créez une version, vous pouvez également fournir un code personnalisé (version bêta) pour la gestion des prédictions.
Tâche
Vous interagissez avec les services d'AI Platform Training en lançant des requêtes et des tâches. Les requêtes sont des demandes d'API Web courantes qui renvoient une réponse le plus rapidement possible. Les tâches sont des opérations de longue durée qui sont traitées de manière asynchrone. AI Platform Training propose des tâches d'entraînement et de prédiction par lots. Vous envoyez une requête pour démarrer la tâche et obtenir une réponse rapide qui vérifie l'état de la tâche. Ensuite, vous pouvez régulièrement demander l'état du job pour suivre sa progression.

Empaqueter, préproduire, exporter et déployer des modèles

Vous êtes amené à déplacer des modèles et des données, en particulier entre votre environnement local et Cloud Storage, et entre Cloud Storage et les services AI Platform Training. Cette documentation utilise les termes suivants pour désigner des opérations spécifiques au cours du processus.

Empaqueter
L'empaquetage désigne la mise en package de votre application d'entraînement, afin que le service d'entraînement d'AI Platform Training puisse l'installer sur chaque instance d'entraînement. En empaquetant l'application, vous la transformez en package de distribution Python standard. Lorsque vous déployez du code personnalisé pour la prédiction (version bêta), vous devez également empaqueter le code pour gérer les prédictions.
Préproduction
La préproduction consiste à entreposer votre package d'application d'entraînement dans un bucket Cloud Storage auquel votre projet a accès. Cela permet au service d'entraînement d'accéder au package et de le copier dans toutes les instances d'entraînement. Cette préproduction consiste également à entreposer un modèle enregistré entraîné ailleurs dans un bucket Cloud Storage auquel votre projet a accès. Cela permet au service de prédiction en ligne d'accéder au modèle et de le déployer. Si vous déployez du code personnalisé pour la prédiction (version bêta), vous mettez en préproduction le package de code personnalisé dans Cloud Storage afin que le service de prédiction en ligne puisse y accéder pendant le déploiement.
Exporter
Dans le contexte des modèles de machine learning, cette documentation emploie les termes exporter/exportation pour désigner le processus de sérialisation de votre modèle de calcul et de ses paramètres dans un fichier, en reprenant votre modèle enregistré et les objets.
Déployer
Vous deploy une version de modèle lorsque vous créez une ressource de version. Vous spécifiez un modèle exporté (un répertoire de modèles enregistrés) et une ressource de modèle à laquelle attribuer la version. AI Platform Training héberge la version pour que vous puissiez lui envoyer des prédictions. Si vous déployez du code personnalisé pour la prédiction (version bêta), vous devez également fournir un package de code personnalisé pendant le déploiement.

Étapes suivantes