Projets, modèles, versions et tâches

De nombreux termes dans le domaine du machine learning (ML) peuvent avoir des significations différentes selon le contexte. Cette section définit certains termes tels qu'ils sont employés dans cette documentation.

Projets, modèles, versions et tâches

Projet
Le projet correspond à votre projet Google Cloud. Il s'agit du conteneur logique pour vos modèles déployés et vos tâches. AI Platform Prediction doit être activé sur tous les projets que vous utilisez pour développer des solutions AI Platform Prediction. Votre compte Google peut avoir accès à plusieurs projets Google Cloud.
Model
En ML, un modèle représente la solution à un problème que vous essayez de résoudre. En d'autres termes, il s'agit de la recette qui permet de prédire une valeur à partir de données. Dans AI Platform Prediction, un modèle est un conteneur logique pour les versions individuelles de cette solution. Par exemple, supposons que le problème que vous souhaitez résoudre consiste à prédire le prix de vente de logements en fonction d'un ensemble de données sur les ventes précédentes. Vous créez un modèle nommé housing_prices dans AI Platform Prediction, puis vous testez plusieurs techniques de machine learning pour résoudre le problème. À chaque étape, vous pouvez déployer des versions de ce modèle, soit complètement différentes les unes des autres, soit organisées sous le même modèle si cela correspond à votre flux de travail.
Modèle entraîné
Un modèle entraîné comprend l'état de votre modèle de calcul et ses paramètres après entraînement.
Modèle enregistré
La plupart des frameworks de machine learning peuvent sérialiser les informations représentant votre modèle entraîné et créer un fichier en tant que modèle enregistré, que vous pouvez déployer pour la prédiction dans le cloud.
Version de modèle
Une version de modèle, ou simplement une version, est une instance d'une solution de machine learning stockée dans le service de modèles d'AI Platform Prediction. Vous créez une version en transmettant un modèle entraîné sérialisé (en tant que modèle enregistré) au service. Lorsque vous créez une version, vous pouvez également fournir un code personnalisé (version bêta) pour la gestion des prédictions.
Job
Vous interagissez avec les services AI Platform Prediction en lançant des requêtes et des tâches. Les requêtes sont des demandes d'API Web courantes qui renvoient une réponse le plus rapidement possible. Les tâches sont des opérations de longue durée qui sont traitées de manière asynchrone. AI Platform Prediction propose des tâches d'entraînement et de prédiction par lot. Vous envoyez une requête pour démarrer la tâche et obtenir une réponse rapide qui vérifie l'état de la tâche. Ensuite, vous pouvez régulièrement demander l'état de la tâche pour suivre sa progression.

Empaqueter, préproduire, exporter et déployer des modèles

Vous êtes amené à déplacer des modèles et des données, en particulier entre votre environnement local et Cloud Storage, et entre Cloud Storage et les services AI Platform Prediction. Cette documentation utilise les termes suivants pour désigner des opérations spécifiques au cours du processus.

Package
Vous mettre en package votre application d'entraînement afin que le service d'entraînement d'AI Platform Prediction puisse l'installer sur chaque instance d'entraînement. En empaquetant l'application, vous la transformez en package de distribution Python standard. Lorsque vous déployez du code personnalisé pour la prédiction (version bêta), vous devez également empaqueter le code pour gérer les prédictions.
Préproduire
La préproduction consiste à entreposer votre package d'application d'entraînement dans un bucket Cloud Storage auquel votre projet a accès. Cela permet au service d'entraînement d'accéder au package et de le copier dans toutes les instances d'entraînement. Cette préproduction consiste également à entreposer un modèle enregistré entraîné ailleurs dans un bucket Cloud Storage auquel votre projet a accès. Cela permet au service de prédiction en ligne d'accéder au modèle et de le déployer. Si vous déployez du code personnalisé pour la prédiction (version bêta), vous mettez en préproduction le package de code personnalisé dans Cloud Storage afin que le service de prédiction en ligne puisse y accéder pendant le déploiement.
Exporter
Dans le contexte des modèles de machine learning, cette documentation emploie les termes exporter/exportation pour désigner le processus de sérialisation de votre modèle de calcul et de ses paramètres dans un fichier, en reprenant votre modèle enregistré et les objets.
Déployer
Vous déployez une version de modèle lorsque vous créez une ressource de version. Vous spécifiez un modèle exporté (un répertoire de modèle enregistré) et une ressource de modèle auxquels la version doit être attribuée. Ensuite, AI Platform Prediction héberge la version afin que vous puissiez lui envoyer des prédictions. Si vous déployez du code personnalisé pour la prédiction (version bêta), vous devez également fournir un package de code personnalisé pendant le déploiement.

Étapes suivantes