Vertex AI regroupe AI Platform et AutoML en une seule interface. Cette page compare Vertex AI et AI Platform pour les utilisateurs familiarisés avec AI Platform.
Entraînement personnalisé
Avec Vertex AI, vous pouvez entraîner des modèles avec AutoML ou procéder à un entraînement personnalisé dont le workflow ressemble plus à AI Platform Training.
Tâche | AI Platform Training | Vertex AI |
---|---|---|
Sélectionner la version du framework de machine learning à utiliser | Les utilisateurs de Google Cloud Console définissent le nom du framework et la version du framework. | |
Versions d'exécution : lorsque vous envoyez un job d'entraînement, spécifiez le numéro d'une version d'exécution incluant le framework et la version du framework souhaités. | Conteneurs prédéfinis : lorsque vous envoyez un job d'entraînement personnalisé, spécifiez l'URI Artifact Registry d'un conteneur prédéfini correspondant à votre framework et à votre version de framework. | |
Envoyer un job d'entraînement à l'aide d'un conteneur personnalisé | Créez votre propre conteneur personnalisé, hébergez-le sur Artifact Registry et utilisez-le pour exécuter votre application d'entraînement. | |
Définir la région Google Cloud à utiliser | Indiquez le nom d'une région lorsque vous envoyez une tâche d'entraînement à un point de terminaison global (ml.googleapis.com ). |
Envoyez votre tâche d'entraînement personnalisée à un point de terminaison régional, comme par exemple us-central1-aiplatform.googleapis.com .
Il n'existe pas de point de terminaison global. Certaines régions disponibles dans AI Platform ne sont pas disponibles dans Vertex AI. Consultez la liste des régions disponibles sur la page "Emplacements".
|
Spécifier des configurations de machines pour l'entraînement distribué | Spécifiez les configurations nommées en fonction de rôles spécifiques de votre cluster d'entraînement (masterConfig , workerConfig , parameterServerConfig et evaluatorConfig ).
|
La configuration est une liste générique. Spécifiez des configurations de machines dans CustomJobSpec.workerPoolSpecs[] . |
Envoyer une tâche d'entraînement à l'aide d'un package Python | Les champs liés à votre package Python sont de premier niveau dans TrainingInput . |
Les champs liés à votre package Python sont organisés dans pythonPackageSpec . |
Spécifier les types de machines |
|
|
Envoyer une tâche de réglage d'hyperparamètres |
Envoyez une tâche d'entraînement avec une configuration hyperparameters . Qu'une tâche d'entraînement soit envoyée avec ou sans réglage d'hyperparamètres, elle crée une ressource d'API TrainingJob .
|
Envoyez une tâche de réglage d'hyperparamètres avec une configuration studySpec . Cela crée une ressource d'API de premier niveau (HyperparameterTuningJob ). Les tâches d'entraînement personnalisées envoyées sans réglage d'hyperparamètres créent une ressource d'API de niveau supérieur CustomJob .
|
Créer un pipeline d'entraînement pour orchestrer des tâches d'entraînement avec d'autres opérations | Aucune ressource API intégrée pour l'orchestration. Il faut utiliser AI Platform Pipelines, Kubeflow ou un autre outil d'orchestration. | Créez une ressource TrainingPipeline pour orchestrer une tâche d'entraînement avec déploiement de modèle. |
Prédiction
Tâche | AI Platform Prediction | Vertex AI |
---|---|---|
Sélectionner la version du framework de machine learning à utiliser | Les utilisateurs de Google Cloud Console définissent le nom du framework et la version du framework. | |
Versions d'exécution : lorsque vous déployez un modèle, spécifiez le numéro d'une version d'exécution incluant le framework et la version du framework souhaités. | Conteneurs prédéfinis : lorsque vous déployez un modèle, spécifiez l'URI Artifact Registry d'un conteneur prédéfini correspondant à votre framework et à votre version de framework. Utilisez l'option multirégionale correspondant à votre point de terminaison régional. Par exemple, us-docker.pkg.dev pour un point de terminaison us-central1 . |
|
Exécuter du code personnalisé avec prédiction | Utilisez des routines de prédiction personnalisées. | Utilisez des routines de prédiction personnalisées sur Vertex AI. |
Définir la région Google Cloud à utiliser | Indiquez le nom d'une région lorsque vous créez un modèle sur un point de terminaison d'API global (ml.googleapis.com ). |
Créez votre modèle sur un point de terminaison régional, tel que us-central1-aiplatform.googleapis.com .
Il n'existe pas de point de terminaison global. Certaines régions disponibles dans AI Platform ne sont pas disponibles dans Vertex AI. Consultez la liste des régions disponibles sur la page "Emplacements".
|
Stocker des artefacts de modèles | Les artefacts de modèle sont stockés dans Cloud Storage. Il n'existe aucune ressource d'API associée pour les artefacts de modèle. | Un espace de stockage de modèle géré est disponible pour les artefacts de modèle et est associé à la ressource Model .Vous pouvez toujours déployer des modèles stockés dans Cloud Storage sans utiliser d'ensemble de données géré Vertex AI. |
Déploiement du modèle | Déployez un modèle directement pour le rendre disponible pour les prédictions en ligne. |
Créez un objet de point de terminaison qui fournit des ressources permettant de diffuser des prédictions en ligne. Déployez ensuite le modèle sur le point de terminaison.
Pour demander des prédictions, appelez la méthode predict() . |
Demander des prédictions par lot | Vous pouvez demander des prédictions par lots sur des modèles stockés dans Cloud Storage et spécifier une version d'exécution dans votre requête. Vous pouvez également demander des prédictions par lots sur des modèles déployés et utiliser la version d'exécution que vous avez spécifiée lors du déploiement du modèle. | Importez votre modèle dans Vertex AI, puis spécifiez un conteneur prédéfini ou un conteneur personnalisé pour diffuser les prédictions. |
Requêtes de prédiction en ligne | La structure JSON inclut une liste d'instances. | La structure JSON inclut une liste d'instances et un champ pour les paramètres. |
Spécifier les types de machines | Spécifiez le type de machine disponible lorsque vous créez une version. | Les anciens types de machines de prédiction en ligne d'AI Platform (MLS1) ne sont pas compatibles. Seuls les types de machines Compute Engine sont disponibles. |
Déployer des modèles | Créez une ressource de modèle, puis créez une ressource de version. | Créez une ressource de modèle, créez une ressource de point de terminaison et déployez le modèle sur le point de terminaison Spécifiez la répartition du trafic dans le point de terminaison. |
Vertex Explainable AI
Vous pouvez obtenir des attributions de caractéristiques pour des modèles tabulaires et d'images dans AI Explanations pour AI Platform et Vertex Explainable AI.
Tâche | AI Explanations pour AI Platform | Vertex Explainable AI |
---|---|---|
Obtenir des attributions de caractéristiques pour des modèles tabulaires | Utilisez l'échantillonnage des valeurs de Shapley ou des gradients intégrés pour obtenir des attributions de caractéristiques pour des modèles tabulaires. | |
Obtenir des attributions de fonctionnalités pour des modèles d'images | Utilisez des gradients intégrés ou XRAI pour obtenir des attributions de caractéristiques pour les modèles d'images. |
Ajout d'étiquettes aux données
Le service d'étiquetage de données AI Platform est disponible avec quelques modifications de l'API :
Tâche/Concept | Service d'étiquetage de données AI Platform | Ajout d'étiquettes dans Vertex AI |
---|---|---|
Envoyer des instructions pour les étiqueteurs de données | Vos instructions sont stockées sous forme de fichier PDF dans Cloud Storage et associées à une ressource d'API Instruction . |
Vos instructions sont stockées sous forme de fichier PDF dans Cloud Storage mais il n'y a pas de ressource d'API réservée aux instructions. Spécifiez l'URI Cloud Storage de votre fichier d'instructions lorsque vous créez une ressource d'API DataLabelingJob . |
Ensembles de données annotés | Il existe une ressource d'API AnnotatedDataset . |
Il n'existe pas de ressource d'API AnnotatedDataset . |
Organisation des AnnotationSpec |
Les méthodes AnnotationSpec sont organisées sous une ressource d'API AnnotationSpecSet . |
Il n'existe pas de AnnotationSpecSet . Toutes les AnnotationSpec sont organisées sous Dataset . |
En outre, nous proposons une nouvelle fonctionnalité d'étiquetage de données sur Vertex AI :
Les tâches d'étiquetage de données sont généralement réalisées par des spécialistes Google. Vous pouvez également créer un pool de spécialistes afin de gérer les tâches d'étiquetage de données en utilisant votre propre personnel plutôt que d'avoir recours aux spécialistes de Google. Cette fonctionnalité n'est actuellement disponible que via une requête API. Elle n'est pas disponible dans Google Cloud Console.