Cette page décrit les interfaces que vous pouvez utiliser pour interagir avec Vertex AI et quand les utiliser. Vous pouvez utiliser ces interfaces avec l'une des solutions de notebook de Vertex AI.
Certaines opérations Vertex AI ne sont disponibles qu'à travers des interfaces spécifiques. Vous devrez donc peut-être basculer entre interfaces pendant votre workflow. Par exemple, dans le cadre des tests Vertex AI, vous devez utiliser l'API pour consigner les données dans une exécution de test, mais vous pouvez afficher les résultats dans la console.
Console
La console Google Cloud est une interface utilisateur graphique qui vous permet de travailler avec vos ressources de machine learning.
Dans la console Google Cloud, vous pouvez gérer vos ensembles de données gérés, vos modèles, vos points de terminaison et vos jobs. La console vous permet également d'accéder à d'autres services Google Cloud, tels que Cloud Storage et BigQuery.
Utilisez la console Google Cloud si vous préférez afficher et gérer vos ressources et vos visualisations Vertex AI via une interface utilisateur graphique.
Pour en savoir plus, consultez la page Tableau de bord de la section Vertex AI :
gcloud
L'interface de ligne de commande (CLI) Google Cloud est un ensemble d'outils permettant de créer et de gérer des ressources Google Cloud à l'aide de la commande gcloud
.
Utilisez Google Cloud CLI si vous souhaitez gérer vos ressources Vertex AI à partir de la ligne de commande, ou via des scripts et autres mécanismes d'automatisation.
Pour en savoir plus, consultez la section Installer gcloud CLI et la documentation de référence de gcloud ai
.
Terraform
Terraform est un outil IaC (Infrastructure as Code) qui vous permet de provisionner une infrastructure, comme les ressources et les autorisations, pour plusieurs services Google Cloud, y compris Vertex AI.
Vous pouvez définir les ressources et les autorisations Vertex AI pour votre projet Google Cloud dans un fichier de configuration Terraform. Vous pouvez ensuite utiliser Terraform pour appliquer la configuration à votre projet en créant de nouvelles ressources et en mettant à jour des ressources existantes.
Utilisez Terraform si vous souhaitez standardiser l'infrastructure des ressources Vertex AI dans votre projet Google Cloud et mettre à jour l'infrastructure existante du projet Google Cloud tout en respectant les dépendances de ressources.
Pour commencer, consultez la page Compatibilité de Terraform avec Vertex AI.
Python
Utilisez le SDK Vertex AI pour Python afin d'automatiser votre workflow Vertex AI.
Le SDK Vertex AI pour Python est semblable à la bibliothèque cliente Vertex AI pour Python, à la différence que le SDK est de niveau plus élevé et possède une précision moindre. Pour en savoir plus, consultez la section Comprendre les différences entre le SDK et la bibliothèque cliente.
Pour commencer, consultez la page Installer le SDK Vertex AI.
Bibliothèques clientes
Les bibliothèques clientes utilisent les conventions naturelles de chaque langage pris en charge pour appeler l'API Vertex AI et réduire le code récurrent que vous devez écrire.
Les langages suivants sont pris en charge pour Vertex AI :
Python. La bibliothèque cliente Vertex AI pour Python est installée lorsque vous installez le SDK Vertex AI pour Python.
Java
Node.js
C#
Go
Pour en savoir plus, consultez la page Installer les bibliothèques clientes Vertex AI.
REST
L'API REST de Vertex AI fournit des services RESTful pour la gestion des jobs, des modèles et des points de terminaison, ainsi que pour la prédiction avec des modèles hébergés sur Google Cloud.
Utilisez l'API REST si vous devez utiliser vos propres bibliothèques pour appeler l'API Vertex AI depuis votre application.
Pour commencer, consultez la documentation de référence de l'API REST de Vertex AI.
Étapes suivantes
- Configurer un projet et un environnement de développement.
- Choisir une méthode d'entraînement.
- Des tutoriels pour les types de données image, textuelles, tabulaires et vidéo ainsi que pour l'entraînement personnalisé.
- Découvrez les bonnes pratiques de mise en œuvre de modèles de ML personnalisés sur Vertex AI.