Présentation des instances Vertex AI Workbench

Les instances Vertex AI Workbench sont des environnements de développement basés sur des notebooks Jupyter pour l'ensemble du workflow de data science. Vous pouvez interagir avec Vertex AI et d'autres services Google Cloud à partir du notebook Jupyter d'une instance Vertex AI Workbench.

Les intégrations et fonctionnalités de Vertex AI Workbench facilitent l'accès à vos données, accélèrent leur traitement, permettent de programmer des exécutions de notebook, etc.

Les instances Vertex AI Workbench sont préinstallées avec JupyterLab et disposent d'une suite de packages de deep learning préinstallée, assurant la compatibilité avec les frameworks TensorFlow et PyTorch. Vous pouvez configurer des instances reposant uniquement sur le processeur ou des instances utilisant un ou plusieurs GPU.

Les instances Vertex AI Workbench prennent en charge la capacité de synchronisation avec un dépôt GitHub. Les instances Vertex AI Workbench sont protégées par l'authentification et l'autorisation Google Cloud.

Accès aux données

Vous pouvez accéder à vos données sans quitter l'interface utilisateur de JupyterLab.

Dans le menu de navigation de JupyterLab d'une instance Vertex AI Workbench, vous pouvez utiliser l'intégration Cloud Storage pour parcourir les données et les autres fichiers auxquels vous avez accès. Consultez la page Accéder aux fichiers et buckets Cloud Storage à partir de JupyterLab.

Vous pouvez également utiliser l'intégration BigQuery pour parcourir les tables auxquelles vous avez accès, écrire des requêtes, prévisualiser les résultats et charger des données dans un notebook. Consultez la page Interroger les données dans les tables BigQuery à partir de JupyterLab.

Exécuter des notebooks

Utilisez l'exécuteur pour exécuter un fichier notebook ponctuellement ou de manière planifiée. Choisissez l'environnement et le matériel spécifiques sur lesquels vous souhaitez procéder à l'exécution. Le code de votre notebook s'exécute sur l'entraînement personnalisé de Vertex AI, ce qui peut faciliter l'entraînement distribué, optimiser les hyperparamètres ou planifier des tâches d'entraînement continu.

Vous pouvez utiliser des paramètres dans votre exécution pour apporter des modifications spécifiques à chaque exécution. Par exemple, vous pouvez spécifier un autre ensemble de données à utiliser, modifier le taux d'apprentissage de votre modèle ou modifier la version du modèle.

Vous pouvez également configurer un notebook pour qu'il s'exécute selon un calendrier récurrent. Même lorsque votre instance est arrêtée, Vertex AI Workbench va exécuter votre fichier notebook et enregistrer les résultats, que vous pouvez consulter et partager avec d'autres utilisateurs.

Partager des insights

Les exécutions de notebook effectuées sont stockées dans un bucket Cloud Storage. Vous pouvez donc partager vos insights avec d'autres utilisateurs en accordant l'accès aux résultats. Consultez la section précédente sur l'exécution des notebooks.

Sécuriser votre instance

Vous pouvez déployer votre instance Vertex AI Workbench avec le réseau par défaut géré par Google, qui utilise un réseau et un sous-réseau VPC par défaut. Au lieu du réseau par défaut, vous pouvez spécifier un réseau VPC à utiliser avec votre instance.

Par défaut, Google Cloud chiffre automatiquement les données au repos à l'aide de clés de chiffrement gérées par Google. Si vous avez des exigences réglementaires ou de conformité spécifiques concernant les clés qui protègent vos données, vous pouvez utiliser des clés de chiffrement gérées par le client (CMEK) avec vos instances Vertex AI Workbench. Pour en savoir plus, consultez la page Clés de chiffrement gérées par le client.

Arrêt automatisé pour les instances inactives

Pour vous aider à gérer les coûts, les instances Vertex AI Workbench s'arrêtent après une période d'inactivité spécifique par défaut. Vous pouvez modifier cette durée ou désactiver cette fonctionnalité. Pour en savoir plus, consultez la page Arrêt en cas d'inactivité.

Ajouter des environnements Conda

Les instances Vertex AI Workbench utilisent des noyaux basés sur des environnements Conda. Vous pouvez ajouter un environnement Conda à votre instance Vertex AI Workbench. L'environnement apparaît comme un kernel dans l'interface JupyterLab de votre instance.

L'ajout d'environnements Conda vous permet d'utiliser des noyaux qui ne sont pas disponibles dans l'instance Vertex AI Workbench par défaut. Par exemple, vous pouvez ajouter des environnements Conda pour R et Apache Beam. Vous pouvez également ajouter des environnements Conda à d'anciennes versions spécifiques des frameworks disponibles, tels que TensorFlow, PyTorch ou Python.

Pour en savoir plus, consultez Ajouter un environnement Conda.

Conteneurs personnalisés

Vous pouvez créer une instance Vertex AI Workbench basée sur un conteneur personnalisé. Commencez avec une image de conteneur de base fournie par Google, puis modifiez-la selon vos besoins. Créez ensuite une instance basée sur votre conteneur personnalisé.

Pour en savoir plus, consultez la page Créer une instance à l'aide d'un conteneur personnalisé.

Intégration de Dataproc

Vous pouvez traiter les données rapidement en exécutant un notebook sur un cluster Dataproc. Une fois votre cluster configuré, vous pouvez exécuter un fichier notebook sur celui-ci sans quitter l'interface utilisateur de JupyterLab. Pour en savoir plus, consultez Créer une instance compatible avec Dataproc.

Créer des instances avec des identifiants tiers

Vous pouvez créer et gérer des instances Vertex AI Workbench avec des identifiants tiers fournis par la fédération des identités des employés. La fédération des identités des employés utilise votre fournisseur d'identité externe (IdP) pour accorder à un groupe d'utilisateurs l'accès aux instances Vertex AI Workbench via un proxy.

L'accès à une instance Vertex AI Workbench est accordé en attribuant un compte principal de pool d'employés au compte de service de l'instance Vertex AI Workbench.

Pour en savoir plus, consultez la page Créer une instance avec des identifiants tiers.

Tags pour les instances Vertex AI Workbench

La VM sous-jacente d'une instance Vertex AI Workbench est une VM Compute Engine. Vous pouvez ajouter des tags de ressources à votre instance Vertex AI Workbench et les gérer via sa VM Compute Engine.

Lorsque vous créez une instance Vertex AI Workbench, Vertex AI Workbench associe le tag de ressource Compute Engine vertex-workbench-instances:prod=READ_ONLY. Ce tag de ressource n'est utilisé qu'à des fins internes.

Pour en savoir plus sur la gestion des tags pour les instances Compute Engine, consultez la page Gérer les tags pour les ressources.

Limites

Tenez compte des limites suivantes des instances Vertex AI Workbench lors de la planification de votre projet :

  • Les extensions JupyterLab tierces ne sont pas compatibles.

  • Lorsque vous utilisez Access Context Manager et Chrome Enterprise Premium pour protéger les instances Vertex AI Workbench à l'aide de contrôles d'accès contextuels, l'accès est évalué chaque fois que l'utilisateur s'authentifie auprès de l'instance. Par exemple, l'accès est évalué la première fois que l'utilisateur accède à JupyterLab ainsi qu'à chaque accès ultérieur, si le cookie de son navigateur Web a expiré.

  • L'utilisation d'un conteneur personnalisé qui n'est pas dérivé du conteneur de base fourni par Google (gcr.io/deeplearning-platform-release/workbench-container:latest) augmente les risques de problèmes de compatibilité avec nos services et n'est pas prise en charge. Modifiez plutôt le conteneur de base pour créer un conteneur personnalisé répondant à vos besoins, puis créez une instance à l'aide du conteneur personnalisé.

  • Bien qu'il soit possible d'utiliser des images de machines virtuelles (VM) personnalisées ou des images de VM Deep Learning personnalisées avec Vertex AI Workbench, Vertex AI Workbench ne fournit aucune assistance pour les comportements inattendus ou les dysfonctionnements sur les images personnalisées.

  • Il n'est pas possible d'utiliser une image de notebooks gérés par l'utilisateur ou une image de notebooks gérés pour créer une instance Vertex AI Workbench.

  • Vous ne pouvez pas modifier la VM sous-jacente d'une instance Vertex AI Workbench à l'aide de la console Google Cloud ou de l'API Compute Engine. Pour modifier la VM sous-jacente d'une instance Vertex AI Workbench, utilisez la méthode projects.locations.instances.patch de l'API Notebooks, ou bien la commande gcloud workbench instances update dans Google Cloud SDK.

  • Dans les instances qui utilisent VPC Service Controls, l'utilisation de l'executor n'est pas disponible.

  • Il n'est pas possible de modifier les tags réseau des instances Vertex AI Workbench.

  • Pour utiliser des accélérateurs avec des instances Vertex AI Workbench, le type d'accélérateur souhaité doit être disponible dans la zone de votre instance. Pour en savoir plus sur la disponibilité des accélérateurs par zone, consultez la page Disponibilité des GPU dans les régions et zones.

Étapes suivantes