Tutoriels sur les notebooks Jupyter Vertex AI Prediction

Ce document contient la liste de tous les tutoriels sur les notebooks Jupyter Vertex AI Prediction. Ces tutoriels de bout en bout vous aident à démarrer avec Vertex AI Prediction et vous donnent des idées pour mettre en œuvre un projet spécifique.

Vous pouvez héberger des notebooks Jupyter dans de nombreux environnements. Vous pouvez :

  • les exécuter dans le cloud à l'aide d'un service tel que Colaboratory (Colab) ou Vertex AI Workbench ;
  • les télécharger depuis GitHub et les exécuter sur votre ordinateur ;
  • les télécharger depuis GitHub et les exécuter sur un serveur Jupyter ou JupyterLab dans votre réseau local.

L'exécution d'un notebook Jupyter dans Colab vous permet de démarrer rapidement.

Pour ouvrir un tutoriel sur les notebooks dans Colab, cliquez sur le lien Colab dans la liste des notebooks. Colab crée une instance de VM disposant de toutes les dépendances requises, lance l'environnement Colab et charge le notebook.

Vous pouvez également exécuter le notebook à l'aide de notebooks gérés par l'utilisateur. Lorsque vous créez une instance de notebooks gérés par l'utilisateur avec Vertex AI Workbench, vous contrôlez entièrement la VM hôte. Vous pouvez spécifier la configuration et l'environnement de la VM hôte.

Pour ouvrir un tutoriel de notebook dans une instance Vertex AI Workbench, procédez comme suit :

  1. Cliquez sur le lien Vertex AI Workbench dans la liste des notebooks. Le lien ouvre la console Vertex AI Workbench.
  2. Sur l'écran Déployer sur le notebook, saisissez un nom pour votre nouvelle instance Vertex AI Workbench, puis cliquez sur Créer.
  3. Dans la boîte de dialogue Prêt à ouvrir le notebook qui s'affiche après le démarrage de l'instance, cliquez sur Ouvrir.
  4. Sur la page Confirm deployment to notebook server (Confirmer le déploiement sur le serveur de notebooks), sélectionnez Confirm (Confirmer).
  5. Avant d'exécuter le notebook, sélectionnez Kernel > Redémarrer le kernel et Supprimer tous les résultats.

Liste des notebooks

  • Sélectionner un service
  • AutoML
  • BigQuery
  • BigQuery ML
  • Entraînement personnalisé
  • Tabulaire
  • Image
  • Ray sur Vertex AI
  • Texte
  • Vidéo
  • Vertex AI Experiments
  • Vertex AI Feature Store
  • Vector Search
  • Vertex AI Model Evaluation
  • Vertex AI Model Monitoring
  • Vertex AI Model Registry
  • Vertex AI Pipelines
  • Vertex AI Prediction
  • Vertex AI TensorBoard
  • Vertex AI Vizier
  • Vertex AI Workbench
  • Vertex Explainable AI
  • Vertex ML Metadata

Services Description Ouvrir dans
Entraînement personnalisé
Vertex AI Prediction
Déploiement d'un modèle de détection d'iris à l'aide de FastAPI et diffusion à partir de conteneurs personnalisés Vertex AI.
Découvrez comment créer, déployer et diffuser un modèle de classification personnalisé sur Vertex AI. En savoir plus sur l'entraînement personnalisé. En savoir plus sur Vertex AI Prediction.
  • Entraîner un modèle qui utilise les mesures de fleurs comme entrée pour prédire la classe d'iris.
  • Enregistrer le modèle et son préprocesseur sérialisé.
  • Créer un serveur FastAPI pour gérer les prédictions et les vérifications d'état.
  • Créer un conteneur personnalisé avec des artefacts de modèle.
  • Importer et déployer un conteneur personnalisé sur Vertex AI Endpoints.
Colab
Colab Enterprise
GitHub
Vertex AI Workbench
Entraînement personnalisé
Vertex AI Prediction
Entraînement personnalisé et prédiction en ligne.
Découvrez comment utiliser Vertex AI Training pour créer un modèle entraîné personnalisé à partir d'un script Python dans un conteneur Docker, et comment utiliser Vertex AI Prediction pour effectuer une prédiction sur le modèle déployé en envoyant des données. En savoir plus sur l'entraînement personnalisé. En savoir plus sur Vertex AI Prediction.
  • Créer un job personnalisé Vertex AI pour entraîner un modèle TensorFlow.
  • Importer les artefacts de modèle entraîné dans une ressource Model.
  • Créer une ressource Endpoint de diffusion.
  • Déployer la ressource Model sur une ressource Endpoint de diffusion.
  • Effectuer une prédiction.
  • Annuler le déploiement de la ressource Model.
Colab
Colab Enterprise
GitHub
Vertex AI Workbench
Vertex AI Prediction
Premiers pas avec le serveur NVIDIA Triton.
Découvrez comment déployer un conteneur exécutant un serveur NVIDIA Triton avec une ressource de modèle Vertex AI sur un point de terminaison Vertex AI pour effectuer des prédictions en ligne. En savoir plus sur Vertex AI Prediction.
  • Télécharger les artefacts de modèle à partir de TensorFlow Hub.
  • Créer le fichier de configuration de diffusion Triton pour le modèle.
  • Créer un conteneur personnalisé avec une image de diffusion Triton pour le déploiement du modèle.
  • Importer le modèle en tant que ressource de modèle Vertex AI.
  • Déployer la ressource de modèle Vertex AI sur une ressource de point de terminaison Vertex AI.
  • Envoyer une requête de prédiction.
  • Annuler le déploiement de la ressource de modèle et supprimer le point de terminaison.
Colab
Colab Enterprise
GitHub
Vertex AI Workbench
Vertex AI Prediction
Entraîner et déployer des modèles PyTorch avec des conteneurs prédéfinis sur Vertex AI
Découvrez comment créer, entraîner et déployer un modèle de classification d'images PyTorch à l'aide de conteneurs prédéfinis pour l'entraînement et la prédiction personnalisés.
  • Empaqueter l'application d'entraînement dans une distribution source Python
  • Configurer et exécuter un job d'entraînement dans un conteneur prédéfini
  • Empaqueter les artefacts de modèle dans un fichier d'archive de modèle
  • Importer le modèle pour déploiement.
  • Déployer un modèle à l'aide d'un conteneur prédéfini pour la prédiction
  • Effectuer des prédictions en ligne
Colab
Colab Enterprise
GitHub
Vertex AI Workbench