AI Platform Prediction apporte au cloud la puissance et la flexibilité de TensorFlow, de scikit-learn et de XGBoost. Vous pouvez utiliser AI Platform Prediction pour héberger vos modèles entraînés et leur envoyer des requêtes de prédiction.
Comment en profiter ?
-
Présentation d'AI Platform
Découvrez les produits AI Platform.
-
Présentation de la prédiction
Découvrez comment utiliser AI Platform Prediction pour héberger des modèles de machine learning et diffuser des prédictions.
-
Environnement de développement
Consultez les prérequis de votre environnement de développement local.
-
Prédiction en ligne et prédiction par lot
Découvrez les différences entre la prédiction en ligne et la prédiction par lot.
-
Premiers pas : entraînement et prédiction avec TensorFlow Keras
Entraînez un modèle TensorFlow Keras dans AI Platform Training et déployez le modèle sur AI Platform Prediction.
-
Premiers pas : entraînement et prédiction avec TensorFlow Estimator
Entraînez un modèle TensorFlow Estimator dans AI Platform Training et déployez le modèle sur AI Platform Prediction.
-
Premiers pas avec scikit-learn et XGBoost
Déployez un modèle scikit-learn ou XGBoost pour diffuser des prédictions.
Workflow de prédiction
-
Exporter des modèles pour les prédictions
Rédigez le code d'entraînement requis pour l'export d'artefacts de modèles pouvant être déployés sur AI Platform Prediction.
-
Exporter un SavedModel pour la prédiction
Exportez un modèle SavedModel TensorFlow de façon à le rendre compatible avec AI Platform Prediction.
-
Déployer des modèles
Déployez des modèles de machine learning en créant des ressources de modèle et de version de modèle.
-
Routines de prédiction personnalisées
Personnalisez la façon dont AI Platform Prediction traite les requêtes de prédiction.
-
Types de machines pour la prédiction en ligne
Configurez les types de machines virtuelles et de GPU utilisés par AI Platform Prediction pour gérer les requêtes.
-
Obtenir des prédictions en ligne
Envoyez des requêtes au modèle de machine learning déployé et obtenez des prédictions.
-
Obtenir des prédictions par lot
Effectuez des prédictions sur un grand nombre d'instances de données à l'aide d'un modèle TensorFlow.
Conteneurs personnalisés pour la prédiction en ligne
-
Premiers pas : Diffuser des prédictions PyTorch avec un conteneur personnalisé
Déployez un modèle de machine learning PyTorch qui diffuse des prédictions en ligne à l'aide d'un conteneur personnalisé.
-
Exigences relatives aux conteneurs personnalisés
Découvrez les exigences liées à la création d'une image de conteneur Docker personnalisée à utiliser avec AI Platform Prediction.
-
Utiliser un conteneur personnalisé
Configurez votre version de modèle pour utiliser un conteneur personnalisé.
Intégration d'outils et de services
-
Utiliser la bibliothèque cliente Python
Utilisez la bibliothèque cliente des API Google pour Python pour envoyer des requêtes à l'API AI Platform Training and Prediction.
-
Utiliser Cloud Storage
Configurez Cloud Storage pour qu'il soit compatible avec AI Platform Prediction.
-
Utiliser l'outil de simulation What-If
Inspectez les modèles déployés à l'aide d'un tableau de bord interactif.
Surveillance et sécurité
-
Surveiller des modèles
Surveillez les performances et le comportement des modèles déployés.
-
Afficher les journaux d'audit
Surveillez l'activité des administrateurs et l'accès aux données avec les journaux d'audit Cloud.
-
Contrôle des accès
Consultez les autorisations requises pour effectuer diverses actions dans l'API AI Platform Training and Prediction, ainsi que les rôles IAM qui fournissent ces autorisations.
-
Utiliser un compte de service personnalisé
Configurez une version de modèle pour utiliser un compte de service personnalisé afin de diffuser des prédictions.
-
Utiliser VPC Service Controls
Configurez VPC Service Controls pour limiter le risque d'exfiltration de données.
Ressources AI Platform Prediction
-
Projets, modèles, versions et tâches
Découvrez les ressources que vous créez et avec lesquelles vous interagissez sur AI Platform.
-
Gérer les modèles et les tâches
Gérez les ressources AI Platform que vous avez créées.
-
Attribuer des libellés à des ressources
Organisez vos tâches, modèles et versions de modèle à l'aide d'étiquettes personnalisées.
-
Partager des modèles
Autorisez l'accès d'autres utilisateurs, groupes ou comptes de service à vos ressources AI Platform Prediction.
Tutoriels
-
Créer une routine de prédiction personnalisée avec Keras
Déployez un modèle Keras en association avec le code de prétraitement et de post-traitement pour la gestion des requêtes.
-
Obtenir des prédictions en ligne avec XGBoost
Déployez un modèle XGBoost et effectuez des requêtes de prédictions.
-
Obtenir des prédictions en ligne avec scikit-learn
Déployez un modèle scikit-learn utilisant un pipeline doté de nombreux transformateurs.
-
Prédictions avec des pipelines scikit-learn
Déployez un modèle scikit-learn utilisant un pipeline avec des étapes de prétraitement et de classification.
-
Utiliser un pipeline scikit-learn avec des transformateurs personnalisés
Déployez un pipeline scikit-learn avec un prétraitement personnalisé.
-
Créer une routine de prédiction personnalisée avec scikit-learn
Déployez un modèle scikit-learn en association avec le code de prétraitement et de post-traitement pour la gestion des requêtes.
-
Utiliser scikit-learn sur Kaggle et AI Platform Prediction
Entraînez un modèle avec Kaggle et déployez-le sur AI Platform Prediction.
Versions d'exécution
AI Explanations
-
Présentation d'AI Explanations
Découvrez comment utiliser AI Explanations avec AI Platform Prediction.
-
Premiers pas avec AI Explanations
Déployez des modèles TensorFlow et effectuez des requêtes d'explication.
-
Limitations d'AI Explanations
Consultez les éléments à prendre en compte lors de l'utilisation d'AI Explanations.
-
Utiliser des attributions de fonctionnalités
Configurez votre modèle de machine learning pour AI Explanations et effectuez des requêtes d'explication.
-
Enregistrer des modèles TensorFlow
Enregistrez correctement les modèles TensorFlow 2 et TensorFlow 1.15 pour AI Explanations.
-
Préparer les métadonnées
Créez le fichier de métadonnées d'explication requis pour AI Explanations à l'aide du SDK Explainable AI.
-
Visualiser les explications
Visualisez les explications grâce à AI Explanations.
-
Comprendre les entrées et les sorties pour obtenir des explications
Recherchez les Tensors d'entrée et de sortie pour créer le fichier de métadonnées d'explications manuellement, avant de déployer un modèle TensorFlow 1.15 existant vers AI Explanations.
Évaluation continue
-
Présentation de l'évaluation continue
Découvrez le fonctionnement de l'évaluation continue.
-
Avant de commencer l'évaluation continue
Préparez votre modèle de machine learning pour le rendre compatible avec l'évaluation continue.
-
Créer une tâche d'évaluation
Configurez le mode d'évaluation de la version de votre modèle.
-
Afficher les métriques d'évaluation
Affichez les métriques de votre modèle, calculées par évaluation continue.
-
Mettre à jour, suspendre ou supprimer une tâche d'évaluation
Mettez à jour une tâche d'évaluation continue existante.