Conteneurs préconfigurés pour la prédiction et l'explication

Vertex AI fournit des images de conteneurs Docker que vous exécutez sous forme de conteneurs préconfigurés permettant de diffuser des prédictions et des explications à partir d'artefacts de modèle entraînés. Ces conteneurs, organisés en fonction du framework de machine learning (ML) et de la version du framework, fournissent des serveurs de prédiction HTTP que vous pouvez utiliser pour diffuser des prédictions avec une configuration minimale. Dans de nombreux cas, l'utilisation d'un conteneur prédéfini est plus simple que de créer un conteneur personnalisé pour la prédiction.

Ce document répertorie les conteneurs préconfigurés pour la prédiction et l'explication. Il explique comment les utiliser avec les artefacts de modèle que vous avez créés à l'aide de la fonctionnalité d'entraînement personnalisé de Vertex AI ou avec les artefacts de modèle que vous avez créés en dehors de Vertex AI.

Images de conteneurs disponibles

Chacune des images de conteneur suivantes est disponible dans plusieurs dépôts Artifact Registry qui stockent des données dans différents emplacements. Vous pouvez utiliser n'importe quel URI d'une image lorsque vous effectuez un entraînement personnalisé, chacun pointe vers la même image de conteneur. Si vous utilisez Google Cloud Console pour créer une ressource Model, Cloud Console sélectionne l'URI qui correspond le mieux à l'emplacement où vous utilisez l'IA Vertex afin de réduire le problème. latence.

TensorFlow

Version du framework de ML Utilisation avec des GPU ? URI (choisissez une valeur)
2.7 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-7:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-7:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-7:latest
2.7 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-7:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-7:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-7:latest
2,6 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-6:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-6:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-6:latest
2,6 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-6:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-6:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-6:latest
2.5 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-5:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-5:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-5:latest
2.5 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-5:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-5:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-5:latest
2.4 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-4:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-4:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-4:latest
2.4 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-4:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-4:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-4:latest
2,3 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-3:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-3:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-3:latest
2,3 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-3:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-3:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-3:latest
2.2 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-2:latest
2.2 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
2.1 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
2.1 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
1.15 Non
  • us-docker.pkg.dev/vertex-ai/prediction/tf-cpu.1-15:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf-cpu.1-15:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf-cpu.1-15:latest
1.15 Oui
  • us-docker.pkg.dev/vertex-ai/prediction/tf-gpu.1-15:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf-gpu.1-15:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf-gpu.1-15:latest

scikit-learn

Version du framework de ML Utilisation avec des GPU ? URI (choisissez une valeur)
1.0 Non
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.1-0:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.1-0:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.1-0:latest
0.24 Non
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-24:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-24:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-24:latest
0.23 Non
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-23:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-23:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-23:latest
0.22 Non
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-22:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-22:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-22:latest
0.20 Non
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-20:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-20:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-20:latest

XGBoost

Version du framework de ML Utilisation avec des GPU ? URI (choisissez une valeur)
1.4 Non
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-4:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-4:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-4:latest
1,3 Non
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-3:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-3:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-3:latest
1.2 Non
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-2:latest
1.1 Non
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-1:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-1:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-1:latest
0,90 Non
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-90:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-90:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-90:latest
0,82 Non
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-82:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-82:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-82:latest

Utiliser un conteneur préconfiguré

Vous pouvez spécifier un conteneur prédéfini pour la prédiction lorsque vous créez une ressource TrainingPipeline personnalisée qui importe un fichier Model ou lorsque vous importez des artefacts de modèle en tant que un Model.

Étape suivante