Contenedores previamente compilados para la predicción y explicación

Vertex AI proporciona imágenes de contenedor de Docker que ejecutas como contenedores precompilados para entregar predicciones y explicaciones a partir de artefactos de modelos entrenados. Estos contenedores, organizados por framework de aprendizaje automático (AA) y versión de framework, proporcionan servidores de predicción HTTP que puedes usar para entregar predicciones con una configuración mínima. En muchos casos, usar un contenedor precompilado es más sencillo que crear tu propio contenedor personalizado para predicción.

En este documento, se enumeran los contenedores compilados previamente para las predicciones y explicaciones y se describe cómo usarlos con artefactos de modelo que creaste con la función de entrenamiento personalizada de Vertex AI o artefactos de modelo que creaste fuera de Vertex AI.

Imágenes de contenedor disponibles

Cada una de las siguientes imágenes de contenedor está disponible en varios repositorios de Artifact Registry, que almacenan datos en varias ubicaciones. Puedes usar cualquiera de los URI de una imagen cuando realices un entrenamiento personalizado; cada uno proporciona la misma imagen de contenedor. Si usas Google Cloud Console para crear un recurso Model, Cloud Console selecciona el URI que mejor coincide con la ubicación en la que usas Vertex AI para reducir latencia.

TensorFlow

Versión del marco de trabajo de AA ¿Usar con GPU? URI (elige cualquier opción)
2.6 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-6:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-6:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-6:latest
2.6
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-6:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-6:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-6:latest
2.5 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-5:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-5:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-5:latest
2.5
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-5:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-5:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-5:latest
2.4 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-4:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-4:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-4:latest
2.4
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-4:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-4:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-4:latest
2.3 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-3:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-3:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-3:latest
2.3
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-3:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-3:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-3:latest
2.2 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-2:latest
2.2
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
2.1 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
2.1
  • us-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf2-gpu.2-2:latest
1.15 No
  • us-docker.pkg.dev/vertex-ai/prediction/tf-cpu.1-15:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf-cpu.1-15:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf-cpu.1-15:latest
1.15
  • us-docker.pkg.dev/vertex-ai/prediction/tf-gpu.1-15:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/tf-gpu.1-15:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/tf-gpu.1-15:latest

scikit-learn

Versión del marco de trabajo de AA ¿Usar con GPU? URI (elige cualquier opción)
0.24 No
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-24:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-24:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-24:latest
0.23 No
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-23:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-23:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-23:latest
0.22 No
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-22:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-22:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-22:latest
0.20 No
  • us-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-20:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-20:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/sklearn-cpu.0-20:latest

XGBoost

Versión del marco de trabajo de AA ¿Usar con GPU? URI (elige cualquier opción)
1.4 No
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-4:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-4:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-4:latest
1.3 No
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-3:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-3:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-3:latest
1.2 No
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-2:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-2:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-2:latest
1.1 No
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-1:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-1:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.1-1:latest
0.90 No
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-90:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-90:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-90:latest
0.82 No
  • us-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-82:latest
  • europe-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-82:latest
  • asia-docker.pkg.dev/vertex-ai/prediction/xgboost-cpu.0-82:latest

Usa un contenedor compilado previamente

Para usar un contenedor precompilado, especifica los siguientes campos de API de un Model:

Si usas un recurso TrainingPipeline para realizar el entrenamiento personalizado y crear el Model a partir de los artefactos entrenados, especifica este Model en TrainingPipeline.modelToUpload. De lo contrario, aprende a importar artefactos del modelo como un recurso del Model.

¿Qué sigue?