Vertex AI une AI Platform y AutoML en una sola interfaz. En esta página, se comparan Vertex AI y AI Platform para usuarios que están familiarizados con AI Platform.
Entrenamiento personalizado
Con Vertex AI, puedes entrenar modelos con AutoML o puedes realizar un entrenamiento personalizado, que es un flujo de trabajo más similar a AI Platform Training.
Tarea | AI Platform Training | Vertex AI |
---|---|---|
Selecciona la versión de framework de aprendizaje automático que deseas usar. | Los usuarios de la consola de Google Cloud establecen el nombre y la versión del framework. | |
Versiones del entorno de ejecución: Cuando envíes un trabajo de entrenamiento, especifica la cantidad de una versión del entorno de ejecución que incluya tu framework y versión de framework deseados. | Contenedores: cuando envíes un trabajo de entrenamiento personalizado, especifica el URI de Artifact Registry de un contenedor compilado previamente que corresponda a tu framework y versión de framework. | |
Envía un trabajo de entrenamiento con un contenedor personalizado | Compila tu propio contenedor personalizado, alójalo en Artifact Registry y úsalo para ejecutar tu aplicación de entrenamiento. | |
Configura la región de Google Cloud que usarás | Especifica el nombre de una región cuando envíes un trabajo de entrenamiento a un extremo global (ml.googleapis.com ). |
Envía el trabajo de entrenamiento personalizado a un extremo regional, como us-central1-aiplatform.googleapis.com .
No hay un extremo global. Algunas regiones que están disponibles en AI Platform no lo están en Vertex AI. Consulta la lista de regiones compatibles en la página Ubicaciones.
|
Especifica configuraciones de máquina para el entrenamiento distribuido | Especifica las configuraciones con el nombre de funciones de tu clúster de entrenamiento específicas (masterConfig , workerConfig , parameterServerConfig y evaluatorConfig ).
|
La configuración es una lista genérica; especifica las configuraciones de la máquina en CustomJobSpec.workerPoolSpecs[] . |
Envía un trabajo de entrenamiento con un paquete de Python. | Los campos relacionados con tu paquete de Python son de nivel superior dentro de TrainingInput . |
Los campos relacionados con tu paquete de Python están organizados en pythonPackageSpec . |
Especifica los tipos de máquina |
|
|
Envía un trabajo de ajuste de hiperparámetros |
Envía un trabajo de entrenamiento con una configuración hyperparameters . Ya sea que se envíe un trabajo de entrenamiento con o sin ajuste de hiperparámetros, se crea un recurso de API TrainingJob .
|
Envía un trabajo de ajuste de hiperparámetro con una configuración studySpec . Esto crea un recurso de API de nivel superior (HyperparameterTuningJob ). Los trabajos de entrenamiento personalizados que se envían sin ajustes de hiperparámetros crean un recurso de la API de CustomJob de nivel superior.
|
Crea una canalización de entrenamiento para organizar trabajos de entrenamiento con otras operaciones | No hay un recurso de API integrado para la organización; usa AI Platform Pipelines, Kubeflow o cualquier otra herramienta de organización | Crea un recurso TrainingPipeline para organizar un trabajo de entrenamiento con la implementación del modelo. |
Predicción
Tarea | AI Platform Prediction | Vertex AI |
---|---|---|
Selecciona la versión de framework de aprendizaje automático que deseas usar. | Los usuarios de la consola de Google Cloud establecen el nombre y la versión del framework. | |
Versiones del entorno de ejecución: cuando implementas un modelo, especifica la cantidad de una versión del entorno de ejecución que incluya el framework y la versión del framework deseados. | Contenedores precompilados: cuando se implementa un modelo, especifica el URI de Artifact Registry de un contenedor compilado previamente que corresponda a tu framework y versión de framework. Usa la opción multirregional que coincida con tu extremo regional, como us-docker.pkg.dev para un extremo us-central1 . |
|
Ejecuta código personalizado con predicción | Usa rutinas de predicción personalizadas. | Usa rutinas de predicción personalizadas en Vertex AI. |
Configura la región de Google Cloud que usarás | Especifica el nombre de una región cuando crees un modelo en un extremo de API global (ml.googleapis.com ). |
Crea tu modelo en un extremo regional, como us-central1-aiplatform.googleapis.com .
No hay un extremo global. Algunas regiones que están disponibles en AI Platform no lo están en Vertex AI. Consulta la lista de regiones compatibles en la página Ubicaciones.
|
Almacena artefactos de modelo | Los artefactos de modelos se almacenan en Cloud Storage. No hay ningún recurso de API asociado para artefactos de modelos. | Hay almacenamiento de modelos administrados disponibles para artefactos de modelos y se asocia con el recurso Model .Aún puedes implementar modelos almacenados en Cloud Storage sin usar un conjunto de datos administrado de Vertex AI. |
Implementación del modelo | Implementa un modelo directamente a fin de que esté disponible para las predicciones en línea. |
Crea un objeto de Endpoint que proporcione recursos para entregar predicciones en línea. Luego, implementa el modelo en el extremo.
Para solicitar predicciones, llama al método predict() . |
Solicita predicciones por lotes | Puedes solicitar predicciones por lotes en modelos almacenados en Cloud Storage y especificar una versión del entorno de ejecución en tu solicitud. Como alternativa, puedes solicitar predicciones por lotes en modelos implementados y usar la versión de entorno de ejecución que especificaste durante la implementación del modelo. | Sube tu modelo a Vertex AI y, luego, especifica un contenedor compilado previamente o un contenedor personalizado para entregar las predicciones. |
Solicitudes de predicción en línea | La estructura JSON incluye una lista de instancias. | La estructura JSON incluye una lista de instancias y un campo para los parámetros. |
Especifica los tipos de máquina | Especifica cualquier tipo de máquina disponible cuando crees una versión. | No se admiten los tipos de máquinas de predicción en línea heredadas de AI Platform (MLS1). Solo están disponibles los tipos de máquinas de Compute Engine. |
Implementar modelos | Crea un recurso de modelo y, luego, crea un recurso de versión. | Crea un recurso de modelo, crea un recurso de extremo e implementa el modelo en el extremo. Especifica la división del tráfico en el extremo. |
Vertex Explainable AI
Puedes obtener atribuciones de funciones para modelos tabulares y de imagen en AI Explanations para AI Platform y Vertex Explainable AI.
Tarea | Explicaciones de IA para AI Platform | Vertex Explainable AI |
---|---|---|
Obtén atribuciones de atributos para modelos tabulares | Usa Shapley de muestra o gradientes integrados a fin de obtener atribuciones de atributos de los modelos tabulares. | |
Obtén atribuciones de atributos para modelos de imagen | Usa gradientes integrados o XRAI a fin de obtener atribuciones de atributos para los modelos de imágenes. |
Etiquetado de datos
El Servicio de etiquetado de datos de AI Platform está disponible con algunos cambios en la API:
Tarea/concepto | Servicio de etiquetado de datos de AI Platform | Etiquetado de datos en la Vertex AI |
---|---|---|
Envía instrucciones para los etiquetadores de datos. | Tus instrucciones, como archivo PDF, se almacenan en Cloud Storage y se asocian con un recurso de API Instruction . |
Tus instrucciones, como archivo PDF, se almacenan en Cloud Storage, pero no hay un recurso de API solo para instrucciones. Especifica el URI de Cloud Storage del archivo de instrucción cuando crees un recurso de API DataLabelingJob . |
Conjuntos de datos anotados | Existe un recurso de API de AnnotatedDataset . |
No hay ningún recurso de la API de AnnotatedDataset . |
Cómo se organizan las AnnotationSpec |
Los objetos AnnotationSpec se organizan en un recurso de API de AnnotationSpecSet . |
No hay AnnotationSpecSet . Todos los
AnnotationSpec se organizan en
Dataset . |
Además, hay una nueva función de etiquetado de datos en Vertex AI:
Por lo general, los etiquetadores especializados de Google completan las tareas de etiquetado de datos. Como alternativa, puedes crear un grupo de especialistas que te permita administrar tareas de etiquetado de datos con tu propia fuerza de trabajo para completar las tareas de etiquetado, en lugar de usar los especialistas de Google. En este momento, esta función solo está disponible a través de una solicitud a la API. No está disponible en la consola de Google Cloud.