Vertex AI para usuarios de AI Platform

Vertex AI une AI Platform y AutoML en una sola interfaz. En esta página, se comparan Vertex AI y AI Platform para usuarios que están familiarizados con AI Platform.

Entrenamiento personalizado

Con Vertex AI, puedes entrenar modelos con AutoML o puedes realizar entrenamiento personalizado, que es un flujo de trabajo más similar a AI Platform Training.

Tarea AI Platform Training Vertex AI
Selecciona la versión de framework de aprendizaje automático que deseas usar. Los usuarios de Google Cloud Console establecen el nombre y la versión del marco de trabajo.
Versiones del entorno de ejecución: cuando envíes un trabajo de entrenamiento, especifica la cantidad de versiones del entorno de ejecución que incluyan el marco deseado y la versión del marco de trabajo deseada. Contenedores: cuando envíes un trabajo de entrenamiento personalizado, especifica el URI de Artifact Registry de un contenedor compilado previamente que corresponda a tu marco de trabajo y versión de marco de trabajo.
Envía un trabajo de entrenamiento con un contenedor personalizado Compila tu propio contenedor personalizado, alójalo en Artifact Registry y úsalo para ejecutar tu aplicación de entrenamiento.
Configura la región de Google Cloud que deseas usar Especifica el nombre de una región cuando envíes un trabajo de entrenamiento a un extremo global (ml.googleapis.com). Envía el trabajo de entrenamiento personalizado a un extremo regional, como us-central1-aiplatform.googleapis.com. No hay ningún extremo global. Algunas regiones que están disponibles en AI Platform no lo están en Vertex AI. Consulta la lista de regiones compatibles en la página Ubicaciones.
Especifica la configuración de las máquinas para el entrenamiento distribuido Especifica las configuraciones con el nombre de funciones de tu clúster de entrenamiento específicas (masterConfig, workerConfig, parameterServerConfig y evaluatorConfig). La configuración es una lista genérica; especifica la configuración de la máquina en CustomJobSpec.workerPoolSpecs[].
Envía un trabajo de entrenamiento con un paquete de Python Los campos relacionados con tu paquete de Python se encuentran en el nivel superior dentro de TrainingInput. Los campos relacionados con tu paquete de Python se organizan en pythonPackageSpec.
Especifica los tipos de máquina
Envía un trabajo de ajuste de hiperparámetros Envía un trabajo de entrenamiento con una configuración hyperparameters. Ya sea que un trabajo de entrenamiento se envíe con o sin ajuste de hiperparámetros, crea un recurso de API TrainingJob. Envía un trabajo de ajuste de hiperparámetros con una configuración studySpec. Esto crea un recurso de API de nivel superior (HyperparameterTuningJob). Los trabajos de entrenamiento personalizados que se envían sin ajuste de hiperparámetros crean un recurso de nivel superior de la API CustomJob.
Crear una canalización de entrenamiento para organizar los trabajos de entrenamiento con otras operaciones No hay un recurso de API incorporado para la organización. Usar AI Platform Pipelines, Kubeflow o cualquier otra herramienta de organización Crea un recurso TrainingPipeline para organizar un trabajo de entrenamiento con la implementación del modelo.

Predicción

Tarea AI Platform Prediction Vertex AI
Selecciona la versión de framework de aprendizaje automático que deseas usar. Los usuarios de Google Cloud Console establecen el nombre y la versión del marco de trabajo.
Versiones del entorno de ejecución: Cuando implementas un modelo, especifica la cantidad de una versión del entorno de ejecución que incluya tu marco de trabajo y versión de marco de trabajo deseados. Contenedores precompilados: cuando se implementa un modelo, especifica el URI de Artifact Registry de un contenedor compilado previamente que corresponda a tu marco de trabajo y versión de marco de trabajo. Usa la opción multirregional que coincida con tu extremo regional, como us-docker.pkg.dev para un extremo us-central1.
Ejecuta código personalizado con predicción Usa rutinas de predicción personalizadas. No se admiten las rutinas de predicción personalizadas. Usa contenedores personalizados en su lugar.
Configura la región de Google Cloud que usarás Especifica el nombre de una región cuando crees un modelo en un extremo de API global (ml.googleapis.com). Crea tu modelo en un extremo regional, como us-central1-aiplatform.googleapis.com. No hay un extremo global. Algunas regiones que están disponibles en AI Platform no lo están en Vertex AI. Consulta la lista de regiones compatibles en la página Ubicaciones.
Almacenar artefactos de modelo Los artefactos de modelos se almacenan en Cloud Storage. No hay ningún recurso de API asociado para artefactos de modelos. Hay almacenamiento de modelos administrados disponibles para artefactos de modelos y se asocia con el recurso Model.
Aún puedes implementar modelos almacenados en Cloud Storage sin usar un conjunto de datos administrado por Vertex AI.
Implementación del modelo Implementa un modelo directamente a fin de que esté disponible para las predicciones en línea. Crea un objeto de Endpoint que proporcione recursos para entregar predicciones en línea. Luego, implementa el modelo en el extremo. Para solicitar predicciones, llama al método predict().
Solicita predicciones por lotes Puedes solicitar predicciones por lotes en modelos almacenados en Cloud Storage y especificar una versión del entorno de ejecución en tu solicitud. Como alternativa, puedes solicitar predicciones por lotes en modelos implementados y usar la versión de entorno de ejecución que especificaste durante la implementación del modelo. Sube tu modelo a Vertex AI y, luego, especifica un contenedor compilado previamente o un contenedor personalizado para entregar las predicciones.
Solicitudes de predicción en línea La estructura JSON incluye una lista de instancias. La estructura JSON incluye una lista de instancias y un campo para los parámetros.
Especifica los tipos de máquina Especifica cualquier tipo de máquina disponible cuando crees una versión. Los tipos de máquina de predicción en línea heredados de AI Platform (MLS1) no son compatibles. Solo están disponibles los tipos de máquinas (N1) de Compute Engine.
Implementa modelos Crea un recurso de modelo y, luego, un recurso de versión. Crea un recurso de modelo, crea un recurso de extremo y, luego, impleméntalo en el extremo. Especifica la división del tráfico en el extremo.

Etiquetado de datos

El Servicio de etiquetado de datos de AI Platform está disponible con algunos cambios en la API:

Tarea/concepto Servicio de etiquetado de datos de AI Platform Etiquetado de datos en la IA de Vertex
Envía instrucciones para los etiquetadores de datos Tus instrucciones, como un archivo PDF, se almacenan en Cloud Storage y se asocian con un recurso de la API Instruction. Tus instrucciones, como archivo PDF, se almacenan en Cloud Storage, pero no hay un recurso de API solo para las instrucciones. Especifica el URI de Cloud Storage del archivo de instrucción cuando crees un recurso de API DataLabelingJob.
Conjuntos de datos anotados Existe un recurso de API de AnnotatedDataset. No hay ningún recurso de la API de AnnotatedDataset.
Cómo se organizan los AnnotationSpec Los objetos AnnotationSpec se organizan en un recurso de API de AnnotationSpecSet. No hay AnnotationSpecSet. Todos los AnnotationSpec se organizan en Dataset.

Además, hay una nueva función de etiquetado de datos en la IA de Vertex:

Los etiquetadores especializados de Google suelen completar las tareas de etiquetado de datos. Como alternativa, puedes crear un grupo de especialistas que te permita administrar tareas de etiquetado de datos con tu propia fuerza de trabajo para completar las tareas de etiquetado, en lugar de usar los especialistas de Google. Por el momento, esta función solo está disponible mediante una solicitud a la API. No está disponible en Google Cloud Console.