AI Platform (unificado) para usuarios de la versión clásica de AI Platform

AI Platform (unificado) reúne AI Platform y AutoML en una sola interfaz. En esta página, se compara AI Platform (unificado) y AI Platform (clásico) para los usuarios que están familiarizados con AI Platform (clásico).

Entrenamiento personalizado

Con AI Platform (unificado), puedes entrenar modelos con AutoML, o puedes realizar un entrenamiento personalizado, que es un flujo de trabajo más similar al de AI Platform Training.

Tarea AI Platform Training AI Platform (unificado)
Selecciona la versión del marco de trabajo de aprendizaje automático Los usuarios de Google Cloud Console establecen el nombre y la versión del marco de trabajo.
Versiones del entorno de ejecución: cuando envíes un trabajo de entrenamiento, especifica la cantidad de versiones del entorno de ejecución que incluyen el marco de trabajo y la versión del marco de trabajo que deseas. Contenedores: cuando envíes un trabajo de entrenamiento personalizado, especifica el URI de Artifact Registry de un contenedor compilado previamente que corresponda a tu marco de trabajo y versión de marco de trabajo.
Establece la región de Google Cloud que usarás Especifica el nombre de una región cuando envíes un trabajo de entrenamiento a un extremo global (ml.googleapis.com). Envía tu trabajo de entrenamiento personalizado a un extremo regional, como us-central1-aiplatform.googleapis.com. No hay extremo global. Algunas regiones que están disponibles en AI Platform (clásico) no están disponibles en AI Platform (unificado). Consulta la lista de regiones admitidas en la página de ubicaciones.
Especifica la configuración de la máquina para el entrenamiento distribuido Especifica las configuraciones con el nombre de funciones de tu clúster de entrenamiento específicas (masterConfig, workerConfig, parameterServerConfig y evaluatorConfig). La configuración es más genérica y flexible: especifica configuraciones de máquina como una lista (en CustomJobSpec.workerPoolSpecs[]).
Envía un trabajo de entrenamiento con un paquete de Python Los campos relacionados con tu paquete de Python son de nivel superior dentro de TrainingInput. Los campos relacionados con tu paquete de Python se organizan en pythonPackageSpec.
Envía un trabajo de entrenamiento con un contenedor personalizado Compila tu propio contenedor personalizado, alójalo en Artifact Registry y úsalo para ejecutar tu aplicación de entrenamiento.
Envía un trabajo de ajuste de hiperparámetros Envía un trabajo de entrenamiento con una configuración hyperparameters. Ya sea que se envíe un trabajo de entrenamiento con o sin ajuste de hiperparámetros, crea un recurso de API TrainingJob. Envía un trabajo de ajuste de hiperparámetros con una configuración studySpec. Esto crea un recurso de API (HyperparameterTuningJob) de nivel superior. Los trabajos de entrenamiento personalizados enviados sin ajuste de hiperparámetros crean un recurso de API CustomJob de nivel superior.
Crea una canalización de entrenamiento para organizar los trabajos de entrenamiento con otras operaciones No hay recursos de API integrados para la organización. Usa las canalizaciones de AI Platform, Kubeflow o alguna otra herramienta de organización. Crea un recurso TrainingPipeline para organizar un trabajo de entrenamiento con la implementación del modelo.

Tipos de máquinas para el entrenamiento

No todos los tipos de máquina que admite AI Platform (clásico) son compatibles con AI Platform (unificado).

Predicción

Tarea/concepto AI Platform Prediction AI Platform (unificado)
Selecciona la versión del marco de trabajo de aprendizaje automático Los usuarios de Google Cloud Console establecen el nombre y la versión del marco de trabajo.
Versiones del entorno de ejecución: para implementar un modelo, especifica la cantidad de versiones del entorno de ejecución que incluye el marco de trabajo y la versión del marco de trabajo que deseas. Contenedores: cuando se implementa un modelo, especifica el URI de Artifact Registry de un contenedor compilado previamente que corresponda a tu marco de trabajo y versión de marco de trabajo. Usa la opción multirregional que coincida con tu extremo regional, como us-docker.pkg.dev para un extremo us-central1.
Establece la región de Google Cloud que usarás Especifica el nombre de una región cuando crees un modelo en un extremo de API global (ml.googleapis.com). Crea tu modelo en un extremo regional, como us-central1-aiplatform.googleapis.com. No hay extremo global. Algunas regiones que están disponibles en AI Platform (clásico) no están disponibles en AI Platform (unificado). Consulta la lista de regiones admitidas en la página de ubicaciones.
Almacena artefactos de modelos Los artefactos de modelos se almacenan en Cloud Storage. No hay ningún recurso de API asociado para artefactos de modelos. Hay almacenamiento de modelos administrados para artefactos de modelos y se asocia con el recurso Model.
Implementación del modelo Implementa un modelo directamente a fin de que esté disponible para las predicciones en línea. Crea un objeto Endpoint, que proporciona recursos para entregar predicciones en línea. Luego, implementa el modelo en el extremo. Para solicitar predicciones, llama al método predict().
Solicita predicciones por lotes Puedes solicitar predicciones por lotes en modelos almacenados en Cloud Storage y especificar una versión del entorno de ejecución en tu solicitud. Como alternativa, puedes solicitar predicciones por lotes en modelos implementados y usar la versión del entorno de ejecución que especificaste durante la implementación del modelo. Sube tu modelo a AI Platform (unificado) y, luego, especifica un contenedor compilado previamente o uno personalizado para entregar las predicciones.
Solicitudes de predicción en línea La estructura JSON incluye una lista de instancias. La estructura JSON incluye una lista de instancias y un campo para los parámetros.
Especifica los tipos de máquina Especifica cualquier tipo de máquina disponible cuando crees una versión. Los tipos de máquinas de predicción en línea heredadas de AI Platform (MLS1) no son compatibles. Solo están disponibles los tipos de máquina de Compute Engine (N1).
Implementa modelos Crea un recurso de modelo y, luego, crea un recurso de versión. Crea un recurso de modelo, crea un recurso de extremo y, luego, implementa el modelo en el extremo. Especifica la división del tráfico en el extremo.
Ejecuta código personalizado con predicción Usa rutinas de predicción personalizadas. No se admiten las rutinas de predicción personalizadas.

Etiquetado de datos

El Servicio de etiquetado de datos de AI Platform se encuentra disponible en la API con algunos cambios:

Tarea / Concepto Servicio de etiquetado de datos de AI Platform Etiquetado de datos en AI Platform (unificado)
Cómo enviar instrucciones para etiquetadores de datos Tus instrucciones, como un archivo PDF, se almacenan en Cloud Storage y se asocian con un recurso de la API de Instruction. Tus instrucciones, como un archivo PDF, se almacenan en Cloud Storage, pero no hay recursos de la API solo para las instrucciones. Especifica el URI de Cloud Storage de tu archivo de instrucciones cuando crees un recurso de API DataLabelingJob.
Conjuntos de datos anotados Existe un recurso de API AnnotatedDataset. No hay ningún recurso de API AnnotatedDataset.
Cómo se organizan AnnotationSpec Los objetos AnnotationSpec se organizan en un recurso de API AnnotationSpecSet. No hay ningún AnnotationSpecSet. Todos los AnnotationSpec se organizan en Dataset.

Además, hay una nueva característica de etiquetado de datos en AI Platform (unificado):

Los etiquetadores especialistas de Google suelen completar las tareas de etiquetado de datos. Como alternativa, puedes crear un grupo especializado que te permita administrar tareas de etiquetado de datos mediante tu propio personal para completar las tareas de etiquetado, en lugar de usar los especialistas de Google. Actualmente, esta función solo está disponible a través de una solicitud a la API. No está disponible en Google Cloud Console.