Proyectos, modelos, versiones y trabajos

Muchos términos en el aprendizaje automático (AA) tienen distintos significados en contextos diferentes. En esta sección, se definen algunos términos según se usan en esta documentación.

Proyectos, modelos, versiones y trabajos

Proyecto
Tu proyecto es tu proyecto de Google Cloud Platform. Es el contenedor lógico para tus modelos y trabajos implementados. Cada proyecto que uses para desarrollar soluciones de AI Platform debe tener habilitado AI Platform. Tu Cuenta de Google puede ser miembro de varios proyectos de GCP.
Modelo
En AA, un modelo representa la solución a un problema que estás tratando de resolver. En otras palabras, es la receta para predecir un valor a partir de los datos. En AI Platform, un modelo es un contenedor lógico para versiones individuales de esa solución. Por ejemplo, supongamos que el problema que quieres resolver es predecir el precio de venta de las casas dado un conjunto de datos sobre ventas anteriores. Creas un modelo en AI Platform llamado housing_prices y pruebas distintas técnicas de aprendizaje automático para resolver el problema. En cada etapa, puedes implementar versiones de ese modelo. Cada versión puede ser muy diferente a las otras, pero puedes organizarlas en el mismo modelo si eso favorece tu flujo de trabajo.
Modelo entrenado
Un modelo entrenado incluye el estado de tu modelo de procesamiento y su configuración después del entrenamiento.
Modelo guardado
La mayoría de los marcos de trabajo del aprendizaje automático pueden serializar la información que representa tu modelo entrenado y crear un archivo como un modelo guardado, que puedes implementar para la predicción en la nube.
Versión del modelo
Una versión del modelo, o simplemente una versión, es una instancia de una solución de aprendizaje automático almacenada en el servicio de modelos de AI Platform. Creas una versión cuando pasas un modelo entrenado serializado (como un modelo guardado) al servicio. Cuando creas una versión, también puedes proporcionar un código personalizado (Beta) para manejar las predicciones.
Trabajo
Interactúas con los servicios de AI Platform cuando inicias solicitudes y trabajos. Las primeras son solicitudes a la API web normales que muestran una respuesta lo más rápido posible. Y los segundos son operaciones de larga duración que se procesan de forma asíncrona. AI Platform ofrece trabajos de entrenamiento y de predicción por lotes. Envías una solicitud para iniciar el trabajo y obtienes una respuesta rápida que verifica el estado del trabajo. Luego, puedes solicitar el estado de forma periódica para realizar un seguimiento del progreso de tu trabajo.

Empaquetado, etapa de pruebas, implementación y exportación de modelos

Mueves modelos y datos, especialmente entre tu entorno local y Cloud Storage, y entre Cloud Storage y los servicios de AI Platform. En esta documentación, se usan los siguientes términos para indicar operaciones específicas en el proceso.

Paquete
Empaquetas tu aplicación de entrenamiento para que el servicio de entrenamiento de AI Platform pueda instalarla en cada instancia del entrenamiento. Cuando empaquetas la aplicación, la conviertes en un paquete de distribución de Python. En la implementación del código personalizado para la predicción (Beta), también empaquetas el código a fin de manejar las predicciones.
Habilitar a etapa de pruebas
Habilitas a etapa de pruebas tu paquete de aplicación de entrenamiento en un depósito de Cloud Storage al que tu proyecto tiene acceso. Esto permite que el servicio de entrenamiento acceda al paquete y lo copie en todas las instancias del entrenamiento. También habilitas a etapa de pruebas un modelo guardado entrenado en otro lugar de un depósito de Cloud Storage al que tu proyecto tiene acceso. Esto permite que el servicio de predicción en línea acceda al modelo y lo implemente. Si implementas un código personalizado para la predicción (Beta), también habilitas a etapa de pruebas el paquete de código personalizado en Cloud Storage a fin de que el servicio de predicción en línea pueda acceder a él durante la implementación.
Exportar
En el contexto de los modelos de aprendizaje automático, en este documento, se usa el término exportación para hacer referencia al proceso de serializar tu modelo de procesamiento y la configuración del archivo. Usas tu modelo guardado y tus objetos para exportarlos.
Implementar
Implementas una versión del modelo cuando creas un recurso de la versión. Especificas un modelo exportado (un directorio de modelos guardados) y un recurso del modelo al que asignar la versión, y AI Platform aloja la versión con el fin de que puedas enviarle predicciones. Si implementas código personalizado para predicción (Beta), también proporcionas un paquete de código personalizado durante la implementación.

Qué sigue

¿Te sirvió esta página? Envíanos tu opinión:

Enviar comentarios sobre…

¿Necesitas ayuda? Visita nuestra página de asistencia.