Muchos términos en el aprendizaje automático (AA) tienen distintos significados en contextos diferentes. En esta sección, se definen algunos términos según se usan en esta documentación.
Proyectos, modelos, versiones y trabajos
- Proyecto
- El proyecto es tu proyecto de Google Cloud. Es el contenedor lógico para tus modelos y trabajos implementados. Cada proyecto que uses para desarrollar soluciones de AI Platform Prediction debe tener habilitado AI Platform Prediction. Tu Cuenta de Google puede tener acceso a varios proyectos de Google Cloud.
- Modelo
- En AA, un model representa la solución a un problema que estás tratando de resolver. En otras palabras, es la receta para predecir un valor a partir de datos.
En AI Platform Prediction, un modelo es un contenedor lógico de las versiones individuales de esa solución. Por ejemplo, supongamos que el problema que quieres resolver es predecir el precio de oferta de las casas dado un conjunto de datos sobre ventas anteriores. Debes crear un modelo en AI Platform Prediction llamado
housing_prices
y probar distintas técnicas de aprendizaje automático para resolver el problema. En cada etapa, puedes implementar versiones de ese modelo. Cada versión puede ser muy diferente a las otras, pero puedes organizarlas en el mismo modelo si eso favorece tu flujo de trabajo. - Modelo entrenado
- Un modelo entrenado incluye el estado de tu modelo de procesamiento y su configuración después del entrenamiento.
- Modelo guardado
- La mayoría de los frameworks de aprendizaje automático pueden serializar la información que representa tu modelo entrenado y crear un archivo como un modelo guardado, que puedes implementar para la predicción en la nube.
- Versión del modelo
- Una versión del modelo, o simplemente una versión, es una instancia de una solución de aprendizaje automático almacenada en el servicio de modelos de AI Platform Prediction. Creas una versión cuando pasas un modelo entrenado serializado (como un modelo guardado) al servicio. Cuando creas una versión, también puedes proporcionar un código personalizado (Beta) para manejar las predicciones.
- Trabajo
- Interactúas con los servicios de AI Platform Prediction cuando inicias solicitudes y trabajos. Las primeras son solicitudes a la API web normales que muestran una respuesta lo más rápido posible. Los trabajos son operaciones de larga duración que se procesan de forma asíncrona. AI Platform Prediction ofrece trabajos de entrenamiento y de predicción por lotes. Envías una solicitud para iniciar el trabajo y obtienes una respuesta rápida que verifica el estado del trabajo. Luego, puedes solicitar el estado periódicamente para realizar un seguimiento del progreso de tu trabajo.
Empaquetado, etapa de pruebas, implementación y exportación de modelos
Puedes mover modelos y datos, en especial entre tu entorno local y Cloud Storage, y entre Cloud Storage y los servicios de AI Platform Prediction. En esta documentación, se usan los siguientes términos para indicar operaciones específicas en el proceso.
- Paquete
- Empaquetas tu aplicación de entrenamiento para que el servicio de entrenamiento de AI Platform Prediction pueda instalarla en cada instancia del entrenamiento. Cuando empaquetas la aplicación, la conviertes en un paquete de distribución de Python estándar. En la implementación del código personalizado para la predicción (Beta), también empaquetas el código a fin de manejar las predicciones.
- Habilitar a etapa de pruebas
- Habilitas a etapa de pruebas tu paquete de aplicación de entrenamiento en un bucket de Cloud Storage al que tu proyecto tiene acceso. Esto permite que el servicio de entrenamiento acceda al paquete y lo copie en todas las instancias del entrenamiento. También habilitas a etapa de pruebas un modelo guardado entrenado en otro lugar de un bucket de Cloud Storage al que tu proyecto tiene acceso. Esto permite que el servicio de predicción en línea acceda al modelo y lo implemente. Si implementas un código personalizado para la predicción (Beta), también habilitas a etapa de pruebas el paquete de código personalizado en Cloud Storage a fin de que el servicio de predicción en línea pueda acceder a él durante la implementación.
- Exportar
- En el contexto de los modelos de aprendizaje automático, en este documento, se usa el término exportación para hacer referencia al proceso de serializar tu modelo de procesamiento y la configuración del archivo. Usas tu modelo guardado y tus objetos para exportarlos.
- Implementar
- deploy una versión del modelo cuando creas un recurso de versión. Especificas un modelo exportado (un directorio de modelos guardados) y un recurso del modelo al que se asigna la versión, y AI Platform Prediction aloja la versión a fin de que puedas enviarle predicciones. Si implementas código personalizado para predicción (versión Beta), también proporcionas un paquete de código personalizado durante la implementación.
¿Qué sigue?
- Sigue la guía de introducción.
- Lee la guía de introducción de scikit-learn y XGBoost en AI Platform Prediction.
- Explora los recursos recomendados para descubrir los principios y técnicas del aprendizaje automático.