AI Platform Pipelines proporciona una plataforma que puedes usar para automatizar el flujo de trabajo de aprendizaje automático (AA) como una canalización. Cuando ejecutas el proceso de AA como una canalización, puedes realizar las siguientes tareas:
- Ejecutar canalizaciones ad-hoc
- Programar ejecuciones recurrentes para volver a entrenar el modelo de forma periódica
- Experimentar mediante la ejecución de la canalización con diferentes conjuntos de hiperparámetros, cantidad de iteraciones o pasos de entrenamiento, etcétera. Luego, comparar los resultados de los experimentos
En esta guía se describe cómo ejecutar una canalización y programar ejecuciones recurrentes. En esta guía también se proporcionan recursos que puedes usar para obtener más información sobre la interfaz de usuario de Kubeflow Pipelines.
Antes de comenzar
En esta guía se describe cómo usar la interfaz de usuario de Kubeflow Pipelines para ejecutar una canalización. Antes de que puedas ejecutar una canalización, debes configurar tu clúster de AI Platform Pipelines y asegurarte de tener los permisos suficientes para acceder a tu clúster de AI Platform Pipelines.
Ejecuta una canalización de AA
Usa las siguientes instrucciones para ejecutar una canalización de AA en el clúster de AI Platform Pipelines.
Abre AI Platform Pipelines en la consola de Google Cloud.
Haz clic en Open pipelines dashboard (Abrir panel de canalizaciones) para seleccionar el clúster de Kubeflow Pipelines. Se abrirá la interfaz de usuario de Kubeflow Pipelines en una pestaña nueva.
En el panel de navegación de la izquierda, haz clic en Canalizaciones.
Haz clic en el nombre de la canalización que deseas ejecutar. Si aún no cargaste una canalización, haz clic en el nombre de una canalización de ejemplo, como [Demo] TFX - Taxi Tip Prediction Model Trainer. Se abrirá un grafo en el que se muestran los pasos en la canalización.
Para ejecutar o programar la canalización, haz clic en Create run. Se abrirá un formulario en el que podrás ingresar los detalles de la ejecución.
Antes de ejecutar una canalización, debes especificar los detalles, el tipo y los parámetros de ejecución.
En la sección Run details, especifica la siguiente información:
- Pipeline: Selecciona la canalización que deseas ejecutar.
- Pipeline Version: Selecciona la versión de la canalización que deseas ejecutar.
- Nombre de la ejecución: Ingresa un nombre único para esta ejecución. Puedes usar el nombre para encontrar la ejecución más adelante.
- Description: Ingresa una descripción para proporcionar más información sobre esta ejecución (opcional).
- Experiment: Para agrupar ejecuciones relacionadas, selecciona un experimento (opcional).
En la sección Run type, indica con qué frecuencia se debe ejecutar esta ejecución.
- Selecciona si se ejecutará por única vez (One-off) o si será recurrente (Recurring).
Si se trata de una ejecución recurrente (recurring run), especifica el activador de ejecución:
- Tipo de activador: Selecciona si esta ejecución se activa de manera periódica (periodic) o según un programa cron.
- Maximum concurrent runs: Ingresa la cantidad máxima de ejecuciones que pueden estar activas a la vez.
- Has start date: Marca Has start date y, luego, ingresa la fecha de inicio (Start date) y la hora de inicio (Start time) para especificar cuándo el activador debería comenzar a crear ejecuciones.
- Has end date: Marca Has end date, luego ingresa la fecha de finalización (End date) y la hora de finalización (End time) para especificar cuándo el activador debería dejar de crear ejecuciones.
- Run every: Selecciona la frecuencia para activar ejecuciones nuevas. Si esta ejecución se activa en función de un programa cron, marca Allow editing cron expression para ingresar una expresión cron directamente.
En Run parameters, personaliza los parámetros de la canalización para esta ejecución. Puedes usar parámetros a fin de configurar valores como rutas para cargar datos de entrenamiento o almacenar artefactos, hiperparámetros, la cantidad de iteraciones de entrenamiento, etcétera. Los parámetros de una canalización se definen cuando se compila la canalización.
Si ejecutas la canalización [Demo] TFX - Taxi Tip Prediction Model Trainer, especifica la siguiente información:
pipeline-root: El parámetro pipeline-root especifica el lugar en el que se debe almacenar el resultado de la canalización. Esta canalización guarda los artefactos de ejecución en el bucket predeterminado de Cloud Storage de AI Platform Pipelines.
Puedes anular este valor para especificar la ruta a un bucket de Cloud Storage diferente al que puede acceder el clúster. Obtén más información sobre la creación de un depósito de Cloud Storage.
data-root: El parámetro data-root especifica la ruta a los datos de entrenamiento de la canalización. Usa el valor predeterminado.
module-file: El parámetro module-file especifica la ruta al código fuente de un módulo que se usa en esta canalización. Usa el valor predeterminado.
Cuando cargas el código desde un bucket de Cloud Storage, puedes cambiar con rapidez el comportamiento de un componente sin volver a compilar la imagen de contenedor del componente.
Haz clic en Start. En el panel de canalizaciones, se muestra una lista de las ejecuciones de las canalizaciones.
Haz clic en el nombre de la ejecución en la lista de ejecuciones de las canalizaciones. Se muestra el grafo de la ejecución. Mientras la ejecución está en curso, el grafo cambia a medida que se ejecuta cada paso.
Haz clic en los pasos de la canalización para explorar las entradas, los resultados, los registros y otra información de la ejecución.
Comprende la interfaz de usuario de Kubeflow Pipelines
Usa los siguientes recursos para obtener más información sobre la interfaz de usuario de Kubeflow Pipelines, específicamente sobre lo siguiente.
- Los objetivos y los conceptos principales de Kubeflow Pipelines
- Una descripción general de las interfaces de Kubeflow Pipelines
- La terminología que se usa en Kubeflow Pipelines
¿Qué sigue?
- Organiza el proceso de AA como una canalización
- Obtén información sobre cómo conectarse al clúster de AI Platform Pipelines mediante el SDK de Kubeflow Pipelines.