Entrenamiento de modelos con código precompilado de procesamiento previo de datos: Notebook

Como científico de datos, este un flujo de trabajo común: entrenar un modelo de forma local (en mi notebook), registrar los parámetros, registrar las métricas de serie temporal de entrenamiento en Vertex AI TensorBoard y registrar las métricas de evaluación.

Como científico de datos, quiero poder reutilizar el código de procesamiento previo de datos que otras personas dentro de mi empresa escribieron para simplificar y estandarizar toda la transformación de datos compleja que hacemos. Quiero poder hacer lo siguiente:

  1. Usar una biblioteca de procesamiento previo de datos de Python para limpiar un conjunto de datos en la memoria (un Dataframe de Pandas) en un notebook.
  2. Entrenar un modelo con Keras (de nuevo en un notebook)

Notebook: experimentación de modelos con datos procesados previamente

En el notebook “Compila el linaje de Vertex AI Experiment para el entrenamiento personalizado”, aprenderás a integrar el código de procesamiento previo en Vertex AI Experiments. Además, compilarás el linaje del experimento que te permite registrar, analizar, depurar y auditar los metadatos y artefactos producidos a lo largo de tu recorrido por el AA.

Puedes ver el linaje de artefactos en la consola de Google Cloud.

Linaje de las vistas de Vertex AI

Contenido relevante