El entrenamiento mediante algoritmos integrados en AI Platform Training te permite enviar el conjunto de datos y entrenar un modelo sin escribir ningún código de entrenamiento. En esta página, se explica cómo funciona el algoritmo integrado XGBoost y cómo usarlo.
Descripción general
El algoritmo integrado XGBoost es un wrapper para el algoritmo XGBoost que se puede ejecutar en AI Platform Training.
En este documento, se describe una versión del algoritmo que se ejecuta en una sola réplica de máquina virtual. También hay una versión distribuida de este algoritmo que usa varias máquinas virtuales para el entrenamiento y requiere un uso un poco diferente. Este algoritmo tiene las siguientes dos fases:
- Procesamiento previo: AI Platform Training procesa la combinación de datos numéricos y categóricos en un conjunto de datos solo numéricos a fin de prepararlos para el entrenamiento con XGBoost.
- Entrenamiento: AI Platform Training ejecuta el entrenamiento mediante el algoritmo XGBoost sobre la base del conjunto de datos y los parámetros de modelo que proporcionaste. La implementación actual se basa en la versión 0.81 de XGBoost.
Limitaciones
Las siguientes características no se admiten para el entrenamiento con la versión de una sola réplica del algoritmo integrado XGBoost:
- Entrenamiento con GPU. Para entrenar con GPU, usa el algoritmo integrado y distribuido XGBoost.
- Entrenamiento distribuido. Para ejecutar un trabajo de entrenamiento distribuido, usa el algoritmo integrado y distribuido XGBoost.
Tipos de máquina admitidos
Se admiten los siguientes niveles de escala y tipos de máquinas de AI Platform Training:
- Nivel de escala
BASIC
- Nivel de escala
CUSTOM
con cualquiera de los tipos de máquina de Compute Engine compatibles con AI Platform Training. - Nivel de escala
CUSTOM
con cualquiera de los siguientes tipos de máquinas heredadas:standard
large_model
complex_model_s
complex_model_m
complex_model_l
Establece el formato de los datos de entrada
XGBoost funciona con datos tabulares numéricos. Cada fila de un conjunto de datos representa una instancia, y cada columna de un conjunto de datos representa un valor de atributo. La columna de destino representa el valor que deseas predecir.
Prepara el archivo CSV
Tus datos de entrada deben estar en un archivo CSV con codificación UTF-8. Si tus datos de entrenamiento solo consisten en valores categóricos y numéricos, puedes usar nuestro módulo de procesamiento previo para convertir datos categóricos en datos numéricos. De lo contrario, puedes ejecutar el entrenamiento sin el procesamiento previo automático habilitado.
Debes preparar tu archivo CSV de entrada para cumplir con los siguientes requisitos:
- Quita la fila del encabezado. La fila del encabezado contiene las etiquetas para cada columna. Quita la fila del encabezado a fin de evitar enviarla con el resto de las instancias de datos como parte de los datos de entrenamiento.
- Asegúrate de que la columna de destino sea la primera. La columna de destino contiene el valor que estás intentando predecir. Para un algoritmo de clasificación, todos los valores en la columna de destino son una clase o una categoría. Para un algoritmo de regresión, todos los valores en la columna de destino son numéricos.
Controla los valores de números enteros
El significado de los valores de números enteros puede ser ambiguo, lo que hace que las columnas de valores de números enteros sean problemáticas en el procesamiento previo automático. AI Platform Training determina cómo controlar los valores de número entero de forma automática. De forma predeterminada, se establecen estos ajustes:
- Si cada valor de número entero es único, la columna se trata como claves de instancia.
- Si solo hay algunos números enteros únicos, la columna se trata como categórica.
- De lo contrario, los valores de la columna se convierten en números de punto flotante y se tratan como numéricos.
Sigue estos pasos para anular las determinaciones predeterminadas:
- Si los datos deben tratarse como numéricos, convierte todos los valores de números enteros en la columna a punto flotante, p. ej., {101.0, 102.0, 103.0}
- Si los datos deben tratarse como categóricos, debes anteponer un prefijo no numérico a todos los valores de números enteros de la columna, p. ej., {code_101, code_102, code_103}
Normaliza valores objetivo para regresión
Para los trabajos de entrenamiento de regresión, asegúrate de normalizar tus valores objetivo, de manera que cada valor esté entre 0 y 1.
Verifica los permisos del bucket de Cloud Storage
A fin de almacenar tus datos, usa un bucket de Cloud Storage en el mismo proyecto de Google Cloud que usas para ejecutar trabajos de AI Platform Training. De lo contrario, otorga acceso a AI Platform Training al bucket de Cloud Storage en el que se almacenan tus datos.
Envía un trabajo de entrenamiento de XGBoost
En esta sección, se explica cómo enviar un trabajo de entrenamiento integrado de XGBoost.
Puedes encontrar explicaciones breves de cada hiperparámetro en la consola de Google Cloud, y una explicación más completa en la referencia del algoritmo integrado XGBoost.
Console
Ve a la página Trabajos de AI Platform Training en la consola de Google Cloud:
Haz clic en el botón Trabajo de entrenamiento nuevo. En las opciones que se muestran a continuación, haz clic en Entrenamiento de algoritmos integrados.
En la página Crea un trabajo de entrenamiento nuevo, selecciona XGBoost integrado y haz clic en Siguiente.
Si deseas obtener más información sobre todos los parámetros disponibles, sigue los vínculos en la consola de Google Cloud y consulta la referencia de XGBoost integrado para conocer más detalles.
gcloud
Configura variables de entorno en tu trabajo. Para ello, rellena los campos
[VALUES-IN-BRACKETS]
con tus propios valores:# Specify the name of the Cloud Storage bucket where you want your # training outputs to be stored, and the Docker container for # your built-in algorithm selection. BUCKET_NAME='[YOUR-BUCKET-NAME]' IMAGE_URI='gcr.io/cloud-ml-algos/boosted_trees:latest' # Specify the Cloud Storage path to your training input data. TRAINING_DATA='gs://[YOUR_BUCKET_NAME]/[YOUR_FILE_NAME].csv' DATASET_NAME='census' ALGORITHM='xgboost' MODEL_TYPE='classification' DATE='date '+%Y%m%d_%H%M%S'' MODEL_NAME="${DATASET_NAME}_${ALGORITHM}_${MODEL_TYPE}" JOB_ID="${MODEL_NAME}_${DATE}" JOB_DIR="gs://${BUCKET_NAME}/algorithm_training/${MODEL_NAME}/${DATE}"
Envía el trabajo de entrenamiento con
gcloud ai-platform jobs training submit
de la siguiente manera:gcloud ai-platform jobs submit training $JOB_ID \ --master-image-uri=$IMAGE_URI --scale-tier=BASIC --job-dir=$JOB_DIR \ -- \ --preprocess --objective=binary:logistic \ --training_data_path=$TRAINING_DATA
Supervisa el estado de tu trabajo de entrenamiento mediante la vista de los registros con
gcloud
. Consultagcloud ai-platform jobs describe
ygcloud ai-platform jobs stream-logs
.gcloud ai-platform jobs describe ${JOB_ID} gcloud ai-platform jobs stream-logs ${JOB_ID}
Cómo funciona el procesamiento previo
El procesamiento previo automático funciona para los datos categóricos y numéricos. La rutina de procesamiento previo primero analiza y, a continuación, transforma tus datos.
Análisis
Primero, AI Platform Training detecta de manera automática el tipo de datos de cada columna, identifica cómo debe tratarse cada columna y calcula algunas estadísticas de los datos en ella. Esta información se captura en el archivo metadata.json
.
AI Platform Training analiza el tipo de la columna de destino a fin de identificar si el conjunto de datos determinado tiene fines de regresión o clasificación. Si se produce un conflicto entre este análisis y tu selección de objective
, ocurre un error. Sé explícito acerca de cómo debe tratarse la columna de destino; para ello, dale formato a tus datos con claridad en los casos ambiguos.
Tipo: La columna puede ser numérica o categórica.
Tratamiento: AI Platform Training identifica cómo tratar cada columna de la siguiente manera:
- Si la columna incluye un solo valor en todas las filas, se trata como una constante.
- Si la columna es categórica y, por lo tanto, incluye valores únicos en todas las filas, se trata como un row_identifier.
- Si la columna es numérica con valores flotantes, o si es numérica con valores de números enteros y contiene muchos valores únicos, la columna se trata como numérica.
- Si la columna es numérica con valores enteros y contiene pocos valores únicos suficientes, la columna se trata como una columna categórica donde los valores de números enteros son la identidad o el vocabulario.
- Se considera que una columna tiene pocos valores únicos si el número de valores únicos en la columna es inferior al 20% del número de filas en el conjunto de datos de entrada.
- Si la columna es categórica con alta cardinalidad, la columna se trata con hashing; aquí el número de depósitos de hash es igual a la raíz cuadrada del número de valores únicos en la columna.
- Se considera que una columna categórica tiene una cardinalidad alta si el número de valores únicos es mayor que la raíz cuadrada del número de filas en el conjunto de datos.
- Si la columna es categórica y la cantidad de valores únicos es menor o igual que la raíz cuadrada del número de filas en el conjunto de datos, la columna se trata como una columna categórica normal con vocabulario.
Estadísticas: AI Platform Training calcula las siguientes estadísticas en función del tratamiento y el tipo de columna identificados, que se usarán para transformar la columna en una etapa posterior.
- Si la columna es numérica, se calculan los valores de la media y la varianza.
- Si la columna es categórica, y el tratamiento es identidad o vocabulario, los valores distintos se extraen de la columna.
- Si la columna es categórica y el tratamiento es hashing, el número de depósitos de hash se calcula con respecto a la cardinalidad de la columna.
Transformación
Una vez finalizado el análisis inicial del conjunto de datos, AI Platform Training transforma los datos en función de los tipos, los tratamientos y las estadísticas que se aplicaron al conjunto de datos. AI Platform Training realiza transformaciones en el siguiente orden:
- Divide el conjunto de datos de entrenamiento en conjuntos de datos de validación y prueba si especificas la cantidad de datos de entrenamiento que se usará en cada uno (como un porcentaje).
- Quita las filas que tienen más del 10% de atributos faltantes.
Rellena los valores faltantes. Se usa la media para las columnas numéricas y los ceros para las columnas categóricas. Consulta el ejemplo siguiente:
Para cada columna categórica con tratamiento de identidad y vocabulario, AI Platform Training realiza una codificación one-hot en los valores de la columna. Consulta el ejemplo siguiente:
En cada columna categórica con tratamiento de hash, AI Platform Training usa FeatureHasher de scikit-learn para generar el hash de atributo. La cantidad de atributos que se contó antes determina la cantidad de depósitos de hash.
Cada columna designada con un tratamiento row_key o constant se quita.
Ejemplos de transformaciones
Se quitan las filas con el 10% de los valores faltantes. En los siguientes ejemplos, supongamos que la fila tiene 10 valores. Cada fila de ejemplo se trunca para que sea más simple.
Problema de la fila | Valores originales | Valores transformados | Explicación |
---|---|---|---|
Fila de ejemplo sin valores faltantes | [3, 0.45, …, 'fruits', 0, 1] |
[3, 0.45, …, 1, 0, 0, 0, 1] |
La string “fruits” se transforma en los valores “1, 0, 0” en la codificación one-hot. |
Demasiados valores faltantes | [3, 0.45, …, 'fruits', __, __] |
Se quita la fila | Falta más del 10% de los valores en la fila. |
Valor numérico faltante | [3, 0.45, …, 'fruits', 0, __] |
[3, 0.45, …, 1, 0, 0, 0, 0.54] |
|
Valor categórico faltante | [3, 0.45, …, __, 0, 1] |
[3, 0.45, …, 0, 0, 0, 0, 1] |
|
Una vez que se completa el procesamiento previo automático, AI Platform Training sube el conjunto de datos procesado al bucket de Cloud Storage en el directorio que especificaste en la solicitud de trabajo.
¿Qué sigue?
- Obtén más información sobre XGBoost.
- Consulta la referencia de XGBoost integrado para conocer todos los parámetros diferentes.