Descripción general de los datos tabulares

Vertex AI te permite realizar el aprendizaje automático con datos tabulares con interfaces y procesos simples. Puedes crear los siguientes tipos de modelos para tus problemas de datos tabulares:

  • Los modelos de clasificación binaria predicen un resultado binario (una de dos clases). Usa este tipo de modelo para preguntas de sí o no. Por ejemplo, es posible que desees crear un modelo de clasificación binaria para predecir si un cliente compraría una suscripción. Por lo general, un problema de clasificación binaria requiere menos datos que otros tipos de modelos.
  • Los modelos de clasificación de varias clases predicen una clase de tres o más clases discretas. Usa este tipo de modelo para la categorización. Por ejemplo, como minorista, te recomendamos crear un modelo de clasificación de clases múltiples para segmentar a los clientes en diferentes perfiles.
  • Los modelos de regresión predicen un valor continuo. Por ejemplo, como minorista, es posible que desees crear un modelo de regresión para predecir cuánto gastará un cliente el mes siguiente.
  • Los modelos de previsión predicen una secuencia de valores. Por ejemplo, como minorista, te recomendamos prever la demanda diaria de tus productos durante los próximos 3 meses para que puedas almacenar los inventarios de productos de forma adecuada con anticipación.

Para obtener una introducción al aprendizaje automático con datos tabulares, consulta Introducción a los datos tabulares. A fin de obtener más información sobre las soluciones de Vertex AI, consulta las soluciones de Vertex AI para la clasificación y la regresión y las soluciones de Vertex AI para la previsión.

Una aclaración sobre la equidad

Google está comprometido con avanzar en el seguimiento de las prácticas de IA responsables. Para ello, nuestros productos de AA, incluido AutoML, están diseñados en torno a principios básicos como la equidad y el aprendizaje automático centrado en las personas. Si deseas obtener más información sobre las prácticas recomendadas para mitigar el sesgo cuando compilas tu propio sistema de AA, consulta la Guía para el AA inclusivo: AutoML.

Soluciones de Vertex AI para la clasificación y la regresión

Vertex AI ofrece las siguientes soluciones para la clasificación y la regresión:

Flujo de trabajo tabular para AutoML de extremo a extremo

Flujo de trabajo tabular para AutoML de extremo a extremo es una canalización completa de AutoML para las tareas de clasificación y regresión. Es similar a la API de AutoML, pero te permite elegir qué controlar y qué automatizar. En lugar de tener controles para toda la canalización, tienes controles para cada paso de la canalización. Estos controles de canalización incluyen lo siguiente:

  • División de datos
  • Ingeniería de atributos
  • Búsqueda de arquitectura
  • Entrenamiento del modelo
  • Ensamble de modelos
  • Destilación de modelos

Ventajas

  • Admite conjuntos de datos grandes que tienen un tamaño de varios TB y hasta 1,000 columnas.
  • Te permite mejorar la estabilidad y reducir el tiempo de entrenamiento, ya que limita el espacio de búsqueda de los tipos de arquitectura, o bien omite la búsqueda de arquitectura.
  • Te permite mejorar la velocidad de entrenamiento mediante la selección manual del hardware usado para el entrenamiento y la búsqueda de arquitectura.
  • Te permite reducir el tamaño del modelo y mejorar la latencia con extracción y el cambio del tamaño del ensamble.
  • Cada componente de AutoML se puede inspeccionar en una interfaz potente de gráficos de canalización que te permite ver las tablas de datos transformadas, las arquitecturas de modelos evaluados y muchos más detalles.
  • Cada componente de AutoML obtiene flexibilidad y transparencia extendidas, como la capacidad de personalizar parámetros y hardware, ver el estado de los procesos, registros y mucho más.

Para obtener más información sobre Tabular Workflows, consulta Tabular Workflows en Vertex AI. Para obtener más información sobre el flujo de trabajo tabular para AutoML de extremo a extremo, consulta Flujo de trabajo tabular para AutoML de extremo a extremo.

Flujo de trabajo tabular para TabNet

Flujo de trabajo tabular para TabNet es una canalización que puedes usar a fin de entrenar modelos de clasificación o regresión. TabNet usa la atención secuencial para elegir qué atributos razonar en cada paso de decisión. Esto promueve la interpretabilidad y el aprendizaje más eficiente, ya que la capacidad de aprendizaje se usa para los atributos más destacados.

Beneficios

  • Selecciona de forma automática el espacio de búsqueda de hiperparámetros adecuado en función del tamaño del conjunto de datos, el tipo de predicción y el presupuesto de entrenamiento.
  • Se integra en Vertex AI. El modelo entrenado es un modelo de Vertex AI. Puedes ejecutar predicciones por lotes o implementar el modelo para predicciones en línea de inmediato.
  • Proporciona interpretabilidad inherente del modelo. Puedes obtener información sobre las características que TabNet usó para tomar su decisión.
  • Admite el entrenamiento de GPU.

Para obtener más información sobre Tabular Workflows, consulta Tabular Workflows en Vertex AI. Para obtener más información sobre el flujo de trabajo tabular para TabNet, consulta Flujo de trabajo tabular para TabNet.

Flujo de trabajo tabular para el modelo amplio y profundo

El flujo de trabajo tabular para el algoritmo de amplitud y profundidad es una canalización que puedes usar a fin de entrenar modelos de clasificación o regresión. El entrenamiento profundo y amplio entrena modelos lineales amplios y redes neuronales profundas a la vez. Combina los beneficios de la memorización y la generalización. En algunos experimentos en línea, los resultados mostraron que el entrenamiento profundo y amplio aumentó significativamente las adquisiciones de aplicaciones de Google Store en comparación con los modelos solo amplio y solo profundo.

Ventajas

  • Se integra en Vertex AI. El modelo entrenado es un modelo de Vertex AI. Puedes ejecutar predicciones por lotes o implementar el modelo para predicciones en línea de inmediato.

Para obtener más información sobre Tabular Workflows, consulta Tabular Workflows en Vertex AI. Para obtener más información sobre el flujo de trabajo tabular para el algoritmo de amplitud y profundidad, consulta Flujo de trabajo tabular para el algoritmo de amplitud y profundidad.

Clasificación y regresión con AutoML

Vertex AI ofrece canalizaciones integradas y completamente administradas para tareas de clasificación o regresión de extremo a extremo. Vertex AI busca el conjunto óptimo de hiperparámetros, entrena varios modelos con varios conjuntos de hiperparámetros y, luego, crea un modelo final único a partir de un ensamble de los modelos principales. Vertex AI considera las redes neuronales y los árboles con boosting para los tipos de modelos.

Beneficios

  • Fácil de usar: el tipo de modelo, los parámetros del modelo y el hardware se eligen por ti.

Para obtener más información, consulta Descripción general de la clasificación y la regresión.

Soluciones de Vertex AI para la previsión

Vertex AI ofrece las siguientes soluciones para la previsión:

Flujo de trabajo tabular para la previsión

El flujo de trabajo tabular para la previsión es la canalización completa para las tareas de previsión. Es similar a la API de AutoML, pero te permite elegir qué controlar y qué automatizar. En lugar de tener controles para toda la canalización, tienes controles para cada paso de la canalización. Estos controles de canalización incluyen lo siguiente:

  • División de datos
  • Ingeniería de atributos
  • Búsqueda de arquitectura
  • Entrenamiento del modelo
  • Ensamble de modelos

Ventajas

  • Admite conjuntos de datos grandes de hasta 1 TB de tamaño y hasta 200 columnas.
  • Te permite mejorar la estabilidad y reducir el tiempo de entrenamiento, ya que limita el espacio de búsqueda de los tipos de arquitectura, o bien omite la búsqueda de arquitectura.
  • Te permite mejorar la velocidad de entrenamiento mediante la selección manual del hardware usado para el entrenamiento y la búsqueda de arquitectura.
  • Para algunos métodos de entrenamiento de modelos, te permite reducir el tamaño del modelo y mejorar la latencia si cambias el tamaño del ensamble.
  • Cada componente se puede inspeccionar en una interfaz potente de gráficos de canalización que te permite ver las tablas de datos transformadas, las arquitecturas de modelos evaluados y muchos más detalles.
  • Cada componente obtiene flexibilidad y transparencia extendidas, como la capacidad de personalizar parámetros y hardware, ver el estado de los procesos, registros y mucho más.

Para obtener más información sobre Tabular Workflows, consulta Tabular Workflows en Vertex AI. Para obtener más información sobre el flujo de trabajo tabular para la previsión, consulta Flujo de trabajo tabular para la previsión.

Previsión con AutoML

Vertex AI ofrece una canalización integrada y completamente administrada para tareas de previsión de extremo a extremo. Vertex AI busca el conjunto óptimo de hiperparámetros, entrena varios modelos con varios conjuntos de hiperparámetros y, luego, crea un modelo final único a partir de un ensamble de los modelos principales. Puedes elegir entre el codificador denso de series temporales (TiDE), el transformador de fusión temporal (TFT), AutoML (L2L) y Seq2Seq+ para tu método de entrenamiento de modelos. Vertex AI considera solo las redes neuronales para el tipo de modelo.

Ventajas

  • Fácil de usar: los parámetros del modelo y el hardware se eligen por ti.

Para obtener más información, consulta la Descripción general de la previsión.

Previsión con BigQuery ML ARIMA_PLUS

ARIMA_PLUS de BigQuery ML es un modelo de previsión de una variable. Como modelo estadístico, es más rápido para entrenar que un modelo basado en redes neuronales. Recomendamos entrenar un modelo ARIMA_PLUS de BigQuery ML si necesitas realizar muchas iteraciones rápidas de entrenamiento de modelos o si necesitas un modelo de referencia económico para medir otros modelos.

Al igual que Prophet, ARIMA_PLUS de BigQuery ML intenta descomponer cada serie temporal en tendencias, temporadas y días feriados, y produce una previsión mediante la agregación de las predicciones de estos modelos. Sin embargo, una de las muchas diferencias es que ARIMA+ de BQML usa ARIMA para modelar el componente de tendencia, mientras que Prophet intenta ajustar una curva mediante un modelo logístico o lineal por partes.

Google Cloud ofrece una canalización para entrenar un modelo ARIMA_PLUS de BigQuery ML y una canalización a fin de obtener predicciones por lotes a partir de un modelo ARIMA_PLUS de BigQuery ML. Ambas canalizaciones son instancias de Vertex AI Pipelines de componentes de canalización de Google Cloud (GCPC).

Beneficios

  • Fácil de usar: los parámetros del modelo y el hardware se eligen por ti.
  • Rápido: el entrenamiento de modelos proporciona un modelo de referencia económico con el que se comparan otros modelos.

Para obtener más información, consulta: Previsión con ARIMA+.

Previsión con Prophet

Prophet es un modelo de previsión mantenido por Meta. Consulta el informe de Prophet para obtener detalles sobre los algoritmos y la documentación para obtener más información sobre la biblioteca.

Al igual que ARIMA_PLUS de BigQuery ML, Prophet intenta descomponer cada serie temporal en tendencias, temporadas y días feriados, y produce una previsión mediante la agregación de las predicciones de estos modelos. Sin embargo, una diferencia importante es que ARIMA+ de BQML usa ARIMA para modelar el componente de tendencia, mientras que Prophet intenta ajustar una curva mediante un modelo logístico o lineal por partes.

Google Cloud ofrece una canalización para entrenar un modelo de Prophet y una canalización a fin de obtener predicciones por lotes a partir de un modelo de Prophet. Ambas canalizaciones son instancias de Vertex AI Pipelines de componentes de canalización de Google Cloud (GCPC).

La integración de Prophet con Vertex AI significa que puedes hacer lo siguiente:

Aunque Prophet es un modelo multivariable, Vertex AI solo admite una versión de una variable.

Beneficios

  • Flexible: Puedes mejorar la velocidad de entrenamiento si seleccionas el hardware que se usa para el entrenamiento.

Para obtener más información, consulta Previsión con Prophet.

¿Qué sigue?