Atributos y funciones de AutoML Tables

En esta página se describe cómo AutoML Tables te permite a ti y a tu equipo crear modelos de alto rendimiento a partir de datos tabulares.

Consulta nuestra página sobre los problemas comunes para conocer cuáles son y cómo evitarlos o solucionarlos.

AutoML Tables es un servicio cubierto por las obligaciones de Google establecidas en las Condiciones de seguridad y procesamiento de datos.

Datos compatibles

AutoML Tables te ayuda a crear datos de entrenamiento organizados y eficaces, ya que proporciona información sobre los datos faltantes, la correlación, la cardinalidad y la distribución de cada uno de tus atributos. Y debido a que no se cobra por importar tus datos y ver información sobre ellos, no se te cobrarán cargos de AutoML Tables hasta que comiences a entrenar tu modelo.

Ingeniería de atributos

Cuando inicias el entrenamiento, AutoML Tables realiza tareas comunes de ingeniería de atributos de forma automática por ti, entre ellas:

  • Normalizar y agrupar los atributos numéricos
  • Crear incorporaciones y codificaciones one-hot de atributos categóricos
  • Realizar el procesamiento básico de los atributos de texto
  • Extraer los atributos relacionados con la fecha y la hora de las columnas de la marca de tiempo

Para obtener más información, consulta la sección sobre la preparación de datos que AutoML Tables hace por ti.

Entrenamiento de modelos

Pruebas de modelos paralelas

Cuando inicias el entrenamiento para tu modelo, AutoML Tables toma tu conjunto de datos y lo empieza a entrenar para varias arquitecturas de modelos al mismo tiempo. Este enfoque permite que AutoML Tables determine la mejor arquitectura de modelo para tus datos con rapidez, sin tener que iterar en serie sobre las tantas arquitecturas de modelos posibles. Las pruebas de arquitecturas de modelos de AutoML Tables incluyen lo siguiente:

  • Lineal
  • Red neuronal profunda y predictiva
  • Árbol de decisión impulsado por gradientes
  • AdaNet
  • Ensambles de varias arquitecturas de modelos

A medida que las nuevas arquitecturas de modelos se obtengan de la comunidad de investigación, las agregaremos también.

Evaluación del modelo y creación del modelo final

Mediante tus conjuntos de entrenamiento y validación, determinamos la mejor arquitectura de modelo para tus datos. Luego, entrenamos dos modelos más mediante el uso de los parámetros y la arquitectura que determinamos en la fase de la prueba paralela:

  1. Un modelo entrenado con tus conjuntos de entrenamiento y validación.

    Usamos tu conjunto de prueba para proporcionar la evaluación de este modelo.

  2. Un modelo entrenado con tus conjuntos de entrenamiento, validación y prueba.

    Este es el modelo que te proporcionamos para hacer predicciones.

Elige entre AutoML Tables y BigQuery ML

Se recomienda que uses BigQuery ML si te enfocas más en la experimentación rápida o iteración con los datos que se incluirán en el modelo, y si deseas usar tipos de modelos más simples para este propósito (como regresión logística).

Se recomienda que trabajes directamente en la interfaz de AutoML Tables si ya finalizaste los datos y cumples con los siguientes requisitos:

  • Estás optimizando para maximizar la calidad del modelo (exactitud, RMSE bajo, entre otros) sin necesidad de realizar de forma manual la ingeniería de atributos, la selección de modelos, los ensambles, etcétera.

  • Estás dispuesto a esperar más tiempo para lograr esa calidad de modelo. AutoML Tables tarda al menos una hora en entrenar un modelo, ya que experimenta con muchas opciones de modelado. Con BigQuery ML se pueden mostrar modelos en minutos porque se ajusta tanto a las arquitecturas del modelo como a los valores y rangos del parámetro que establezcas.

  • Tienes una amplia variedad de entradas de atributos (más allá de números y clases) que se beneficiarían de la ingeniería de atributos automática y adicional que proporciona AutoML Tables.

Transparencia del modelo y Cloud Logging

Puedes ver la estructura de tu modelo de AutoML Tables mediante Cloud Logging. En Logging, puedes ver los hiperparámetros del modelo final, así como los hiperparámetros y los valores objetivos que se usan durante la validación del modelo.

Para obtener más información, consulta la página sobre Logging.

Justificación del modelo

Sabemos que necesitas ser capaz de explicar cómo se relacionan tus datos con el modelo final y con las predicciones que realiza. Te ofrecemos dos formas principales de obtener estadísticas sobre tu modelo y cómo funciona:

Exportación de datos de la prueba

Puedes exportar tu conjunto de prueba, junto con las predicciones que realizó tu modelo. Esta función te brinda información valiosa sobre el rendimiento de tu modelo en filas individuales de datos de entrenamiento. Examinar tu conjunto de prueba y sus resultados puede ayudarte a comprender qué tipos de predicciones tu modelo realiza de forma incorrecta, y puede proporcionar ideas sobre cómo mejorar tus datos para obtener un modelo de mejor calidad.