Descripción general de la inferencia de modelos

En este documento, se describen los tipos de inferencia por lotes que admite BigQuery ML, incluidos los siguientes:

La inferencia de aprendizaje automático es el proceso de ejecutar datos en un modelo de aprendizaje automático para calcular un resultado, como una sola puntuación numérica. Este proceso también se conoce como “poner en funcionamiento un modelo de aprendizaje automático” o “poner en producción un modelo de aprendizaje automático”.

Predicción por lotes

En las siguientes secciones, se describen las formas disponibles de realizar predicciones en BigQuery ML.

Inferencia con modelos entrenados de BigQuery ML

La predicción en BigQuery ML se usa no solo para los modelos de aprendizaje supervisado, sino también para los modelos de aprendizaje no supervisado.

BigQuery ML admite las funcionalidades de predicción a través de la función ML.PREDICT con los siguientes modelos:

Categoría del modelo Tipos de modelos Qué hace ML.PREDICT
Aprendizaje supervisado Regresión lineal y logística

Árboles con boosting

Bosque aleatorio

Redes neuronales profundas

Algoritmo de amplitud y profundidad

AutoML Tables
Predice la etiqueta, ya sea un valor numérico para las tareas de regresión o un valor categórico para las tareas de clasificación.
Aprendizaje no supervisado k-means Asigna el clúster a la entidad.
PCA Aplica la reducción de la dimensionalidad a la entidad mediante la transformación en el espacio que abarcan los eigenvectores.
Codificador automático Transforma la entidad en el espacio incorporado.

Inferencia con modelos importados

Con este enfoque, creas y entrenas un modelo fuera de BigQuery, lo importas con la sentencia CREATE MODEL y, luego, ejecutas la inferencia mediante la función ML.PREDICT. Todo el procesamiento de inferencia se produce en BigQuery mediante los datos de BigQuery. Los modelos importados pueden realizar un aprendizaje supervisado o no supervisado.

BigQuery ML es compatible con los siguientes tipos de modelos importados:

Usa este enfoque para usar modelos personalizados desarrollados con una variedad de frameworks de AA y, al mismo tiempo, aprovechar la velocidad de inferencia y la ubicación conjunta de BigQuery ML con los datos.

Para obtener más información, prueba uno de los siguientes instructivos:

Inferencia con modelos remotos

Con este enfoque, puedes crear una referencia para un modelo alojado en una predicción de Vertex AI mediante la sentencia CREATE MODEL y, luego, ejecutas la inferencia con la función ML.PREDICT. Todo el procesamiento de inferencia se produce en Vertex AI mediante los datos de BigQuery. Los modelos remotos pueden realizar un aprendizaje supervisado o no supervisado.

Usa este enfoque para ejecutar inferencias en modelos grandes que requieren la compatibilidad con hardware de GPU que proporciona Vertex AI. Si la mayoría de los modelos están alojados en Vertex AI, esto también te permite ejecutar inferencias en estos modelos mediante SQL, sin tener que compilar canalizaciones de datos de forma manual para tomar datos en Vertex AI y devolver los resultados de la predicción a BigQuery.

Para obtener instrucciones paso a paso, consulta Realiza predicciones con modelos remotos en Vertex AI.

Predicción en línea

La capacidad de inferencia integrada de BigQuery ML está optimizada para casos de uso a gran escala, como la predicción por lotes. Si bien BigQuery ML ofrece resultados de inferencia de baja latencia cuando se manejan datos de entrada pequeños, puedes lograr una predicción en línea más rápida mediante una integración continua con Vertex AI.

Puedes administrar modelos de BigQuery ML dentro del entorno de Vertex AI, lo que elimina la necesidad de exportar modelos desde BigQuery ML antes de implementarlos como extremos de Vertex AI. Cuando administras modelos dentro de Vertex AI, obtienes acceso a todas las funciones de Vertex AI MLOps y a funciones como Vertex AI Feature Store.

Además, tienes la flexibilidad de exportar modelos de BigQuery ML a Cloud Storage para que estén disponibles en otras plataformas de hosting de modelos.

¿Qué sigue?