En esta página se explica cómo enviar una solicitud de inferencia por lotes a tu modelo de clasificación o regresión de AutoML entrenado mediante la consola de Google Cloud o la API de Vertex AI.
Una solicitud de inferencia por lotes es una solicitud asíncrona (a diferencia de la inferencia online, que es una solicitud síncrona). Puedes solicitar inferencias por lotes directamente desde el recurso de modelo sin implementar el modelo en un endpoint. En el caso de los datos tabulares, usa las inferencias por lotes si no necesitas una respuesta inmediata y quieres procesar los datos acumulados a partir de una sola solicitud.
Para hacer una solicitud de inferencia por lotes, especifica una fuente de entrada y un formato de salida en el que Vertex AI almacene los resultados de la inferencia.
Antes de empezar
Antes de enviar una solicitud de inferencia por lotes, entrena un modelo.
Datos de entrada
Los datos de entrada de las solicitudes de inferencia por lotes son los que usa el modelo para hacer inferencias. En el caso de los modelos de clasificación o regresión, puede proporcionar datos de entrada en uno de los siguientes formatos:
- Tablas de BigQuery
- Objetos CSV en Cloud Storage
Te recomendamos que utilices el mismo formato para los datos de entrada que usaste para entrenar el modelo. Por ejemplo, si has entrenado tu modelo con datos de BigQuery, lo mejor es usar una tabla de BigQuery como entrada para la inferencia por lotes. Como Vertex AI trata todos los campos de entrada CSV como cadenas, mezclar formatos de datos de entrenamiento y de entrada puede provocar errores.
Su fuente de datos debe contener datos tabulares que incluyan todas las columnas, en cualquier orden, que se hayan usado para entrenar el modelo. Puede incluir columnas que no estuvieran en los datos de entrenamiento o que sí estuvieran, pero que se excluyeran del entrenamiento. Estas columnas adicionales se incluyen en la salida, pero no afectan a los resultados de la inferencia.
Requisitos de los datos de entrada
Tabla de BigQuery
Si elige una tabla de BigQuery como entrada, debe asegurarse de que se cumplan los siguientes requisitos:
- Las tablas de fuentes de datos de BigQuery no pueden superar los 100 GB.
- Si la tabla está en otro proyecto, debes conceder el rol
BigQuery Data Editor
a la cuenta de servicio de Vertex AI en ese proyecto.
Archivo CSV
Si eliges un objeto CSV de Cloud Storage como entrada, debes asegurarte de lo siguiente:
- La fuente de datos debe empezar por una fila de encabezado con los nombres de las columnas.
- El tamaño de cada objeto de fuente de datos no debe superar los 10 GB. Puedes incluir varios archivos siempre que no sobrepases el máximo de 100 GB.
- Si el segmento de Cloud Storage está en otro proyecto, debes asignar el rol
Storage Object Creator
a la cuenta de servicio de Vertex AI en ese proyecto. - Todas las cadenas deben ir entre comillas dobles (").
Formato de salida
El formato de salida de tu solicitud de inferencia por lotes no tiene por qué ser el mismo que el formato de entrada. Por ejemplo, si ha usado una tabla de BigQuery como entrada, puede enviar los resultados a un objeto CSV en Cloud Storage.
Enviar una solicitud de inferencia por lotes a tu modelo
Para hacer solicitudes de inferencia por lotes, puedes usar la Google Cloud consola o la API de Vertex AI. La fuente de datos de entrada pueden ser objetos CSV almacenados en un segmento de Cloud Storage o tablas de BigQuery. En función de la cantidad de datos que envíe como entrada, una tarea de inferencia por lotes puede tardar en completarse.
Google Cloud consola
Usa la consola Google Cloud para solicitar una inferencia por lotes.
- En la Google Cloud consola, en la sección Vertex AI, ve a la página Inferencia por lotes.
- Haz clic en Crear para abrir la ventana Nueva inferencia por lotes.
- En Define your batch inference (Define tu inferencia por lotes), sigue estos pasos:
- Escribe un nombre para la inferencia por lotes.
- En Nombre del modelo, selecciona el nombre del modelo que quieras usar para esta inferencia por lotes.
- En Versión, selecciona la versión del modelo que quieras usar para esta inferencia por lotes.
- En Seleccionar fuente, indica si los datos de entrada de la fuente son un archivo CSV en Cloud Storage o una tabla de BigQuery.
- En el caso de los archivos CSV, especifica la ubicación de Cloud Storage en la que se encuentra el archivo de entrada CSV.
- En el caso de las tablas de BigQuery, especifica el ID del proyecto en el que se encuentra la tabla, el ID del conjunto de datos de BigQuery y el ID de la tabla o la vista de BigQuery.
- En Salida, seleccione CSV o BigQuery.
- En el caso de los archivos CSV, especifica el segmento de Cloud Storage en el que Vertex AI almacena el resultado.
- En BigQuery, puede especificar un ID de proyecto o un conjunto de datos:
- Para especificar el ID del proyecto, introdúcelo en el campo ID de proyecto de Google Cloud. Vertex AI crea un nuevo conjunto de datos de salida.
- Para especificar un conjunto de datos, introduce su ruta de BigQuery en el campo ID de proyecto de Google Cloud, como
bq://projectid.datasetid
.
- Opcional.
Puedes solicitar una inferencia con explicaciones (también llamadas atribuciones de características) para ver cómo ha llegado tu modelo a una inferencia. Los valores de importancia de las funciones locales te indican cuánto ha contribuido cada función al resultado de la inferencia. Las atribuciones de funciones se incluyen en las inferencias de Vertex AI a través de Vertex Explainable AI.
Para habilitar las atribuciones de funciones, selecciona Habilitar atribuciones de funciones para este modelo. Esta opción está disponible si el destino de salida es BigQuery o JSONL en Cloud Storage. Las atribuciones de funciones no se admiten en archivos CSV en Cloud Storage.
- Opcional: Monitorización de modelos
El análisis de las inferencias por lotes está disponible en Vista previa. Consulta los requisitos para añadir la configuración de detección de sesgos a tu trabajo de inferencia por lotes.
- Haz clic para activar Habilitar la monitorización del modelo para esta inferencia por lotes.
- Seleccione una fuente de datos de entrenamiento. Introduce la ruta de datos o la ubicación de la fuente de datos de entrenamiento que hayas seleccionado.
- Opcional: En Umbrales de alerta, especifica los umbrales en los que se activarán las alertas.
- En Correos de notificación, introduzca una o varias direcciones de correo separadas por comas para recibir alertas cuando un modelo supere un umbral de alerta.
- Opcional: En Canales de notificación, añade canales de Cloud Monitoring para recibir alertas cuando un modelo supere un umbral de alerta. Puedes seleccionar canales de Cloud Monitoring o crear uno haciendo clic en Gestionar canales de notificaciones. La consola admite canales de notificación de PagerDuty, Slack y Pub/Sub.
- Haz clic en Crear.
API: BigQuery
REST
Para solicitar una predicción por lotes, se usa el método batchPredictionJobs.create.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- LOCATION_ID: región en la que se almacena el modelo y se ejecuta el trabajo de inferencia por lotes. Por ejemplo,
us-central1
. - PROJECT_ID: tu ID de proyecto
- BATCH_JOB_NAME: nombre visible del trabajo por lotes
- MODEL_ID: ID del modelo que se va a usar para hacer inferencias.
-
INPUT_URI: referencia a la fuente de datos de BigQuery. En el formulario:
bq://bqprojectId.bqDatasetId.bqTableId
-
OUTPUT_URI: referencia al destino de BigQuery (donde se escriben las inferencias). Especifica el ID del proyecto y, opcionalmente,
el ID de un conjunto de datos que ya tengas. Si solo especificas el ID del proyecto,
Vertex AI creará un nuevo conjunto de datos de salida. Utiliza el siguiente formulario:
bq://bqprojectId.bqDatasetId
- MACHINE_TYPE: los recursos de la máquina que se usarán en este trabajo de inferencia por lotes. Más información
- STARTING_REPLICA_COUNT: número inicial de nodos de este trabajo de inferencia por lotes. El número de nodos se puede aumentar o reducir según la carga, hasta el número máximo de nodos, pero nunca será inferior a este número.
- MAX_REPLICA_COUNT: número máximo de nodos de este trabajo de inferencia por lotes. El número de nodos se puede aumentar o reducir según la carga, pero nunca superará el máximo. Es opcional y el valor predeterminado es 10.
-
GENERATE_EXPLANATION:
Puedes solicitar una inferencia con explicaciones (también llamadas atribuciones de características) para ver cómo ha llegado tu modelo a una inferencia. Los valores de importancia de las funciones locales te indican cuánto ha contribuido cada función al resultado de la inferencia. Las atribuciones de funciones se incluyen en las inferencias de Vertex AI a través de Vertex Explainable AI.
El valor predeterminado es false. Asigna el valor true para habilitar las atribuciones de funciones.
Método HTTP y URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Cuerpo JSON de la solicitud:
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "OUTPUT_URI" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT }, "generateExplanation": GENERATE_EXPLANATION }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente:
{ "name": "projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": bq://12345 } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 }, "generateExplanation": false, "outputInfo": { "bigqueryOutputDataset": "bq://12345.reg_model_2020_10_02_06_04 } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Java
Antes de probar este ejemplo, sigue las Java instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Java de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
En el siguiente ejemplo, sustituya INSTANCES_FORMAT y PREDICTIONS_FORMAT por `bigquery`. Para saber cómo sustituir los demás marcadores de posición, consulte la pestaña `REST & CMD LINE` de esta sección.Python
Para saber cómo instalar o actualizar el SDK de Vertex AI para Python, consulta Instalar el SDK de Vertex AI para Python. Para obtener más información, consulta la documentación de referencia de la API Python.
En el siguiente ejemplo, asigna el valor `"bigquery"` a los parámetros `instances_format` y `predictions_format`. Para saber cómo definir los demás parámetros, consulta la pestaña `REST & CMD LINE` de esta sección.API: Cloud Storage
REST
Para solicitar una inferencia por lotes, usa el método batchPredictionJobs.create.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- LOCATION_ID: región en la que se almacena el modelo y se ejecuta el trabajo de inferencia por lotes. Por ejemplo,
us-central1
. - PROJECT_ID:
- BATCH_JOB_NAME: nombre visible del trabajo por lotes
- MODEL_ID: ID del modelo que se va a usar para hacer inferencias.
-
URI: rutas (URIs) a los contenedores de Cloud Storage que contienen los datos de entrenamiento.
Puede haber más de una. Cada URI tiene el siguiente formato:
gs://bucketName/pathToFileName
-
OUTPUT_URI_PREFIX: ruta a un destino de Cloud Storage donde se escriben las inferencias. Vertex AI escribe las inferencias por lotes en un subdirectorio con marca de tiempo de esta ruta. Asigna a este campo una cadena con el siguiente formato:
gs://bucketName/pathToOutputDirectory
- MACHINE_TYPE: los recursos de la máquina que se usarán en este trabajo de inferencia por lotes. Más información
- STARTING_REPLICA_COUNT: número inicial de nodos de este trabajo de inferencia por lotes. El número de nodos se puede aumentar o reducir según la carga, hasta el número máximo de nodos, pero nunca será inferior a este número.
- MAX_REPLICA_COUNT: número máximo de nodos de este trabajo de inferencia por lotes. El número de nodos se puede aumentar o reducir según la carga, pero nunca superará el máximo. Es opcional y el valor predeterminado es 10.
-
GENERATE_EXPLANATION:
Puedes solicitar una inferencia con explicaciones (también llamadas atribuciones de características) para ver cómo ha llegado tu modelo a una inferencia. Los valores de importancia de las funciones locales te indican cuánto ha contribuido cada función al resultado de la inferencia. Las atribuciones de funciones se incluyen en las inferencias de Vertex AI a través de Vertex Explainable AI.
El valor predeterminado es false. Asigna el valor true para habilitar las atribuciones de funciones. Esta opción solo está disponible si el destino de salida es JSONL. Las atribuciones de funciones no se admiten en los archivos CSV de Cloud Storage.
Método HTTP y URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Cuerpo JSON de la solicitud:
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ URI1,... ] }, }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT }, "generateExplanation": GENERATE_EXPLANATION }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente:
{ "name": "projects/PROJECT__ID/locations/LOCATION_ID/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ "gs://bp_bucket/reg_mode_test" ] } }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 } "outputInfo": { "gcsOutputDataset": "OUTPUT_URI_PREFIX/prediction-batch_job_1 202005291958-2020-09-30T02:58:44.341643Z" } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Recuperar resultados de inferencia por lotes
Vertex AI envía la salida de las inferencias por lotes al destino que hayas especificado, que puede ser BigQuery o Cloud Storage.
BigQuery
Conjunto de datos de salida
Si usas BigQuery, la salida de la inferencia por lotes se almacena en un conjunto de datos de salida. Si has proporcionado un conjunto de datos a Vertex AI, el nombre del conjunto de datos (BQ_DATASET_NAME) es el que habías proporcionado anteriormente. Si no has proporcionado un conjunto de datos de salida, Vertex AI habrá creado uno por ti. Para ver su nombre (BQ_DATASET_NAME), siga estos pasos:
- En la Google Cloud consola, ve a la página Inferencia por lotes de Vertex AI.
- Selecciona la inferencia que has creado.
-
El conjunto de datos de salida se indica en Ubicación de exportación. El nombre del conjunto de datos tiene el siguiente formato:
prediction_MODEL_NAME_TIMESTAMP
El conjunto de datos de salida contiene una o varias de las siguientes tablas de salida:
-
Tabla de predicciones
Esta tabla contiene una fila por cada fila de los datos de entrada en la que se solicitó una inferencia (es decir, donde TARGET_COLUMN_NAME = null).
-
Tabla de errores
Esta tabla contiene una fila por cada error no crítico que se haya producido durante la inferencia por lotes. Cada error no crítico se corresponde con una fila de los datos de entrada para la que Vertex AI no ha podido devolver una previsión.
Tabla de predicciones
El nombre de la tabla (BQ_PREDICTIONS_TABLE_NAME) se forma añadiendo `predictions_` a la marca de tiempo de cuando se inició la tarea de inferencia por lotes: predictions_TIMESTAMP
.
Para recuperar las inferencias, ve a la página de BigQuery.
El formato de la consulta depende del tipo de modelo:Clasificación:
SELECT predicted_TARGET_COLUMN_NAME.classes AS classes, predicted_TARGET_COLUMN_NAME.scores AS scores FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
classes
es la lista de clases posibles y scores
son las puntuaciones de confianza correspondientes.
Regresión:
SELECT predicted_TARGET_COLUMN_NAME.value FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
Si tu modelo usa inferencia probabilística, predicted_TARGET_COLUMN_NAME.value
contiene el minimizador del objetivo de optimización. Por ejemplo, si tu objetivo de optimización es minimize-rmse
, predicted_TARGET_COLUMN_NAME.value
contiene el valor medio. Si es
minimize-mae
, predicted_TARGET_COLUMN_NAME.value
contiene el valor mediano.
Si tu modelo usa inferencia probabilística con cuantiles, Vertex AI proporciona valores e inferencias de cuantiles, además del minimizador del objetivo de optimización. Los valores de los cuantiles se definen durante el entrenamiento del modelo. Las inferencias de cuantiles son los valores de inferencia asociados a los valores de cuantiles.
Si has habilitado las atribuciones de funciones, también las encontrarás en la tabla predictions. Para acceder a las atribuciones de una función BQ_FEATURE_NAME, ejecuta la siguiente consulta:
SELECT explanation.attributions[OFFSET(0)].featureAttributions.BQ_FEATURE_NAME FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
Tabla de errores
El nombre de la tabla (BQ_ERRORS_TABLE_NAME) se forma añadiendoerrors_
a la marca de tiempo de cuando se inició el trabajo de inferencia por lotes: errors_TIMESTAMP
Para obtener la tabla de validación de errores, siga estos pasos:
-
En la consola, ve a la página BigQuery.
-
Ejecuta la siguiente consulta:
SELECT * FROM BQ_DATASET_NAME.BQ_ERRORS_TABLE_NAME
- errors_TARGET_COLUMN_NAME.code
- errors_TARGET_COLUMN_NAME.message
Cloud Storage
Si has especificado Cloud Storage como destino de salida, los resultados de tu solicitud de inferencia por lotes se devolverán como objetos CSV en una carpeta nueva del segmento que hayas especificado. El nombre de la carpeta es el nombre de tu modelo, al que se le añade el prefijo "prediction-" y la marca de tiempo de cuando se inició el trabajo de inferencia por lotes. Puedes encontrar el nombre de la carpeta de Cloud Storage en la pestaña Predicciones por lotes de tu modelo.
La carpeta Cloud Storage contiene dos tipos de objetos:-
Objetos de predicción
Los objetos de inferencia se denominan `predictions_1.csv`, `predictions_2.csv`, y así sucesivamente. Contienen una fila de encabezado con los nombres de las columnas y una fila por cada inferencia devuelta. En los objetos de inferencia, Vertex AI devuelve los datos de inferencia y crea una o varias columnas nuevas para los resultados de la inferencia en función del tipo de modelo:
-
Clasificación: para cada valor potencial de la columna de destino, se añade una columna llamada
TARGET_COLUMN_NAME_VALUE_score
a los resultados. Esta columna contiene la puntuación o la estimación de la confianza de ese valor. -
Regresión: el valor previsto de esa fila se devuelve en una columna llamada
predicted_TARGET_COLUMN_NAME
. El intervalo de predicción no se devuelve en el archivo CSV.
-
Clasificación: para cada valor potencial de la columna de destino, se añade una columna llamada
-
Objetos de error
Los objetos de error se denominan `errors_1.csv`, `errors_2.csv`, etc. Contienen una fila de encabezado y una fila por cada fila de los datos de entrada para los que Vertex AI no ha podido devolver una inferencia (por ejemplo, si una función no anulable era nula).
Nota: Si los resultados son grandes, se dividen en varios objetos.
Las atribuciones de características no están disponibles para los resultados de inferencia por lotes devueltos en Cloud Storage.
Interpretar los resultados de la inferencia
Clasificación
Los modelos de clasificación devuelven una puntuación de confianza.
La puntuación de confianza indica la intensidad con la que tu modelo asocia cada clase o etiqueta con un elemento de prueba. Cuanto mayor sea el número, mayor será la confianza del modelo en que la etiqueta se debe aplicar a ese elemento. Tú decides lo alto que debe ser el nivel de confianza para aceptar los resultados del modelo.
Regresión
Los modelos de regresión devuelven un valor de inferencia.
Si tu modelo usa la inferencia probabilística, el campo value
contiene el minimizador del objetivo de optimización. Por ejemplo, si su objetivo de optimización es minimize-rmse
, el campo value
contiene el valor medio.
Si es minimize-mae
, el campo value
contiene el valor de la mediana.
Si tu modelo usa inferencia probabilística con cuantiles, Vertex AI proporciona valores e inferencias de cuantiles, además del minimizador del objetivo de optimización. Los valores de los cuantiles se definen durante el entrenamiento del modelo. Las inferencias de cuantiles son los valores de inferencia asociados a los valores de cuantiles.
Interpretar los resultados de la explicación
Si los resultados de la inferencia por lotes se almacenan en BigQuery y has habilitado las atribuciones de características, busca los valores de atribución de características en la tabla de inferencias.
Para calcular la importancia de las funciones locales, primero se calcula la puntuación de inferencia de referencia. Los valores de referencia se calculan a partir de los datos de entrenamiento. Para ello, se usa la mediana de las características numéricas y la moda de las características categóricas. La inferencia generada a partir de los valores de referencia es la puntuación de inferencia de referencia. Los valores de referencia se calculan una vez para un modelo y no cambian.
En una inferencia específica, la importancia de la función local de cada función te indica cuánto ha sumado o restado esa función al resultado en comparación con la puntuación de inferencia de referencia. La suma de todos los valores de importancia de las características es igual a la diferencia entre la puntuación de inferencia de referencia y el resultado de la inferencia.
En los modelos de clasificación, la puntuación siempre está comprendida entre 0,0 y 1,0 (ambos incluidos). Por lo tanto, los valores de importancia de las funciones locales de los modelos de clasificación siempre están comprendidos entre -1,0 y 1,0 (ambos incluidos).
Para ver ejemplos de consultas de atribución de funciones y obtener más información, consulte Atribuciones de funciones para clasificación y regresión.Siguientes pasos
- Consulta cómo exportar tu modelo.
- Consulta información sobre los precios de las inferencias por lotes.