Obtén explicaciones

En esta guía, se describe cómo obtener explicaciones de un recurso Model en Vertex AI. Puedes obtener explicaciones de dos maneras:

  • Explicaciones en línea: Solicitudes síncronas a la API de Vertex AI, similares a las predicciones en línea que muestran predicciones con atribuciones de atributos.

  • Explicaciones por lotes: Solicitudes asíncronas a la API de Vertex AI que muestran predicciones con atribuciones de atributos. Las explicaciones por lotes son una parte opcional de las solicitudes de predicción por lotes.

Antes de comenzar

Antes de obtener explicaciones, debes hacer lo siguiente:

  1. Este paso varía según el tipo de modelo de aprendizaje automático que uses:

  2. Si deseas obtener explicaciones en línea, implementa el Model que creaste en el paso anterior en un recurso Endpoint.

Obtén explicaciones en línea

Para obtener explicaciones en línea, sigue la mayoría de los pasos que realizarías para obtener predicciones en línea. Sin embargo, en lugar de enviar una solicitud projects.locations.endpoints.predict a la API de Vertex AI, envía una solicitud projects.locations.endpoints.explain.

En las siguientes guías, se proporcionan instrucciones detalladas para preparar y enviar solicitudes de explicación en línea:

Obtén explicaciones por lotes

Para obtener explicaciones por lotes, configura el campo generateExplanation como true cuando crees un trabajo de predicción por lotes.

Si deseas obtener instrucciones detalladas para preparar y crear trabajos de predicción por lotes, consulta Obtén predicciones por lotes.

Obtén explicaciones de forma local en Notebooks

En Notebooks, puedes generar explicaciones para tu modelo entrenado mediante la ejecución de Explainable AI dentro del kernel o el entorno de ejecución local del notebook sin implementar el modelo en Vertex AI para obtener explicaciones. El uso de explicaciones locales te permite probar diferentes opciones de configuración de Explainable AI sin ajustar tu implementación del modelo de Vertex AI para cada cambio. Esto facilita y agiliza la evaluación del impacto de el uso de diferentes modelos de referencia, y prueba diferentes configuraciones de visualización para tus explicaciones. ajustar la cantidad de pasos o rutas de acceso que se usan para el algoritmo

Las explicaciones locales solo están disponibles en notebooks, por lo que esta característica no funciona en notebooks de Jupyter que se ejecutan fuera de una instancia de notebook.

Para generar explicaciones de forma local en una instancia de Notebooks, haz lo siguiente:

  • Crea una instancia de Notebooks
  • Inicia el entorno de JupyterLab desde la instancia de Notebooks y, luego, crea o importa un notebook.
  • Guarda el artefacto del modelo en el entorno local de tu notebook o en un bucket de Cloud Storage.
  • Genera y guarda los metadatos para describir tu modelo y configurar la solicitud de explicación.

Usa el SDK de Explainable AI en Notebooks

El SDK de Explainable AI está preinstalado en instancias de notebooks. En tu notebook, puedes usar el SDK de Explainable AI para guardar el artefacto del modelo y, luego, identificar de forma automática los metadatos de las entradas y salidas del modelo para la solicitud de explicación. También puedes especificar otros parámetros para configurar la solicitud de explicación y, luego, visualizar los resultados de la explicación.

Puedes guardar modelos y metadatos en el entorno local de tu notebook o en un bucket de Cloud Storage. Si usas TensorFlow, puedes usar el método save_model_with_metadata() para inferir las entradas y salidas de tu modelo, y guardar estos metadatos de explicación con tu modelo.

A continuación, carga el modelo en el SDK de Explainable AI mediante load_model_from_local_path(). Si es necesario, puedes ajustar la configuración para el algoritmo específico de Explainable AI de Vertex. Por ejemplo, puedes cambiar la cantidad de rutas que se usarán para Shapley con muestreo o la cantidad de pasos que se usarán en los gradientes integrados o XRAI.

Por último, llama a explain() con instancias de datos y visualiza las atribuciones de las funciones.

Puedes usar el siguiente código de ejemplo a fin de obtener explicaciones locales para un modelo de TensorFlow 2 dentro de una instancia de Notebooks:

# This sample code only works within a Notebooks instance.
import explainable_ai_sdk
from explainable_ai_sdk.metadata.tf.v2 import SavedModelMetadataBuilder

metadata_and_model_builder = SavedModelMetadataBuilder('LOCAL_PATH_TO_MODEL')
metadata_and_model_builder.save_model_with_metadata('LOCAL_PATH_TO_SAVED_MODEL_ARTIFACT')

# Load the model and adjust the configuration for Explainable AI parameters
num_paths = 20
model_artifact_with_metadata = explainable_ai_sdk.load_model_from_local_path(
    'LOCAL_PATH_TO_SAVED_MODEL_ARTIFACT',
    explainable_ai_sdk.SampledShapleyConfig(num_paths))

# Explainable AI supports generating explanations for multiple predictions
instances = [{feature_a: 10, feature_2: 100,...}, ... ]
explanations = model_artifact_with_metadata.explain(instances)
explanations[0].visualize_attributions()

Obtén más información sobre el SDK de Explainable AI, incluidas las diferentes configuraciones y parámetros. Obtén más información sobre los notebooks.

¿Qué sigue?