Cuando analices las explicaciones que devuelve el servicio, debes tener en cuenta estas limitaciones generales. Para obtener una explicación detallada, consulta el informe sobre explicaciones de IA.
Significado y alcance de las atribuciones de funciones
Tenga en cuenta lo siguiente al analizar las atribuciones de funciones proporcionadas por Vertex Explainable AI:
- Cada atribución solo muestra cuánto ha afectado la función a la predicción de ese ejemplo concreto. Una sola atribución puede no reflejar el comportamiento general del modelo. Para entender el comportamiento aproximado del modelo en todo un conjunto de datos, agrega las atribuciones de todo el conjunto de datos.
- Las atribuciones dependen por completo del modelo y de los datos utilizados para entrenarlo. Solo pueden revelar los patrones que el modelo ha detectado en los datos y no pueden detectar ninguna relación fundamental en los datos. La presencia o ausencia de una atribución sólida a una determinada característica no significa que haya o no una relación entre esa característica y el objetivo. La atribución solo muestra si el modelo usa o no la función en sus predicciones.
- Las atribuciones por sí solas no pueden determinar si tu modelo es justo, imparcial o de buena calidad. Evalúa detenidamente los datos de entrenamiento y las métricas de evaluación, además de las atribuciones.
Mejorar las atribuciones de funciones
Cuando trabajes con modelos con entrenamiento personalizado, podrás configurar parámetros específicos para mejorar las explicaciones. Esta sección no se aplica a los modelos de AutoML.
Los siguientes factores son los que más influyen en las atribuciones de funciones:
Los métodos de atribución aproximan el valor de Shapley. Puedes aumentar la precisión de la aproximación de las siguientes formas:
- Aumentar el número de pasos integrales de los métodos de degradados integrados o XRAI.
- Aumenta el número de rutas integrales del método de Shapley muestreado.
Por lo tanto, las atribuciones podrían cambiar drásticamente.
Las atribuciones solo expresan cuánto ha afectado la característica al cambio en el valor de la predicción en relación con el valor de referencia. Asegúrate de elegir una referencia significativa que esté relacionada con la pregunta que le hagas al modelo. Los valores de atribución y su interpretación pueden cambiar significativamente al cambiar de base.
En el caso de los gradientes integrados y XRAI, usar dos líneas de base puede mejorar los resultados. Por ejemplo, puedes especificar líneas de base que representen una imagen completamente negra y una imagen completamente blanca.
Más información sobre cómo mejorar las atribuciones de funciones
Limitaciones de los datos de imagen
Los dos métodos de atribución que admiten datos de imagen son los degradados integrados y XRAI.
Los gradientes integrados son un método de atribución basado en píxeles que destaca las áreas importantes de la imagen independientemente del contraste, por lo que este método es ideal para imágenes no naturales, como las radiografías. Sin embargo, la granularidad de los resultados puede dificultar la evaluación de la importancia relativa de las áreas. La salida predeterminada destaca las zonas de la imagen que tienen atribuciones positivas altas dibujando contornos, pero estos contornos no se clasifican y pueden abarcar varios objetos.
XRAI funciona mejor en imágenes naturales de mayor contraste que contengan varios objetos. Como este método genera atribuciones basadas en regiones, produce un mapa de calor más fluido y legible para los humanos de las regiones más destacadas para una clasificación de imágenes determinada.
XRAI no funciona bien con los siguientes tipos de imágenes:
- Imágenes de bajo contraste que son de un solo tono, como las radiografías.
- Imágenes muy altas o muy anchas, como panorámicas.
- Imágenes muy grandes, que pueden ralentizar el tiempo de ejecución general.