Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
A medida que consideras las explicaciones que muestra el servicio, debes tener en cuenta estas limitaciones de alto nivel. Para obtener una explicación detallada, consulta el Informe sobre AI Explanations.
Significado y alcance de las atribuciones de funciones
Ten en cuenta lo siguiente cuando analizas atribuciones de atributos proporcionadas por Vertex Explainable AI:
Cada atribución solo muestra en qué medida la función afectó la predicción de ese ejemplo en particular. Es posible que una sola atribución no refleje el comportamiento general del modelo. Para comprender el comportamiento aproximado del modelo en un conjunto de datos completo, agrega las atribuciones a todo el conjunto de datos.
Las atribuciones dependen en su totalidad del modelo y de los datos que se usan para entrenar el modelo. Solo pueden revelar los patrones que el modelo encontró en los datos y no pueden detectar ninguna relación fundamental en estos. La presencia o ausencia de una atribución sólida en una función determinada no significa que exista o no una relación entre dicha función y el objetivo. La atribución solo muestra que el modelo usa o no la característica en sus predicciones.
Las atribuciones por sí solas no pueden determinar si el modelo es equitativo, imparcial o de buena calidad. Evalúa con cuidado los datos de entrenamiento y las métricas de evaluación, además de las atribuciones.
Mejora las atribuciones de funciones
Cuando trabajas con modelos de entrenamiento personalizado, puedes configurar parámetros específicos para mejorar tus explicaciones. Esta sección no se aplica a los modelos de AutoML.
Los siguientes factores tienen el mayor impacto en las atribuciones de funciones:
Los métodos de atribución se aproximan al valor de Shapley. Puedes aumentar la precisión de la aproximación de las siguientes maneras:
Aumenta la cantidad de pasos integrales para los gradientes integrados o los métodos de XRAI
Aumenta la cantidad de rutas integrales para el método Shapley muestreado
Como resultado, las atribuciones podrían cambiar de forma significativa.
Las atribuciones solo indican en qué medida la función afectó el cambio en el valor de predicción, en relación con el valor del modelo de referencia. Asegúrate de elegir un modelo de referencia significativo, pertinente a la pregunta que haces sobre el modelo.
Los valores de atribución y su interpretación pueden cambiar de forma significativa a medida que cambias de modelo de referencia.
Para los gradientes integrados y XRAI, el uso de dos modelos de referencia puede mejorar los resultados. Por ejemplo, puedes especificar modelos de referencia que representen una imagen toda negra y una toda blanca.
Los dos métodos de atribución que admiten datos de imagen son gradientes integrados y de XRAI.
Los gradientes integrados son un método de atribución basado en píxeles que destaca áreas importantes en la imagen sin tener en cuenta el contraste, lo que lo hace ideal para imágenes no naturales como las de rayos X. Sin embargo, el resultado detallado puede hacer que sea difícil evaluar la importancia relativa de las áreas. El resultado predeterminado destaca las áreas de la imagen que tienen atribuciones positivas altas mediante contornos trazados, pero estos no se clasifican y pueden abarcar todos los objetos.
XRAI funciona mejor en imágenes naturales que tienen mayor contraste y contienen varios objetos.
Debido a que este método produce atribuciones basadas en regiones, genera un mapa de calor más suave y legible al ojo humano de las regiones más destacadas de una clasificación de imagen determinada.
XRAI no funciona bien con los siguientes tipos de entrada de imagen:
Imágenes de bajo contraste con un solo tono, como las de rayos X
Imágenes muy altas o largas, como las panorámicas
Imágenes muy grandes, que pueden retrasar el entorno de ejecución general
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]