서비스에서 반환된 설명을 사용하려면 다음과 같은 높은 등급의 제한사항에 유의해야 합니다. 자세한 내용은 AI Explanations 백서를 참조하세요.
특성 기여 분석의 의미와 범위
Vertex Explainable AI에서 제공되는 특성 기여 분석을 분석할 때는 다음을 고려하세요.
각 기여 분석은 특정 예시에 대해 특성이 예측에 영향을 미친 정도를 나타냅니다. 단일 기여 분석은 모델의 전체 동작을 반영하지 않을 수 있습니다. 전체 데이터세트의 전반적인 모델 동작을 이해하려면 전체 데이트세트에 대한 기여 분석을 집계하세요.
기여 분석은 모델을 학습시키는 데 사용되는 모델 및 데이터에 전적으로 의존합니다. 이러한 값은 모델이 데이터에서 찾아내는 패턴에는 영향을 미치지만 데이터에서 근본적인 관계를 밝히지는 못합니다. 특정한 특성에 대한 강력한 기여 분석이 존재하는지 여부가 해당 특성과 타겟 간에 관계가 있는지 여부를 의미하지 않습니다. 기여 분석은 모델이 예측에 특성을 사용 중인지 여부만 나타냅니다.
기여 분석만으로는 모델이 공평하고 편향되지 않으며 품질을 신뢰할 수 있는지 여부를 알 수 없습니다. 기여 분석 외에 학습 데이터 및 평가 측정항목을 신중하게 평가해야 합니다.
특성 기여 분석 개선
커스텀 학습 모델을 사용하는 경우 특정 매개변수를 구성하여 설명을 개선할 수 있습니다. 이 섹션은 AutoML 모델에 적용되지 않습니다.
특성 기여 분석에 가장 큰 영향을 미치는 요소는 다음과 같습니다.
기여 분석 방법은 Shapley 값의 근사치를 계산합니다. 다음과 같은 방법으로 근사치의 정밀도를 높일 수 있습니다.
통합 경사 또는 XRAI 방법의 적분 단계 수를 늘립니다.
샘플링된 Shapley 방법의 적분로 수를 늘립니다.
결과적으로 기여 분석 결과가 크게 달라질 수 있습니다.
기여 분석은 기준 값을 기준으로 특성이 예측 값의 변경에 얼마나 영향을 주었는지만 표시합니다. 모델에 물어보려는 질문과 관련된 의미 있는 기준을 선택해야 합니다.
기준 값을 전환하면 기여 분석 값과 그 해석이 크게 변경될 수 있습니다.
통합 경사 및 XRAI의 경우 두 기준을 사용하면 결과를 개선할 수 있습니다. 예를 들어 완전히 검은 이미지와 완전히 흰 이미지를 나타내는 기준을 지정할 수 있습니다.
통합 경사는 픽셀 기반의 기여 분석 방법으로, 대비에 관계없이 이미지의 중요한 영역을 강조하므로 X레이와 같이 자연적이지 않은 이미지에 적합합니다. 그러나 세밀한 출력으로 인해 각 영역의 상대적 중요성을 평가하기가 어려울 수 있습니다. 기본 출력은 윤곽선을 그려 이미지에서 긍정적인 기여도가 높은 영역을 강조하지만, 이러한 윤곽선은 순위가 없고 여러 객체에 걸쳐 표시될 수 있습니다.
XRAI는 여러 객체가 포함된 자연스럽고 대비가 높은 이미지에서 가장 잘 작동합니다.
이 방법은 지역 기반의 기여 분석을 생성하므로 지정된 이미지 분류에서 가장 두드러진 지역에 대해 더 부드럽고 사람이 알아보기 편한 히트맵을 생성합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]