Vertex Explainable AI는 이미지 데이터를 위한 시각화 기능을 기본적으로 제공합니다.
커스텀 학습 이미지 모델의 시각화를 구성할 수 있습니다.
이미지 분류 모델에 대한 설명을 요청하면 예측에 기여한 픽셀 또는 리전을 나타내는 이미지 오버레이와 함께 예측 클래스가 생성됩니다.
다음 이미지는 허스키 이미지의 시각화를 보여줍니다. 왼쪽 시각화는 통합 그래디언트 메서드를 사용하고 포지티브 기여 분석 영역을 강조표시합니다. 오른쪽 시각화는 포지티브 예측을 할 때 더 적은 영역(파란색) 및 더 큰 영역(노란색)을 나타내는 색상 그라디언트와 함께 XRAI 메서드를 사용합니다.
작업 중인 데이터 유형은 통합 그래디언트 또는 XRAI 접근방식을 사용하여 설명을 시각화하는 데 영향을 줄 수 있습니다.
XRAI는 기본 이미지에 더 효과적이며 포지티브 기여 분석이 개 얼굴 모양과 관련이 있음을 보여주는 등 높은 수준의 통계 요약을 제공합니다.
통합 그래디언트(IG)는 픽셀 수준에서 세부정보를 제공하는 경향이 있으며 보다 세부적인 기여 분석에 유용합니다.
Vertex Explainable AI 개요 페이지에서 기여 분석 메서드에 대해 자세히 알아보세요.
모델의 시각화를 구성하려면 시각화할 특성에 해당하는 InputMetadata 메시지의 visualization 필드를 채웁니다. 이 구성 메시지에서는 사용된 오버레이 유형, 강조표시되는 기여 분석, 색상 등의 옵션을 포함할 수 있습니다. 모든 설정은 선택사항입니다.
시각화 옵션
기본 설정과 권장 설정은 기여 분석 메서드(통합 그래디언트 또는 XRAI)에 따라 다릅니다. 다음 목록은 구성 옵션 및 사용 방법을 설명합니다. 전체 옵션 목록은 Visualization 메시지에 대한 API 참조를 확인하세요.
type: 사용된 시각화 유형(OUTLINES 또는 PIXELS)입니다. type 필드는 기본적으로 OUTLINES로 설정되며 이는 기여 분석의 리전을 나타냅니다. 픽셀당 기여 분석을 표시하려면 필드를 PIXELS로 설정합니다.
polarity: 강조표시된 기여 분석의 방향입니다. 기본적으로 positive가 설정되어 포지티브 기여 분석이 가장 높은 영역을 강조표시합니다. 즉, 모델의 포지티브 예측에 가장 영향력 있는 픽셀을 강조표시합니다.
Polarity를 negative로 설정하면 모델이 포지티브 클래스를 예측하지 않도록 하는 영역을 강조표시합니다. 네거티브 polarity를 사용하면 잘못된 거짓음성 리전을 식별하여 모델을 디버깅하는 데 유용합니다. 또한 포지티브 및 네거티브 기여 분석을 모두 나타내는 both로 polarity을 설정할 수도 있습니다.
clip_percent_upperbound: 강조표시된 영역에서 지정된 백분위수 위의 기여 분석을 제외합니다. 클립 매개변수를 함께 사용하면 노이즈를 필터링하고 강력한 기여 분석 영역을 더 쉽게 볼 수 있습니다.
clip_percent_lowerbound: 강조표시된 영역에서 지정된 백분위수 아래의 기여 분석을 제외합니다.
color_map: 강조표시된 영역에 사용된 색 구성표입니다. 통합 그래디언트의 경우 기본값은 pink_green으로, 포지티브 기여 분석은 녹색으로 표시되고 네거티브 기여 분석은 핑크색으로 표시됩니다. XRAI 시각화의 경우 색상 척도는 그라디언트입니다. XRAI 기본값은 viridis으로, 가장 영향력이 큰 리전은 노란색으로, 가장 영향력이 적은 리전은 파란색으로 강조표시됩니다.
다음 시각화에는 outlines 및 pixels 유형이 모두 사용됩니다. "Highly predictive only", "Moderately predictive", "Almost all"로 라벨이 지정된 열은 다른 수준의 클리핑 예시로 시각화에 집중하는 데 도움이 될 수 있습니다.
XRAI
XRAI 시각화의 경우 오버레이가 기여 분석이 높은 영역과 낮은 영역을 표시하기 위해 경사를 사용하므로 XRAI의 클립 값 없이 시작하는 것이 좋습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-09-04(UTC)"],[],[],null,["# Configure feature-based visualization settings\n\nVertex Explainable AI provides built-in visualization capabilities for your image data.\nYou can configure visualizations for custom-trained image models.\n\nWhen you request an explanation on an image classification model, you get the\npredicted class along with an image overlay showing which pixels\nor regions contributed to the prediction.\n\nThe following images show visualizations on a husky image. The left\nvisualization uses the integrated gradients method and highlights areas of\npositive attribution. The right visualization uses an XRAI method with a color\ngradient indicating areas of lesser (blue) and greater (yellow) influence in\nmaking a positive prediction. \n\nThe type of data you're working with can influence whether you use an\nintegrated gradients or XRAI approach to visualizing your explanations.\n\n- XRAI tends to be better with natural images and provides a better high-level summary of insights, like showing that positive attribution is related to the shape of a dog's face.\n- Integrated gradients (IG) tends to provide details at the pixel level and is useful for uncovering more granular attributions.\n\nLearn more about the attribution methods in the Vertex Explainable AI\n[Overview page](/vertex-ai/docs/explainable-ai/overview).\n\nGet started\n-----------\n\nConfigure visualization when you [create a `Model` resource that supports\nVertex Explainable AI](/vertex-ai/docs/explainable-ai/configuring-explanations), or when you [override\nthe `Model`'s\n`ExplanationSpec`](/vertex-ai/docs/explainable-ai/configuring-explanations#override).\n\nTo configure visualization for your model, populate the `visualization` field of\nthe [`InputMetadata` message](/vertex-ai/docs/reference/rest/v1/ExplanationSpec#inputmetadata) corresponding to the feature\nthat you want to visualize. In this configuration message, you can include\noptions such as the type of overlay used, which attributions are highlighted,\ncolor, and more. All settings are optional.\n\nVisualization options\n---------------------\n\nThe default and recommended settings depend on the attribution method\n(integrated gradients or XRAI). The following list describes configuration\noptions and how you might use them. For a full list of options, see the\n[API reference for the `Visualization` message](/vertex-ai/docs/reference/rest/v1/ExplanationSpec#visualization).\n\n- `type`: The type of visualization used: `OUTLINES` or `PIXELS`. The `type`\n field defaults to `OUTLINES`, which shows regions of attribution. To show\n per-pixel attribution, set the field to `PIXELS`.\n\n- `polarity`: The directionality of the highlighted attributions. `positive` is\n set by default, which highlights areas with the highest positive\n attributions. This means highlighting pixels that\n were most influential to the model's positive prediction.\n Setting polarity to `negative` highlights areas that lead the model to not\n predicting the positive class. Using a negative polarity can be useful for\n debugging your model by identifying false negative regions. You can also set\n polarity to `both` which shows positive and negative attributions.\n\n- `clip_percent_upperbound`: Excludes attributions above the specified\n percentile\n from the highlighted areas. Using the clip parameters together can be useful\n for filtering out noise and making it easier to see areas of strong\n attribution.\n\n- `clip_percent_lowerbound`: Excludes attributions below the specified\n percentile\n from the highlighted areas.\n\n- `color_map`: The color scheme used for the highlighted areas. Default is\n `pink_green` for integrated gradients, which shows positive attributions in\n green and negative in pink. For XRAI visualizations, the color map is a\n gradient. The XRAI default is `viridis` which highlights the most influential\n regions in yellow and the least influential in blue.\n\n For a full list of possible values, see the [API reference for the\n `Visualization` message](/vertex-ai/docs/reference/rest/v1/ExplanationSpec#visualization).\n- `overlay_type`: How the original image is displayed in the visualization.\n Adjusting the overlay can help increase visual clarity if the original image\n makes it difficult to view the visualization.\n\n For a full list of possible values, see the [API reference for the\n `Visualization` message](/vertex-ai/docs/reference/rest/v1/ExplanationSpec#visualization).\n\nExample configurations\n----------------------\n\nTo get started, below are sample `Visualization` configurations that you can use\nas a starting point and images that show a range of settings applied.\n\n### Integrated gradients\n\nFor integrated gradients, you may need to adjust the clip values if the\nattribution areas are too noisy. \n\n visualization: {\n \"type\": \"OUTLINES\",\n \"polarity\": \"positive\",\n \"clip_percent_lowerbound\": 70,\n \"clip_percent_upperbound\": 99.9,\n \"color_map\": \"pink_green\",\n \"overlay_type\": \"grayscale\"\n }\n\nThe following visualizations use both the `outlines` and `pixels`\ntypes. The columns labeled \"Highly predictive only,\" \"Moderately predictive,\"\nand \"Almost all\" are examples of clipping at different levels that can help\nfocus your visualization.\n\n### XRAI\n\nFor XRAI visualizations, we recommend starting with no clip values for\nXRAI because the overlay uses a gradient to show areas of high and low\nattribution. \n\n visualization: {\n \"type\": \"PIXELS\",\n \"polarity\": \"positive\",\n \"clip_percent_lowerbound\": 0,\n \"clip_percent_upperbound\": 100,\n \"color_map\": \"viridis\",\n \"overlay_type\": \"grayscale\"\n }\n\nThe following image is an XRAI visualization that uses the default viridis\ncolor map and a range of overlay types. The areas in yellow indicate the most\ninfluential regions that contributed positively to the prediction.\n\nWhat's next\n-----------\n\n- For details about other Vertex Explainable AI configuration options, read [Configuring\n explanations for custom-trained models](/vertex-ai/docs/explainable-ai/configuring-explanations)."]]