Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Quando esamini le spiegazioni restituite dal servizio, tieni presente queste limitazioni di alto livello. Per una spiegazione dettagliata, consulta il
white paper sulle spiegazioni dell'IA.
Significato e ambito delle attribuzioni di funzionalità
Tieni presente quanto segue quando analizzi le attribuzioni delle caratteristiche fornite da
Vertex Explainable AI:
Ogni attribuzione mostra solo l'impatto della funzionalità sulla previsione per quel determinato esempio. Una singola attribuzione potrebbe non riflettere il comportamento complessivo del modello. Per comprendere il comportamento approssimativo del modello in un intero
set di dati, aggrega le attribuzioni nell'intero set di dati.
Le attribuzioni dipendono interamente dal modello e dai dati utilizzati per addestrarlo. Possono rivelare solo i pattern trovati dal modello nei dati e non possono rilevare alcuna relazione fondamentale nei dati. La presenza o l'assenza di un'attribuzione forte a una determinata funzionalità non indica che esista o meno una relazione tra la funzionalità e il target. L'attribuzione mostra semplicemente
che il modello utilizza o meno la funzionalità nelle sue previsioni.
Le attribuzioni da sole non possono indicare se il tuo modello è equo, imparziale o di buona qualità. Valuta attentamente i dati di addestramento e le metriche di valutazione, oltre alle attribuzioni.
Miglioramento delle attribuzioni delle funzionalità
Quando utilizzi modelli con addestramento personalizzato, puoi configurare parametri specifici per migliorare le spiegazioni. Questa sezione non si applica ai modelli AutoML.
I seguenti fattori hanno l'impatto maggiore sulle attribuzioni delle funzionalità:
I metodi di attribuzione approssimano il valore di Shapley. Puoi aumentare la precisione dell'approssimazione:
Aumentare il numero di passaggi per l'integrale per i metodi di gradienti integrati o
XRAI.
Aumento del numero di percorsi integrali per il metodo Shapley campionato.
Di conseguenza, le attribuzioni potrebbero cambiare notevolmente.
Le attribuzioni esprimono solo l'impatto della funzionalità sulla variazione del valore della previsione rispetto al valore di riferimento. Assicurati di scegliere un valore di riferimento significativo, pertinente alla domanda che stai ponendo al modello.
I valori di attribuzione e la relativa interpretazione potrebbero cambiare notevolmente quando cambi le linee di base.
Per i gradienti integrati e XRAI, l'utilizzo di due linee di base può migliorare i risultati. Ad esempio, puoi specificare linee di base che rappresentano un'immagine completamente nera e un'immagine completamente bianca.
I due metodi di attribuzione che supportano i dati delle immagini sono i gradienti integrati
e XRAI.
I gradienti integrati rappresentano un metodo di attribuzione basato sui pixel che evidenzia le aree importanti dell'immagine a prescindere dal contrasto, rendendo questo metodo ideale per immagini non naturali, come quelle a raggi X. Tuttavia, l'output granulare può rendere difficile valutare l'importanza relativa delle aree. L'output predefinito evidenzia le aree dell'immagine con attribuzioni positive elevate disegnando contorni, ma questi contorni non sono classificati e possono estendersi su più oggetti.
XRAI funziona meglio con le immagini naturali ad alto contrasto contenenti più oggetti.
Poiché questo metodo produce attribuzioni basate sulle regioni, genera una mappa di calore più uniforme e leggibile delle regioni più importanti per una determinata classificazione delle immagini.
XRAI non funziona bene con i seguenti tipi di input di immagini:
Immagini a basso contrasto tutte dello stesso colore, ad esempio le radiografie.
Immagini molto alte o molto larghe, ad esempio panoramiche.
Immagini molto grandi, che potrebbero rallentare il tempo di esecuzione complessivo.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]