Considerando le spiegazioni restituite dal servizio, devi tenere a mente queste limitazioni di alto livello. Per una spiegazione approfondita, consulta il white paper sulle spiegazioni delle AI.
Significato e ambito delle attribuzioni delle funzionalità
Prendi in considerazione quanto segue quando analizzi le attribuzioni delle funzionalità fornite da Vertex Explainable AI:
- Ogni attribuzione mostra in che misura la funzionalità ha influito sulla previsione per l'esempio in questione. Una singola attribuzione potrebbe non riflettere il comportamento generale del modello. Per comprendere il comportamento approssimativo del modello in un intero set di dati, aggrega le attribuzioni sull'intero set di dati.
- Le attribuzioni dipendono interamente dal modello e dai dati utilizzati per addestrare il modello. Possono solo rivelare i pattern che il modello ha trovato nei dati e non possono rilevare alcuna relazione fondamentale nei dati. La presenza o l'assenza di un'attribuzione forte a una determinata caratteristica non significa che esista o non esista una relazione tra la caratteristica e il target. L'attribuzione si limita a mostrare che il modello utilizza o meno la funzionalità nelle sue previsioni.
- Le attribuzioni da sole non sono in grado di capire se il tuo modello è equo, imparziale o di qualità audio. Valuta attentamente i dati di addestramento e le metriche di valutazione, oltre alle attribuzioni.
Migliorare le attribuzioni delle funzionalità
Quando lavori con modelli addestrati personalizzati, puoi configurare parametri specifici per migliorare le spiegazioni. Questa sezione non si applica ai modelli AutoML.
I seguenti fattori hanno l'impatto maggiore sulle attribuzioni delle funzionalità:
I metodi di attribuzione approssimano il valore di Shapley. Puoi aumentare la precisione dell'approssimazione come segue:
- Aumento del numero di passaggi per i metodi gradienti o XRAI integrati.
- Aumento del numero di percorsi integrali per il metodo Shapley campionato.
Di conseguenza, le attribuzioni potrebbero cambiare radicalmente.
Le attribuzioni esprimono solo in che misura la caratteristica ha influito sulla variazione del valore di previsione, rispetto al valore di riferimento. Assicurati di scegliere un punto di riferimento significativo, pertinente alla domanda che ti poni sul modello. I valori di attribuzione e la relativa interpretazione potrebbero cambiare in modo significativo con il cambio dei valori di riferimento.
Per le gradienti integrati e l'XRAI, l'utilizzo di due basi di riferimento può migliorare i risultati. Ad esempio, puoi specificare valori di riferimento che rappresentano un'immagine completamente nera e un'immagine completamente bianca.
Scopri di più su come migliorare le attribuzioni delle funzionalità.
Limitazioni per i dati di immagine
I due metodi di attribuzione che supportano i dati di immagine sono le sfumature integrate e l'XRAI.
I gradienti integrati sono un metodo di attribuzione basato sui pixel che evidenzia le aree importanti dell'immagine a prescindere dal contrasto, rendendolo ideale per le immagini non naturali, come i raggi X. Tuttavia, l'output granulare può rendere difficile valutare l'importanza relativa delle aree. L'output predefinito evidenzia le aree nell'immagine che hanno attribuzioni positive elevate tracciando i contorni, ma questi contorni non sono classificati e potrebbero occupare più oggetti.
XRAI funziona meglio con immagini naturali e a contrasto elevato contenenti più oggetti. Poiché questo metodo produce attribuzioni basate sulla regione, produce una mappa termica più fluida e leggibile delle regioni più importanti per una determinata classificazione di immagini.
Al momento, XRAI non funziona bene sui seguenti tipi di inserimento di immagini:
- Immagini a basso contrasto che sono tutte in una tonalità, come i raggi X.
- Immagini molto alte o molto larghe, come le panoramiche.
- Immagini molto grandi, che possono rallentare il tempo di esecuzione complessivo.