Prima di richiedere spiegazioni, devi inviare un file di metadati delle spiegazioni all'indirizzo configurare la richiesta di spiegazioni. Questo file di metadati deve includere il tuo gli input e gli output del modello. Inoltre, include impostazioni facoltative, come basi di input e impostazioni di visualizzazione per i dati immagine.
Specificare gli input e gli output del modello consente di selezionare particolari funzioni per la tua richiesta di spiegazioni, senza che tu debba modificare un modello di machine learning. Puoi utilizzare l'SDK Explainable AI per farlo automaticamente quando crei un nuovo modello. Se non utilizzi l'SDK Explainable AI, devi identificare manualmente gli input e gli output.
Questa guida spiega come identificare manualmente i tensori di input e output, per aiutarti a preparare il file dei metadati della spiegazione.
Input e output nei metadati della spiegazione
Per preparare i metadati della spiegazione, devi specificare gli input e gli output
per il modello in un file denominato explanation_metadata.json
:
{
"inputs": {
string <input feature key>: {
"input_tensor_name": string,
},
"outputs": {
string <output value key>: {
"output_tensor_name": string
},
},
"framework": "tensorflow"
}
All'interno degli oggetti inputs
e outputs
del file, devi specificare i nomi delle
i tensori di input e output per la tua richiesta di spiegazione.
- Le chiavi per ogni input e output ("chiave della funzionalità di input" e "chiave del valore di output"
nell'esempio precedente) ti consentono di assegnare nomi significativi a ogni tensore.
Nell'esempio seguente, la chiave della funzionalità di input è
degrees_celsius
, mentre la la chiave del valore di output èprobabilities
. - Per i valori in ogni metadato
input
eoutput
, devi fornire il nome effettivo del tensore comeinput_tensor_name
ooutput_tensor_name
. Nell'esempio riportato di seguito,input_tensor_name
èx:0
eoutput_tensor_name
èdense/Softmax:0
.
{
"inputs": {
"degrees_celsius": {
"input_tensor_name": "x:0",
}
},
"outputs": {
"probabilities": {
"output_tensor_name": "dense/Softmax:0"
}
},
"framework": "tensorflow"
}
I nomi effettivi dei tensori sono formattati come name:index
.
Trovare i tensori di input e output
Dopo aver addestrato un modello TensorFlow, esportalo come SavedModel. Il file
SavedModel di TensorFlow contiene il modello TensorFlow addestrato, oltre a firme, variabili e altri asset serializzati necessari per eseguire il grafico. Ciascuna
SignatureDef
identifica una funzione nel grafico che accetta un tensore
e produce output tensoriali. Analogamente, il file dei metadati della spiegazione
definisce gli input e gli output del grafo per la richiesta di attribuzione delle funzionalità
a Explanations AI.
Spesso, i tensori di input e di output specificati nel file di metadati della spiegazione mappano esattamente alle firme che definisci quando salvi il modello. In tal caso, trovare i nomi dei tensori di input e output è relativamente semplice. Tuttavia, in alcuni casi, gli input o gli output che vuoi spiegare potrebbero essere diversi da quelli definiti al momento del salvataggio del modello.
Gli input e gli output per le spiegazioni sono gli stessi impostati nella pubblicazione SignatureDef
se:
- Gli input non sono in formato serializzato
- Ogni input a
SignatureDef
contiene direttamente il valore della funzionalità (possono essere valori numerici o stringhe) - Gli output sono valori numerici, trattati come dati numerici. Sono esclusi gli ID del corso, che sono considerati dati categorici.
In questi casi, puoi ottenere i nomi dei tensori di input e di output durante la creazione del modello. In alternativa, puoi ispezionare il SignatureDef
del tuo SavedModel con la CLI SavedModel per trovare i nomi dei tensori di input e output.
Per tutti i casi che non soddisfano i criteri precedenti, vi sono altri approcci che puoi adottare per individuare i tensori di input e output corretti.
Recupero dei nomi dei tensori durante l'addestramento
È più facile accedere ai nomi dei tensori di input e di output durante l'addestramento. Tu
puoi salvare questi valori nel file dei metadati di spiegazione mentre
o ambiente ha ancora accesso alle variabili che imposti durante la creazione
un modello di machine learning. In questo esempio, il campo name
dello strato Keras produce la parte sottostante
il nome del tensore necessario per i metadati della spiegazione:
bow_inputs = tf.keras.layers.Input(shape=(2000,))
merged_layer = tf.keras.layers.Dense(256, activation="relu")(bow_inputs)
predictions = tf.keras.layers.Dense(10, activation="sigmoid")(merged_layer)
model = keras.Model(inputs=bow_inputs, outputs=predictions)
print('input_tensor_name:', bow_inputs.name)
print('output_tensor_name:', predictions.name)
input_tensor_name: input_1:0
output_tensor_name: dense_1/Sigmoid:0
Per un esempio pratico, consulta blocchi note di esempio.
Recupero dei nomi di tensori dalle definizioni di firma
Dato che i valori SignatureDef
e i metadati di spiegazione identificano entrambi gli input del tensore
e output, puoi utilizzare SignatureDef
per preparare la tua spiegazione
di metadati, a condizione che soddisfi le
criteri menzionati in precedenza.
Considera il seguente esempio SignatureDef
:
The given SavedModel SignatureDef contains the following input(s):
inputs['my_numpy_input'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 1)
name: x:0
The given SavedModel SignatureDef contains the following output(s):
outputs['probabilities'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 1)
name: dense/Softmax:0
Method name is: tensorflow/serving/predict
Il grafo ha un tensore di input denominato x:0
e un tensore di output denominato
dense/Softmax:0
. Entrambi i tensori hanno anche nomi significativi:
my_numpy_input
e probabilities
rispettivamente. Per richiedere spiegazioni per
probabilities
rispetto a my_numpy_input
, puoi creare un
come segue:
{
"inputs": {
"my_numpy_input": {
"input_tensor_name": "x:0",
}
},
"outputs": {
"probabilities": {
"output_tensor_name": "dense/Softmax:0"
}
},
"framework": "tensorflow"
}
Per ispezionare il SignatureDef
del tuo SavedModel, puoi utilizzare la CLI di SavedModel. Scopri di più su come utilizzare l'interfaccia a riga di comando SavedModel.
Gestione delle discrepanze di input e output
Ci sono alcuni casi comuni in cui i tensori di input e output nel tuo
I metadati della spiegazione non devono essere uguali a quelli presenti nella
SignatureDef
:
- Hai input serializzati
- Il grafico include operazioni di pre-elaborazione
- Gli output di pubblicazione non sono probabilità, logit o altri tipi di tensori con virgola mobile
In questi casi, dovresti usare approcci diversi per trovare i tensori di input e output corretti. L'obiettivo generale è trovare i tensori relativi ai valori delle funzionalità che vuoi spiegare per gli input e i tensori relativi a logit (pre-attivazione), probabilità (post-attivazione) o qualsiasi altra rappresentazione per gli output.
Discrepanze negli input
Gli input nei metadati della spiegazione sono diversi da quelli di pubblicazioneSignatureDef
se utilizzi un input serializzato per alimentare il modello o se il grafico include operazioni di preelaborazione.
Input serializzati
I SavedModel di TensorFlow possono accettare una serie di input complessi, tra cui:
- Messaggi tf.Example serializzati
- Stringhe JSON
- Stringhe Base64 codificate (per rappresentare i dati immagine)
Se il tuo modello accetta input serializzati come questi, l'utilizzo diretto di questi tensori come input per le spiegazioni non funzionerà o potrebbe produrre risultati non significativi. Devi invece individuare i tensori di input successivi che vengono inseriti nelle colonne di funzionalità all'interno del modello.
Quando esporti il modello, puoi aggiungere un'operazione di analisi al gráfo di TensorFlow chiamando una funzione di analisi nella funzione di input di pubblicazione. Puoi visualizzare di analisi elencate nel modulo tf.io. Queste funzioni di analisi di solito restituiscono tensori come risposta e questi tensori sono scelte migliori per i metadati della spiegazione.
Ad esempio, potresti utilizzare tf.parse_example() durante l'esportazione del modello. Prende un messaggio tf.Example serializzato e genera un dizionario di tensori che alimentano le colonne di caratteristiche. Puoi utilizzare il suo output per compilare i metadati della spiegazione. Se alcuni di questi output tf.SparseTensor, una tupla con nome composta da 3 tensori, dovrebbe ottenere i nomi degli indici, dei valori e dei tensori dense_shape e riempire e i campi corrispondenti nei metadati.
L'esempio seguente mostra come ottenere il nome del tensore di input dopo una decodifica operazione:
float_pixels = tf.map_fn(
lambda img_string: tf.io.decode_image(
img_string,
channels=color_depth,
dtype=tf.float32
),
features,
dtype=tf.float32,
name='input_convert'
)
print(float_pixels.name)
Input di pre-elaborazione
Se il grafo del modello contiene alcune operazioni di preelaborazione, ti consigliamo di ottenere spiegazioni sui tensori dopo il passaggio di preelaborazione. In questo caso,
puoi ottenere i nomi di questi tensori utilizzando la proprietà name
di tf.Tensor e
inserirli nei metadati della spiegazione:
item_one_hot = tf.one_hot(item_indices, depth,
on_value=1.0, off_value=0.0,
axis=-1, name="one_hot_items:0")
print(item_one_hot.name)
Il nome del tensore decodificato diventa input_pixels:0
.
Discrepanze nell'output
Nella maggior parte dei casi, gli output nella pubblicazione SignatureDef
sono probabilità o logit.
Se il modello attribuisce probabilità, ma vuoi spiegare i valori di logit, devi trovare i nomi dei tensori di output appropriati che corrispondono ai logit.
Se la pubblicazione di SignatureDef
ha output che non sono probabilità o
devi fare riferimento all'operazione delle probabilità nel grafico di addestramento.
Questo scenario è improbabile per i modelli Keras. In questo caso, puoi utilizzare
TensorBoard (o altri strumenti di visualizzazione dei grafici) per individuare
i nomi dei tensori di output corretti.
Considerazioni aggiuntive per i gradienti integrati
AI Explanations offre due metodi di attribuzione delle funzionalità: valori di Shapley e gradienti integrati. Il metodo dei gradienti integrati richiede assicurati che gli input siano differenziabili rispetto all'output, in modo da devi tenerlo a mente durante la preparazione dei metadati della spiegazione. Non devi assicurarti che gli input siano differenziabili se utilizzi il modello Metodo di attribuzione delle caratteristiche di Shapley. Scopri di più sulle metodi di attribuzione delle caratteristiche supportato in AI Explanations.
I metadati della spiegazione separano logicamente le caratteristiche di un modello dai relativi input. Quando utilizzi i gradienti integrati con un tensore di input non differenziabile rispetto al tensore di output, devi fornire anche la versione codificata (e differenziabile) della funzionalità.
Utilizza il seguente approccio se hai tensori di input non differenziabili o se hai operazioni non differenziabili nel grafico:
- Codifica gli input non differenziabili come input differenziabili.
- Imposta
input_tensor_name
sul nome del tensore di input originale non differenziabile e impostaencoded_tensor_name
sul nome della relativa versione codificata e differenziabile.
File di metadati della spiegazione con codifica
Ad esempio, considera un modello che ha una caratteristica categorica con un input
tensore denominato zip_codes:0
. Poiché i dati di input includono codici postali
stringhe, il tensore di input zip_codes:0
non è differenziabile. Se il modello pre-elabora anche questi dati per ottenere una rappresentazione con codifica one-hot dei codici postali, il tensore di input dopo la pre-elaborazione è differenziabile. Per distinguerlo dal tensore di input originale, puoi chiamarlo zip_codes_embedding:0
.
Per utilizzare i dati di entrambi i tensori di input nella richiesta di spiegazioni, imposta i metadati inputs
come segue:
- Imposta il tasto della funzionalità di input su un nome significativo, ad esempio
zip_codes
. - Imposta
input_tensor_name
sul nome del tensore originale,zip_codes:0
. - Imposta
encoded_tensor_name
sul nome del tensore dopo la codifica one-hot,zip_codes_embedding:0
. - Imposta
encoding
sucombined_embedding
.
{
"inputs": {
"zip_codes": {
"input_tensor_name": "zip_codes:0",
"encoded_tensor_name": "zip_codes_embedding:0",
"encoding": "combined_embedding"
}
},
"outputs": {
"probabilities": {
"output_tensor_name": "dense/Softmax:0"
}
},
"framework": "tensorflow"
}
In alternativa, puoi impostare input_tensor_name
sul nome del tensore di input differenziabile codificato e omettere il tensore originale non differenziabile. Il vantaggio di fornire entrambi i tensori è che
gli attributi possono essere assegnati ai singoli valori del codice postale anziché alla sua
rappresentazione di codifica one-hot. In questo esempio, escluderai il parametro
tensore originale (zip_codes:0
) e imposta input_tensor_name
su
zip_codes_embedding:0
. Questo approccio non è consigliato perché
sarebbe difficile spiegare le attribuzioni delle caratteristiche risultanti.
Codifica
Per attivare la codifica nella richiesta di spiegazioni, specifica le impostazioni di codifica come mostrato nell'esempio precedente.
La funzionalità di codifica consente di invertire il processo dai dati codificati ai dati di input per le attribuzioni, eliminando la necessità di eseguire il post-trattamento manualmente delle attribuzioni restituite. Attualmente, AI Explanations supporta combined_embedding
,
in cui una caratteristica di lunghezza variabile viene combinata in un incorporamento. Un'operazione
esempio che corrisponde a questo combined_embedding
è
tf.nn.embedding_lookup_sparse
.
Per combined_embedding
:
Il tensore di input è codificato in un array 1D. Ad esempio:
- Ingresso:
["This", "is", "a", "test"]
- Codificata:
[0.1, 0.2, 0.3, 0.4]