public interface ExplanationOrBuilder extends MessageOrBuilder
Implementa
MessageOrBuilderMetodi
getAttributions(int index)
public abstract Attribution getAttributions(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Attribution |
getAttributionsCount()
public abstract int getAttributionsCount()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
int |
getAttributionsList()
public abstract List<Attribution> getAttributionsList()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<Attribution> |
getAttributionsOrBuilder(int index)
public abstract AttributionOrBuilder getAttributionsOrBuilder(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
AttributionOrBuilder |
getAttributionsOrBuilderList()
public abstract List<? extends AttributionOrBuilder> getAttributionsOrBuilderList()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<? extends com.google.cloud.vertexai.api.AttributionOrBuilder> |
getNeighbors(int index)
public abstract Neighbor getNeighbors(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Neighbor |
getNeighborsCount()
public abstract int getNeighborsCount()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
int |
getNeighborsList()
public abstract List<Neighbor> getNeighborsList()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<Neighbor> |
getNeighborsOrBuilder(int index)
public abstract NeighborOrBuilder getNeighborsOrBuilder(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
NeighborOrBuilder |
getNeighborsOrBuilderList()
public abstract List<? extends NeighborOrBuilder> getNeighborsOrBuilderList()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<? extends com.google.cloud.vertexai.api.NeighborOrBuilder> |