Interface ExplanationOrBuilder (1.3.0)

public interface ExplanationOrBuilder extends MessageOrBuilder

Implementa

MessageOrBuilder

Metodi

getAttributions(int index)

public abstract Attribution getAttributions(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Attribution

getAttributionsCount()

public abstract int getAttributionsCount()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
int

getAttributionsList()

public abstract List<Attribution> getAttributionsList()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<Attribution>

getAttributionsOrBuilder(int index)

public abstract AttributionOrBuilder getAttributionsOrBuilder(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
AttributionOrBuilder

getAttributionsOrBuilderList()

public abstract List<? extends AttributionOrBuilder> getAttributionsOrBuilderList()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<? extends com.google.cloud.vertexai.api.AttributionOrBuilder>

getNeighbors(int index)

public abstract Neighbor getNeighbors(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Neighbor

getNeighborsCount()

public abstract int getNeighborsCount()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
int

getNeighborsList()

public abstract List<Neighbor> getNeighborsList()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<Neighbor>

getNeighborsOrBuilder(int index)

public abstract NeighborOrBuilder getNeighborsOrBuilder(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
NeighborOrBuilder

getNeighborsOrBuilderList()

public abstract List<? extends NeighborOrBuilder> getNeighborsOrBuilderList()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<? extends com.google.cloud.vertexai.api.NeighborOrBuilder>