Class Explanation.Builder (1.3.0)

public static final class Explanation.Builder extends GeneratedMessageV3.Builder<Explanation.Builder> implements ExplanationOrBuilder

Spiegazione di una previsione (fornita in PredictResponse.predictions) prodotta dal modello su una determinata istanza.

Tipo di protobuf google.cloud.vertexai.v1.Explanation

Metodi statici

getDescriptor()

public static final Descriptors.Descriptor getDescriptor()
Restituisce
Tipo Description
Descriptor

Metodi

addAllAttributions(Iterable<? extends Attribution> values)

public Explanation.Builder addAllAttributions(Iterable<? extends Attribution> values)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
values Iterable<? extends com.google.cloud.vertexai.api.Attribution>
Restituisce
Tipo Description
Explanation.Builder

addAllNeighbors(Iterable<? extends Neighbor> values)

public Explanation.Builder addAllNeighbors(Iterable<? extends Neighbor> values)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
values Iterable<? extends com.google.cloud.vertexai.api.Neighbor>
Restituisce
Tipo Description
Explanation.Builder

addAttributions(Attribution value)

public Explanation.Builder addAttributions(Attribution value)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
value Attribution
Restituisce
Tipo Description
Explanation.Builder

addAttributions(Attribution.Builder builderForValue)

public Explanation.Builder addAttributions(Attribution.Builder builderForValue)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
builderForValue Attribution.Builder
Restituisce
Tipo Description
Explanation.Builder

addAttributions(int index, Attribution value)

public Explanation.Builder addAttributions(int index, Attribution value)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
value Attribution
Restituisce
Tipo Description
Explanation.Builder

addAttributions(int index, Attribution.Builder builderForValue)

public Explanation.Builder addAttributions(int index, Attribution.Builder builderForValue)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
builderForValue Attribution.Builder
Restituisce
Tipo Description
Explanation.Builder

addAttributionsBuilder()

public Attribution.Builder addAttributionsBuilder()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
Attribution.Builder

addAttributionsBuilder(int index)

public Attribution.Builder addAttributionsBuilder(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Attribution.Builder

addNeighbors(Neighbor value)

public Explanation.Builder addNeighbors(Neighbor value)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
value Neighbor
Restituisce
Tipo Description
Explanation.Builder

addNeighbors(Neighbor.Builder builderForValue)

public Explanation.Builder addNeighbors(Neighbor.Builder builderForValue)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
builderForValue Neighbor.Builder
Restituisce
Tipo Description
Explanation.Builder

addNeighbors(int index, Neighbor value)

public Explanation.Builder addNeighbors(int index, Neighbor value)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
value Neighbor
Restituisce
Tipo Description
Explanation.Builder

addNeighbors(int index, Neighbor.Builder builderForValue)

public Explanation.Builder addNeighbors(int index, Neighbor.Builder builderForValue)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
builderForValue Neighbor.Builder
Restituisce
Tipo Description
Explanation.Builder

addNeighborsBuilder()

public Neighbor.Builder addNeighborsBuilder()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
Neighbor.Builder

addNeighborsBuilder(int index)

public Neighbor.Builder addNeighborsBuilder(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Neighbor.Builder

addRepeatedField(Descriptors.FieldDescriptor field, Object value)

public Explanation.Builder addRepeatedField(Descriptors.FieldDescriptor field, Object value)
Parametri
Nome Description
field FieldDescriptor
value Object
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

build()

public Explanation build()
Restituisce
Tipo Description
Explanation

buildPartial()

public Explanation buildPartial()
Restituisce
Tipo Description
Explanation

Clear()

public Explanation.Builder clear()
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

clearAttributions()

public Explanation.Builder clearAttributions()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
Explanation.Builder

clearField(Descriptors.FieldDescriptor field)

public Explanation.Builder clearField(Descriptors.FieldDescriptor field)
Parametro
Nome Description
field FieldDescriptor
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

clearNeighbors()

public Explanation.Builder clearNeighbors()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
Explanation.Builder

clearOneof(Descriptors.OneofDescriptor oneof)

public Explanation.Builder clearOneof(Descriptors.OneofDescriptor oneof)
Parametro
Nome Description
oneof OneofDescriptor
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

clone()

public Explanation.Builder clone()
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

getAttributions(int index)

public Attribution getAttributions(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Attribution

getAttributionsBuilder(int index)

public Attribution.Builder getAttributionsBuilder(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Attribution.Builder

getAttributionsBuilderList()

public List<Attribution.Builder> getAttributionsBuilderList()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<Builder>

getAttributionsCount()

public int getAttributionsCount()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
int

getAttributionsList()

public List<Attribution> getAttributionsList()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<Attribution>

getAttributionsOrBuilder(int index)

public AttributionOrBuilder getAttributionsOrBuilder(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
AttributionOrBuilder

getAttributionsOrBuilderList()

public List<? extends AttributionOrBuilder> getAttributionsOrBuilderList()

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<? extends com.google.cloud.vertexai.api.AttributionOrBuilder>

getDefaultInstanceForType()

public Explanation getDefaultInstanceForType()
Restituisce
Tipo Description
Explanation

getDescriptorForType()

public Descriptors.Descriptor getDescriptorForType()
Restituisce
Tipo Description
Descriptor
Sostituzioni

getNeighbors(int index)

public Neighbor getNeighbors(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Neighbor

getNeighborsBuilder(int index)

public Neighbor.Builder getNeighborsBuilder(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Neighbor.Builder

getNeighborsBuilderList()

public List<Neighbor.Builder> getNeighborsBuilderList()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<Builder>

getNeighborsCount()

public int getNeighborsCount()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
int

getNeighborsList()

public List<Neighbor> getNeighborsList()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<Neighbor>

getNeighborsOrBuilder(int index)

public NeighborOrBuilder getNeighborsOrBuilder(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
NeighborOrBuilder

getNeighborsOrBuilderList()

public List<? extends NeighborOrBuilder> getNeighborsOrBuilderList()

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Restituisce
Tipo Description
List<? extends com.google.cloud.vertexai.api.NeighborOrBuilder>

internalGetFieldAccessorTable()

protected GeneratedMessageV3.FieldAccessorTable internalGetFieldAccessorTable()
Restituisce
Tipo Description
FieldAccessorTable
Sostituzioni

isInitialized()

public final boolean isInitialized()
Restituisce
Tipo Description
boolean
Sostituzioni

mergeFrom(Explanation other)

public Explanation.Builder mergeFrom(Explanation other)
Parametro
Nome Description
other Explanation
Restituisce
Tipo Description
Explanation.Builder

mergeFrom(CodedInputStream input, ExtensionRegistryLite extensionRegistry)

public Explanation.Builder mergeFrom(CodedInputStream input, ExtensionRegistryLite extensionRegistry)
Parametri
Nome Description
input CodedInputStream
extensionRegistry ExtensionRegistryLite
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni
Eccezioni
Tipo Description
IOException

mergeFrom(Message other)

public Explanation.Builder mergeFrom(Message other)
Parametro
Nome Description
other Message
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

mergeUnknownFields(UnknownFieldSet unknownFields)

public final Explanation.Builder mergeUnknownFields(UnknownFieldSet unknownFields)
Parametro
Nome Description
unknownFields UnknownFieldSet
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

removeAttributions(int index)

public Explanation.Builder removeAttributions(int index)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Explanation.Builder

removeNeighbors(int index)

public Explanation.Builder removeNeighbors(int index)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametro
Nome Description
index int
Restituisce
Tipo Description
Explanation.Builder

setAttributions(int index, Attribution value)

public Explanation.Builder setAttributions(int index, Attribution value)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
value Attribution
Restituisce
Tipo Description
Explanation.Builder

setAttributions(int index, Attribution.Builder builderForValue)

public Explanation.Builder setAttributions(int index, Attribution.Builder builderForValue)

Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.

Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.

Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia, puoi configurare la richiesta di spiegazione per generare valori di Shapley anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4 per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4 e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.

Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.

repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
builderForValue Attribution.Builder
Restituisce
Tipo Description
Explanation.Builder

setField(Descriptors.FieldDescriptor field, Object value)

public Explanation.Builder setField(Descriptors.FieldDescriptor field, Object value)
Parametri
Nome Description
field FieldDescriptor
value Object
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

setNeighbors(int index, Neighbor value)

public Explanation.Builder setNeighbors(int index, Neighbor value)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
value Neighbor
Restituisce
Tipo Description
Explanation.Builder

setNeighbors(int index, Neighbor.Builder builderForValue)

public Explanation.Builder setNeighbors(int index, Neighbor.Builder builderForValue)

Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.

Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.

repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];

Parametri
Nome Description
index int
builderForValue Neighbor.Builder
Restituisce
Tipo Description
Explanation.Builder

setRepeatedField(Descriptors.FieldDescriptor field, int index, Object value)

public Explanation.Builder setRepeatedField(Descriptors.FieldDescriptor field, int index, Object value)
Parametri
Nome Description
field FieldDescriptor
index int
value Object
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni

setUnknownFields(UnknownFieldSet unknownFields)

public final Explanation.Builder setUnknownFields(UnknownFieldSet unknownFields)
Parametro
Nome Description
unknownFields UnknownFieldSet
Restituisce
Tipo Description
Explanation.Builder
Sostituzioni