public static final class Explanation.Builder extends GeneratedMessageV3.Builder<Explanation.Builder> implements ExplanationOrBuilder
Spiegazione di una previsione (fornita in PredictResponse.predictions) prodotta dal modello su una determinata istanza.
Tipo di protobuf google.cloud.vertexai.v1.Explanation
Ereditarietà
Object > AbstractMessageLite.Builder<MessageType,BuilderType> > AbstractMessage.Builder<BuilderType> > GeneratedMessageV3.Builder > Explanation.BuilderImplementa
ExplanationOrBuilderMetodi statici
getDescriptor()
public static final Descriptors.Descriptor getDescriptor()
Restituisce | |
---|---|
Tipo | Description |
Descriptor |
Metodi
addAllAttributions(Iterable<? extends Attribution> values)
public Explanation.Builder addAllAttributions(Iterable<? extends Attribution> values)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
values |
Iterable<? extends com.google.cloud.vertexai.api.Attribution> |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addAllNeighbors(Iterable<? extends Neighbor> values)
public Explanation.Builder addAllNeighbors(Iterable<? extends Neighbor> values)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
values |
Iterable<? extends com.google.cloud.vertexai.api.Neighbor> |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addAttributions(Attribution value)
public Explanation.Builder addAttributions(Attribution value)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
value |
Attribution |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addAttributions(Attribution.Builder builderForValue)
public Explanation.Builder addAttributions(Attribution.Builder builderForValue)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
builderForValue |
Attribution.Builder |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addAttributions(int index, Attribution value)
public Explanation.Builder addAttributions(int index, Attribution value)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
value |
Attribution |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addAttributions(int index, Attribution.Builder builderForValue)
public Explanation.Builder addAttributions(int index, Attribution.Builder builderForValue)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
builderForValue |
Attribution.Builder |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addAttributionsBuilder()
public Attribution.Builder addAttributionsBuilder()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
Attribution.Builder |
addAttributionsBuilder(int index)
public Attribution.Builder addAttributionsBuilder(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Attribution.Builder |
addNeighbors(Neighbor value)
public Explanation.Builder addNeighbors(Neighbor value)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
value |
Neighbor |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addNeighbors(Neighbor.Builder builderForValue)
public Explanation.Builder addNeighbors(Neighbor.Builder builderForValue)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
builderForValue |
Neighbor.Builder |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addNeighbors(int index, Neighbor value)
public Explanation.Builder addNeighbors(int index, Neighbor value)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
value |
Neighbor |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addNeighbors(int index, Neighbor.Builder builderForValue)
public Explanation.Builder addNeighbors(int index, Neighbor.Builder builderForValue)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
builderForValue |
Neighbor.Builder |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
addNeighborsBuilder()
public Neighbor.Builder addNeighborsBuilder()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
Neighbor.Builder |
addNeighborsBuilder(int index)
public Neighbor.Builder addNeighborsBuilder(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Neighbor.Builder |
addRepeatedField(Descriptors.FieldDescriptor field, Object value)
public Explanation.Builder addRepeatedField(Descriptors.FieldDescriptor field, Object value)
Parametri | |
---|---|
Nome | Description |
field |
FieldDescriptor |
value |
Object |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
build()
public Explanation build()
Restituisce | |
---|---|
Tipo | Description |
Explanation |
buildPartial()
public Explanation buildPartial()
Restituisce | |
---|---|
Tipo | Description |
Explanation |
Clear()
public Explanation.Builder clear()
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
clearAttributions()
public Explanation.Builder clearAttributions()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
clearField(Descriptors.FieldDescriptor field)
public Explanation.Builder clearField(Descriptors.FieldDescriptor field)
Parametro | |
---|---|
Nome | Description |
field |
FieldDescriptor |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
clearNeighbors()
public Explanation.Builder clearNeighbors()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
clearOneof(Descriptors.OneofDescriptor oneof)
public Explanation.Builder clearOneof(Descriptors.OneofDescriptor oneof)
Parametro | |
---|---|
Nome | Description |
oneof |
OneofDescriptor |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
clone()
public Explanation.Builder clone()
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
getAttributions(int index)
public Attribution getAttributions(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Attribution |
getAttributionsBuilder(int index)
public Attribution.Builder getAttributionsBuilder(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Attribution.Builder |
getAttributionsBuilderList()
public List<Attribution.Builder> getAttributionsBuilderList()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<Builder> |
getAttributionsCount()
public int getAttributionsCount()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
int |
getAttributionsList()
public List<Attribution> getAttributionsList()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<Attribution> |
getAttributionsOrBuilder(int index)
public AttributionOrBuilder getAttributionsOrBuilder(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
AttributionOrBuilder |
getAttributionsOrBuilderList()
public List<? extends AttributionOrBuilder> getAttributionsOrBuilderList()
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<? extends com.google.cloud.vertexai.api.AttributionOrBuilder> |
getDefaultInstanceForType()
public Explanation getDefaultInstanceForType()
Restituisce | |
---|---|
Tipo | Description |
Explanation |
getDescriptorForType()
public Descriptors.Descriptor getDescriptorForType()
Restituisce | |
---|---|
Tipo | Description |
Descriptor |
getNeighbors(int index)
public Neighbor getNeighbors(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Neighbor |
getNeighborsBuilder(int index)
public Neighbor.Builder getNeighborsBuilder(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Neighbor.Builder |
getNeighborsBuilderList()
public List<Neighbor.Builder> getNeighborsBuilderList()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<Builder> |
getNeighborsCount()
public int getNeighborsCount()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
int |
getNeighborsList()
public List<Neighbor> getNeighborsList()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<Neighbor> |
getNeighborsOrBuilder(int index)
public NeighborOrBuilder getNeighborsOrBuilder(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
NeighborOrBuilder |
getNeighborsOrBuilderList()
public List<? extends NeighborOrBuilder> getNeighborsOrBuilderList()
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Restituisce | |
---|---|
Tipo | Description |
List<? extends com.google.cloud.vertexai.api.NeighborOrBuilder> |
internalGetFieldAccessorTable()
protected GeneratedMessageV3.FieldAccessorTable internalGetFieldAccessorTable()
Restituisce | |
---|---|
Tipo | Description |
FieldAccessorTable |
isInitialized()
public final boolean isInitialized()
Restituisce | |
---|---|
Tipo | Description |
boolean |
mergeFrom(Explanation other)
public Explanation.Builder mergeFrom(Explanation other)
Parametro | |
---|---|
Nome | Description |
other |
Explanation |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
mergeFrom(CodedInputStream input, ExtensionRegistryLite extensionRegistry)
public Explanation.Builder mergeFrom(CodedInputStream input, ExtensionRegistryLite extensionRegistry)
Parametri | |
---|---|
Nome | Description |
input |
CodedInputStream |
extensionRegistry |
ExtensionRegistryLite |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
Eccezioni | |
---|---|
Tipo | Description |
IOException |
mergeFrom(Message other)
public Explanation.Builder mergeFrom(Message other)
Parametro | |
---|---|
Nome | Description |
other |
Message |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
mergeUnknownFields(UnknownFieldSet unknownFields)
public final Explanation.Builder mergeUnknownFields(UnknownFieldSet unknownFields)
Parametro | |
---|---|
Nome | Description |
unknownFields |
UnknownFieldSet |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
removeAttributions(int index)
public Explanation.Builder removeAttributions(int index)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
removeNeighbors(int index)
public Explanation.Builder removeNeighbors(int index)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametro | |
---|---|
Nome | Description |
index |
int |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setAttributions(int index, Attribution value)
public Explanation.Builder setAttributions(int index, Attribution value)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
value |
Attribution |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setAttributions(int index, Attribution.Builder builderForValue)
public Explanation.Builder setAttributions(int index, Attribution.Builder builderForValue)
Solo output. Attribuzioni delle caratteristiche raggruppate per output previsti.
Per i modelli che prevedono un solo output, ad esempio i modelli di regressione che prevedono un solo punteggio, esiste un solo attributo che spiega l'output previsto. Per i modelli che prevedono più output, ad esempio i modelli multiclasse che prevedono più classi, ogni elemento spiega un elemento specifico. Attribution.output_index può essere utilizzato per identificare l'output che viene spiegato da questa attribuzione.
Per impostazione predefinita, forniamo i valori di Shapley per la classe prevista. Tuttavia,
puoi configurare la richiesta di spiegazione per generare valori di Shapley
anche per qualsiasi altra classe. Ad esempio, se un modello prevede una probabilità di 0.4
per l'approvazione di una richiesta di prestito, la decisione del modello è di rifiutare la richiesta dal giorno p(reject) = 0.6 > p(approve) = 0.4
e i valori predefiniti di Shapley verranno calcolati per la decisione di rifiuto e non per l'approvazione, anche se quest'ultima potrebbe essere la classe positiva.
Se gli utenti impostano ExplanationParameters.top_k, le attribuzioni vengono ordinate per instance_output_value in ordine decrescente. Se ExplanationParameters.output_indices è specificato, le attribuzioni vengono archiviate da Attribution.output_index nello stesso ordine in cui vengono visualizzate in output_indices.
repeated .google.cloud.vertexai.v1.Attribution attributions = 1 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
builderForValue |
Attribution.Builder |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setField(Descriptors.FieldDescriptor field, Object value)
public Explanation.Builder setField(Descriptors.FieldDescriptor field, Object value)
Parametri | |
---|---|
Nome | Description |
field |
FieldDescriptor |
value |
Object |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setNeighbors(int index, Neighbor value)
public Explanation.Builder setNeighbors(int index, Neighbor value)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
value |
Neighbor |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setNeighbors(int index, Neighbor.Builder builderForValue)
public Explanation.Builder setNeighbors(int index, Neighbor.Builder builderForValue)
Solo output. Elenco dei vicini più prossimi per spiegazioni basate su esempi.
Per i modelli di cui è stato eseguito il deployment con la funzionalità di spiegazione degli esempi attivata, il campo delle attribuzioni è vuoto e viene invece compilato il campo dei vicini.
repeated .google.cloud.vertexai.v1.Neighbor neighbors = 2 [(.google.api.field_behavior) = OUTPUT_ONLY];
Parametri | |
---|---|
Nome | Description |
index |
int |
builderForValue |
Neighbor.Builder |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setRepeatedField(Descriptors.FieldDescriptor field, int index, Object value)
public Explanation.Builder setRepeatedField(Descriptors.FieldDescriptor field, int index, Object value)
Parametri | |
---|---|
Nome | Description |
field |
FieldDescriptor |
index |
int |
value |
Object |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |
setUnknownFields(UnknownFieldSet unknownFields)
public final Explanation.Builder setUnknownFields(UnknownFieldSet unknownFields)
Parametro | |
---|---|
Nome | Description |
unknownFields |
UnknownFieldSet |
Restituisce | |
---|---|
Tipo | Description |
Explanation.Builder |