Questa pagina mostra come valutare l'analisi del sentiment del testo AutoML per eseguire l'iterazione del modello.
Vertex AI fornisce metriche di valutazione del modello per aiutarti a determinare delle prestazioni dei tuoi modelli, come le metriche di precisione e richiamo. Vertex AI calcola le metriche di valutazione utilizzando l'insieme di test.
Come utilizzare le metriche di valutazione del modello
Le metriche di valutazione del modello forniscono misurazioni quantitative del modo in cui il modello eseguita sul set di test. L'interpretazione e l'utilizzo di queste metriche dipendono dalle esigenze aziendali e dal problema che il modello è addestrato a risolvere. Ad esempio: potresti avere una tolleranza inferiore per i falsi positivi rispetto ai falsi negativi il contrario. Questo tipo di domande determina quali metriche su cui concentrarti.
Per ulteriori informazioni sull'iterazione del modello per migliorarne le prestazioni, consulta Eseguire l'iterazione del modello.
Metriche di valutazione restituite da Vertex AI
Vertex AI restituisce diverse metriche di valutazione, come precisione, richiamo e soglie di confidenza. Le metriche che I resi di Vertex AI dipendono dall'obiettivo del modello. Ad esempio, Vertex AI fornisce metriche di valutazione diverse per un modello di classificazione di immagini rispetto a un modello di rilevamento di oggetti immagine.
Un file di schema, scaricabile da una posizione di Cloud Storage, determina quale le metriche di valutazione fornite da Vertex AI per ogni scopo. Le seguenti schede forniscono i link ai file dello schema e descrivono le metriche di valutazione per ogni scopo del modello.
Puoi visualizzare e scaricare file di schema dai seguenti file di Cloud Storage
località:
gs://google-cloud-aiplatform/schema/modelevaluation/
- Richiamo: la frazione di previsioni con questa classe che sono state previste correttamente dal modello. Chiamato anche tasso di veri positivi.
- Precisione: la frazione delle previsioni di classificazione prodotte dalla corretto.
- Punteggio F1: la media armonica di precisione e richiamo. F1 è una metrica utile per trovare un equilibrio tra precisione e richiamo qualora esista una distribuzione non uniforme delle classi.
- MAE: l'errore assoluto medio (MAE, Mean Absolute Error) è la differenza media assoluta. tra i valori target e quelli previsti. Questa metrica va da zero all'infinito; un valore più basso indica un modello di qualità migliore.
- MSE: l'errore quadratico medio (MSE) misura le differenze tra i valori previsti da un modello o un programma di stima e i valori osservati. Valori inferiori indicano modelli più accurati.
- Kappa ponderato lineare e Kappa ponderato quadratico: misurano la stretta vicinanza dei valori di sentiment assegnati dal modello ai valori assegnati dai revisori umani. Valori più alti indicano modelli più accurati.
- Matrice di confusione: A confusione mostra la frequenza con cui un modello ha previsto correttamente un risultato. Per errata dei risultati previsti, la matrice mostra invece ciò che è stato previsto dal modello. La matrice di confusione ti aiuta a capire dove il tuo modello "confonde" due risultati.
Recupero delle metriche di valutazione
Puoi ottenere un insieme aggregato di metriche di valutazione per il tuo modello e, per alcune obiettivi, metriche di valutazione per una determinata classe o etichetta. Le metriche di valutazione per una determinata classe o etichetta sono note anche come sezione di valutazione. Di seguito viene descritto come ottenere metriche di valutazione aggregata e le sezioni di valutazione mediante l'API o la console Google Cloud.
Console Google Cloud
Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Modelli.
Nel menu a discesa Regione, seleziona la regione in cui si trova il modello.
Dall'elenco dei modelli, fai clic sul tuo modello per aprire la sezione Scheda Valuta.
Nella scheda Valuta puoi visualizzare la valutazione aggregata del tuo modello. come Precisione media e Richiamo.
Se l'obiettivo del modello ha sezioni di valutazione, la console mostra un elenco etichette. Puoi fare clic su un'etichetta per visualizzare le metriche di valutazione relative all'etichetta, come mostrato nell'esempio seguente:
API
Le richieste API per ottenere le metriche di valutazione sono le stesse per ogni tipo di dati e ma gli output sono diversi. I seguenti esempi mostrano lo stesso richiesta, ma risposte diverse.
Recupero delle metriche di valutazione del modello aggregato
Le metriche di valutazione del modello aggregate forniscono informazioni sul modello nel suo insieme. Per visualizzare informazioni su una sezione specifica, elenca le sezioni di valutazione del modello.
Per visualizzare le metriche di valutazione del modello aggregate, utilizza il metodo
projects.locations.models.evaluations.get
.
Seleziona una scheda corrispondente alla tua lingua o al tuo ambiente:
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui è archiviato il modello.
- PROJECT: il tuo ID progetto.
- MODEL_ID: l'ID della risorsa del modello.
- PROJECT_NUMBER: il numero di progetto generato automaticamente per il tuo progetto.
- EVALUATION_ID: ID per la valutazione del modello (viene visualizzato nella risposta).
Metodo HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Esegui questo comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations"
PowerShell
Esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente:
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.
Per autenticarti in Vertex AI, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.
Elenco di tutte le sezioni di valutazione
Il metodo
projects.locations.models.evaluations.slices.list
elenca tutte le sezioni di valutazione per il modello. Devi disporre dell'ID valutazione del modello, che puoi ottenere quando visualizzi le metriche di valutazione aggregate.
Puoi utilizzare le sezioni di valutazione del modello per determinare le prestazioni del modello su una
un'etichetta specifica. Il campo value
indica a quale etichetta si riferiscono le metriche.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui si trova il modello. Ad esempio:
us-central1
. - PROJECT: il tuo ID progetto.
- MODEL_ID: l'ID del modello.
- EVALUATION_ID: ID della valutazione del modello che contiene la le sezioni di valutazione da elencare.
Metodo HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations/EVALUATION_ID/slices
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Esegui questo comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations/EVALUATION_ID/slices"
PowerShell
Esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations/EVALUATION_ID/slices" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente:
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Java Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta API Node.js Vertex AI documentazione di riferimento.
Per eseguire l'autenticazione su Vertex AI, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Recupero delle metriche per una singola sezione
Per visualizzare le metriche di valutazione per un singolo segmento, utilizza il metodo
projects.locations.models.evaluations.slices.get
. Devi avere l'ID sezione, che viene fornito quando elenchi tutte le sezioni
sezioni. Il seguente esempio si applica a tutti i tipi di dati e
degli obiettivi.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui si trova il modello. Ad esempio, us-central1.
- PROJECT: il tuo ID progetto.
- MODEL_ID: l'ID del modello.
- EVALUATION_ID: ID della valutazione del modello che contiene la la sezione di valutazione da recuperare.
- SLICE_ID: ID di un segmento di valutazione da ottenere.
- PROJECT_NUMBER: il numero di progetto generato automaticamente per il tuo progetto.
- EVALUATION_METRIC_SCHEMA_FILE_NAME: il nome di un file di schema
che definisce le metriche di valutazione da restituire come
classification_metrics_1.0.0
.
Metodo HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations/EVALUATION_ID/slices/SLICE_ID
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Esegui questo comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations/EVALUATION_ID/slices/SLICE_ID"
PowerShell
Esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID/evaluations/EVALUATION_ID/slices/SLICE_ID" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente:
Java
Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Vertex AI.
Per autenticarti in Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vertex AI con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.
Per autenticarti in Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Esegui l'iterazione sul modello
Le metriche di valutazione del modello forniscono un punto di partenza per il debug del modello quando non soddisfa le tue aspettative. Ad esempio, precisione e richiamo bassi di addestramento possono indicare che il modello ha bisogno di ulteriori dati di addestramento etichette incoerenti. Precisione e un richiamo perfetti possono indicare che i dati di test sono troppo facili da prevedere e potrebbero non essere generalizzati.
Puoi eseguire l'iterazione sui dati di addestramento e creare un nuovo modello. Dopo aver creato un nuovo modello, puoi confrontare le metriche di valutazione tra il modello esistente e il nuovo modello.
I seguenti suggerimenti possono aiutarti a migliorare i modelli che etichettano elementi, come come modelli di classificazione o di rilevamento:
- Valuta la possibilità di aggiungere altri esempi o una gamma più ampia di esempi alla tua formazione e i dati di Google Cloud. Ad esempio, per un modello di classificazione delle immagini, potresti includere immagini con un campo visivo più ampio, immagini con una risoluzione superiore o inferiore o punti di vista diversi. Per ulteriori indicazioni, consulta la sezione Preparazione dei dati per il tuo tipo di dati e scopo specifici.
- Valuta la possibilità di rimuovere classi o etichette che non hanno molti esempi. Esempi insufficienti impediscono al modello di fare previsioni coerenti e sicure su queste classi o etichette.
- Le macchine non possono interpretare il nome delle classi o delle etichette e non comprendono le sfumature tra loro, ad esempio "porta" e "porta_con_maniglia". Devi fornire dati per aiutare le macchine a riconoscere queste sfumature.
- Arricchisci i tuoi dati con più esempi di veri positivi e veri negativi, soprattutto esempi vicini a un confine decisionale per mitigare la confusione del modello.
- Specifica la suddivisione dei dati (addestramento, convalida e test). Vertex AI assegna elementi a ogni set in modo casuale. Pertanto, i duplicati possono essere assegnati nei set di addestramento e convalida, il che potrebbe portare all'overfitting e quindi prestazioni scadenti sul set di test. Per saperne di più su come impostare la suddivisione dei dati, consulta la sezione Informazioni sulle suddivisioni di dati per i modelli AutoML.
- Se le metriche di valutazione del modello includono una matrice di confusione, puoi vedere se il modello confonde due etichette, ovvero prevede una determinata molto di più rispetto alla vera. Esamina i dati e assicurati che gli esempi siano etichettati correttamente.
- Se il tempo di addestramento è breve (numero massimo di ore nodo ridotto), potresti ottenere un modello di qualità superiore consentendogli di essere addestrato per un periodo di tempo più lungo (numero massimo di ore nodo maggiore).