Per la registrazione, utilizza l'SDK Vertex AI per Python.
Metriche e parametri supportati:
- metriche di riepilogo
- Metriche delle serie temporali
- parameters
- Metriche di classificazione
SDK Vertex AI per Python
Nota: quando il parametro facoltativo resume
è specificato come TRUE
,
la corsa avviata in precedenza viene ripresa. Se non specificato, il valore predefinito di resume
è FALSE
e viene creata una nuova esecuzione.
L'esempio seguente utilizza il metodo
init
delle funzioni aiplatform.
Metriche di riepilogo
Le metriche di riepilogo sono metriche scalari con un singolo valore archiviate accanto alle metriche delle serie temporali e rappresentano un riepilogo finale di un'esecuzione dell'esperimento.
Un esempio di caso d'uso è l'interruzione anticipata, in cui una configurazione di pazienza consente l'addestramento continuo, ma il modello candidato viene ripristinato da un passaggio precedente e le metriche calcolate per il modello in quel passaggio vengono rappresentate come una metrica di riepilogo perché la metrica delle serie temporali più recente non è rappresentativa del modello ripristinato. A questo scopo viene utilizzata l'API log_metrics
per le metriche di riepilogo.
Python
experiment_name
: fornisci un nome per l'esperimento. Puoi trovare il tuo elenco di esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.run_name
: specifica un nome per l'esecuzione (vedistart_run
).metric
: coppie chiave/valore delle metriche. Ad esempio:{'learning_rate': 0.1}
project
: il tuo ID progetto. Puoi trovarli nella pagina di benvenuto della console Google Cloud.location
: consulta l'elenco delle località disponibili
Metriche delle serie temporali
Per registrare le metriche delle serie temporali, Vertex AI Experiments richiede un'istanza di Vertex AI TensorBoard di supporto.
Assegna la risorsa Vertex AI TensorBoard di supporto per la registrazione delle metriche delle serie temporali.
Tutte le metriche registrate tramite
log_time_series_metrics
vengono archiviate come
metriche delle serie temporali.
Vertex AI TensorBoard è il magazzino delle metriche delle serie temporali di supporto.
experiment_tensorboard
può essere impostato sia a livello di esperimento sia di
esecuzione dell'esperimento. L'impostazione di experiment_tensorboard
a livello di esecuzione ha la precedenza sull'impostazione a livello di esperimento. Una volta impostato experiment_tensorboard
in una corsa, experiment_tensorboard
della corsa non può essere modificato.
- Imposta
experiment_tensorboard
a livello di esperimento:aiplatform.
init
(experiment='my-experiment', experiment_tensorboard='projects/.../tensorboard/my-tb-resource') - Imposta
experiment_tensorboard
a livello di esecuzione: Nota: l'impostazione viene sostituita a livello di esperimento.aiplatform.
start_run
(run_name='my-other-run', tensorboard='projects/.../.../other-resource') aiplatform.log_time_series_metrics(...)
Python
experiment_name
: fornisci il nome dell'esperimento. Puoi trovare l'elenco degli esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.run_name
: specifica un nome per l'esecuzione (vedistart_run
).metrics
: dizionario in cui le chiavi sono i nomi delle metriche e i valori sono i valori delle metriche.step
: facoltativo. Indice del passaggio di questo punto dati all'interno dell'esecuzione.wall_time
: facoltativo. Timestamp dell'ora standard quando questo punto dati viene generato dall'utente finale. Se non viene fornito,wall_time
viene generato in base al valore di time.time().project
: il tuo ID progetto. Puoi trovarli nella pagina di benvenuto della console Google Cloud.location
: consulta l'elenco delle località disponibili
Passaggio e tempo totale di esecuzione
L'API log_time_series_metrics
accetta facoltativamente step
e walltime
.
step
: facoltativo. Indice del passaggio di questo punto dati all'interno della corsa. Se non viene specificato, viene utilizzato un incremento rispetto all'ultimo passaggio tra tutte le metriche delle serie temporali già registrate. Se il passaggio esiste per una delle chiavi delle metriche fornite, viene sovrascritto.wall_time
: facoltativo. I secondi dopo l'epoca della metrica registrata. Se non viene fornito, il valore predefinito ètime.time
di Python.
Ad esempio:
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00})
Effettuare il log in un passaggio specifico
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00}, step=8)
Includi wall_time
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00}, step=10)
Parametri
I parametri sono valori di input con chiave che configurano un'esecuzione, regolano il relativo comportamento e influiscono sui risultati. Alcuni esempi sono il tasso di apprendimento, il tasso di abbandono e il numero di passaggi di addestramento. Registra i parametri utilizzando il metodo log_params.
Python
aiplatform.log_params({"learning_rate": 0.01, "n_estimators": 10})
experiment_name
: fornisci un nome per l'esperimento. Puoi trovare l'elenco degli esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.run_name
: specifica un nome per l'esecuzione (vedistart_run
).params
: coppie chiave-valore del parametro Ad esempio:{'accuracy': 0.9}
(vedilog_params
). Pagina di benvenuto.location
: consulta l'elenco delle località disponibili
Metriche di classificazione
Oltre alle metriche di riepilogo e alle metriche delle serie temporali, le matrici di confusione e le curve ROC sono metriche di uso comune. Possono essere registrati in Vertex AI Experiments utilizzando l'API
log_classification_metrics
.
Python
experiment_name
: fornisci un nome per l'esperimento. Puoi trovare l'elenco degli esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.run_name
: specifica un nome per l'esecuzione (vedistart_run
).project
: il tuo ID progetto. Puoi trovarli nella pagina di benvenuto della console Google Cloud.location
: consulta l'elenco delle località disponibili.labels
: elenco dei nomi delle etichette per la matrice di confusione. Deve essere impostato se è impostato "matrix".matrix
: valori per la matrice di confusione. Deve essere impostato se è impostato "labels".fpr
: elenco delle percentuali di falsi positivi per la curva ROC. Deve essere impostato se sono impostati "tpr" o "thresholds".tpr
: elenco delle percentuali di veri positivi per la curva ROC. Deve essere impostato se è impostato "fpr" o "thresholds".threshold
: elenco di soglie per la curva ROC. Deve essere impostato se è impostato "fpr" o "tpr".display_name
: il nome definito dall'utente per l'elemento della metrica di classificazione.
Visualizzare l'elenco delle esecuzioni dell'esperimento nella console Google Cloud
- Nella console Google Cloud, vai alla pagina Esperimenti.
Vai a Esperimenti
Viene visualizzato un elenco di esperimenti. - Seleziona l'esperimento che vuoi controllare.
Viene visualizzato un elenco di esecuzioni.
Per maggiori dettagli, vedi Confrontare e analizzare le esecuzioni.