Para fins de registo, use o SDK Vertex AI para Python.
Métricas e parâmetros suportados:
- métricas de resumo
- métricas de intervalos temporais
- parâmetros
- métricas de classificação
SDK Vertex AI para Python
Nota: quando o parâmetro resume
opcional é especificado como TRUE
,
a execução iniciada anteriormente é retomada. Quando não é especificado, resume
é predefinido como
FALSE
e é criada uma nova execução.
O exemplo seguinte usa o método
init
da aiplatform.functions.
Métricas de resumo
As métricas de resumo são métricas escalares de valor único armazenadas junto às métricas de séries cronológicas e representam um resumo final de uma execução de experiência.
Um exemplo de utilização é a paragem antecipada, em que uma configuração de paciência permite
a continuação da preparação, mas o modelo candidato é restaurado a partir de um passo anterior
e as métricas calculadas para o modelo nesse passo seriam representadas como
uma métrica de resumo, porque a métrica de série cronológica mais recente não é representativa
do modelo restaurado. A API log_metrics
para métricas de resumo é usada para este fim.
Python
experiment_name
: indique um nome para a sua experiência. Pode encontrar a sua lista de experiências na Google Cloud consola selecionando Experiências na navegação da secção.run_name
: especifique um nome de execução (consultestart_run
).metric
: pares de chave-valor de métricas. Por exemplo:{'learning_rate': 0.1}
project
: . Pode encontrá-los na página de Google Cloud boas-vindas da consola.location
: consulte a lista de localizações disponíveis
Métricas de intervalos temporais
Para registar métricas de séries cronológicas, o Vertex AI Experiments requer uma instância do Vertex AI TensorBoard de apoio.
Atribua um recurso do Vertex AI TensorBoard para o registo de métricas de séries cronológicas.
Todas as métricas registadas através de
log_time_series_metrics
são armazenadas como
métricas de séries cronológicas.
O Vertex AI TensorBoard é o arquivo de métricas de séries cronológicas subjacente.
O experiment_tensorboard
pode ser definido ao nível da experiência e da execução da experiência. A definição
do experiment_tensorboard
ao nível da execução
substitui a definição ao nível da experiência. Depois de definir o experiment_tensorboard
numa execução, não é possível alterar o experiment_tensorboard
da execução.
- Defina
experiment_tensorboard
ao nível da experiência:aiplatform.
init
(experiment='my-experiment', experiment_tensorboard='projects/.../tensorboard/my-tb-resource') - Defina
experiment_tensorboard
ao nível da execução: Nota: substitui a definição ao nível da experiência.aiplatform.
start_run
(run_name='my-other-run', tensorboard='projects/.../.../other-resource') aiplatform.log_time_series_metrics(...)
Python
experiment_name
: indique o nome da sua experiência. Pode encontrar a sua lista de experiências na Google Cloud consola selecionando Experiências na navegação da secção.run_name
: especifique um nome de execução (consultestart_run
).metrics
: dicionário em que as chaves são nomes de métricas e os valores são valores de métricas.step
: opcional. Índice de passos deste ponto de dados na execução.wall_time
: opcional. Data/hora do relógio quando este ponto de dados é gerado pelo utilizador final. Se não for fornecido,wall_time
é gerado com base no valor de time.time()project
: . Pode encontrá-los na página de Google Cloud boas-vindas da consola.location
: consulte a lista de localizações disponíveis
Passo e tempo total
A API log_time_series_metrics
aceita opcionalmente step
e walltime
.
step
: opcional. Índice de passos deste ponto de dados na execução. Se não for indicado, é usado um incremento sobre o passo mais recente entre todas as métricas de séries cronológicas já registadas. Se o passo existir para qualquer uma das chaves de métricas fornecidas, o passo é substituído.wall_time
: opcional. Os segundos após epoch da métrica registada. Se não for fornecido, a predefinição é otime.time
do Python.
Por exemplo:
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00})
Registar um passo específico
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00}, step=8)
Incluir wall_time
aiplatform.log_time_series_metrics({"mse": 2500.00, "rmse": 50.00}, step=10)
Parâmetros
Os parâmetros são valores de entrada com chave que configuram uma execução, regulam o comportamento da execução e afetam os resultados da execução. Os exemplos incluem a taxa de aprendizagem, a taxa de abandono e o número de passos de preparação. Registe parâmetros através do método log_params.
Python
aiplatform.log_params({"learning_rate": 0.01, "n_estimators": 10})
experiment_name
: indique um nome para a sua experiência. Pode encontrar a sua lista de experiências na Google Cloud consola selecionando Experiências na navegação da secção.run_name
: especifique um nome de execução (consultestart_run
).params
: pares de chaves-valores de parâmetros Por exemplo:{'accuracy': 0.9}
(consultelog_params
). Página welcome.location
: consulte a lista de localizações disponíveis
Métricas de classificação
Além das métricas de resumo e das métricas de séries temporais, as matrizes de confusão e as curvas ROC são métricas usadas frequentemente. Podem ser registados em experiências do Vertex AI através da API
log_classification_metrics
.
Python
experiment_name
: indique um nome para a sua experiência. Pode encontrar a sua lista de experiências na Google Cloud consola selecionando Experiências na navegação da secção.run_name
: especifique um nome de execução (consultestart_run
).project
: . Pode encontrá-los na página de Google Cloud boas-vindas da consola.location
: consulte a lista de localizações disponíveis.labels
: lista de nomes de etiquetas para a matriz de confusão. Tem de ser definido se "matrix" estiver definido.matrix
: valores para a matriz de confusão. Tem de ser definido se "labels" estiver definido.fpr
: lista de taxas de falsos positivos para a curva ROC. Tem de ser definido se "tpr" ou "thresholds" estiver definido.tpr
: lista de taxas de verdadeiros positivos para a curva ROC. Tem de ser definido se "fpr" ou "thresholds" estiver definido.threshold
: lista de limites para a curva ROC. Tem de ser definido se "fpr" ou "tpr" estiver definido.display_name
: o nome definido pelo utilizador para o artefacto de métrica de classificação.
Veja a lista de execuções de experiências na Google Cloud consola
- Na Google Cloud consola, aceda à página Experiências.
Aceda a Experiências
É apresentada uma lista de experiências. - Selecione a experiência que quer verificar.
É apresentada uma lista de execuções.
Para mais detalhes, consulte Compare e analise execuções.