Eseguire il logging automatico dei dati in un'esecuzione dell'esperimento

Il logging automatico è una funzionalità dell'SDK Vertex AI che esegue automaticamente registra i parametri e le metriche dalle esecuzioni di addestramento dei modelli Vertex AI Experiments. In questo modo puoi risparmiare tempo ed evitare di dover registrare manualmente questi dati. Al momento, il logging automatico supporta solo il logging dei parametri e delle metriche.

Dati di registrazione automatica

Esistono due opzioni per la registrazione automatica dei dati in Vertex AI Experiments.

  1. Consenti all'SDK Vertex AI di creare automaticamente le risorse ExperimentRun.
  2. Specifica la risorsa ExperienceRun per i parametri registrati automaticamente e le metriche da scrivere.

Creato automaticamente

L'SDK Vertex AI per Python gestisce la creazione delle risorse ExperimentRun. Le risorse ExperienceRun create automaticamente avranno un nome esecuzione nel seguente formato: {ml-framework-name}-{timestamp}-{uid}, ad esempio: "tensorflow-2023-01-04-16-09-20-86a88".

Il seguente esempio utilizza il metodo init, dalle funzioni del pacchetto aiplatform.

Python

from typing import Optional, Union

from google.cloud import aiplatform


def autologging_with_auto_run_creation_sample(
    experiment_name: str,
    project: str,
    location: str,
    experiment_tensorboard: Optional[Union[str, aiplatform.Tensorboard]] = None,
):
    aiplatform.init(
        experiment=experiment_name,
        project=project,
        location=location,
        experiment_tensorboard=experiment_tensorboard,
    )

    aiplatform.autolog()

    # Your model training code goes here

    aiplatform.autolog(disable=True)

  • experiment_name: assegna un nome all'esperimento. Puoi trovare il tuo elenco di esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.
  • experiment_tensorboard (Facoltativo) Fornisci un nome per la Vertex AI TensorBoard in esecuzione in un'istanza Compute Engine.
  • project: il tuo ID progetto. Puoi trovare questi ID progetto nella pagina di benvenuto della console Google Cloud.
  • location: consulta l'elenco delle località disponibili

Specificato dall'utente

Fornisci i tuoi nomi degli esperimenti e includi metriche e parametri da più esecuzioni di addestramento dei modelli registrate nella stessa esperimentoRun. Qualsiasi metrica del modello all'esecuzione corrente impostata chiamando aiplatform.start_run("your-run-name") fino aiplatform.end_run() ha chiamato.

Nell'esempio seguente viene utilizzato il metodo init, dalle funzioni pacchetto di aiplatform.

Python

from typing import Optional, Union

from google.cloud import aiplatform


def autologging_with_manual_run_creation_sample(
    experiment_name: str,
    run_name: str,
    project: str,
    location: str,
    experiment_tensorboard: Optional[Union[str, aiplatform.Tensorboard]] = None,
):
    aiplatform.init(
        experiment=experiment_name,
        project=project,
        location=location,
        experiment_tensorboard=experiment_tensorboard,
    )

    aiplatform.autolog()

    aiplatform.start_run(run=run_name)

    # Your model training code goes here

    aiplatform.end_run()

    aiplatform.autolog(disable=True)

  • experiment_name: indica il nome dell'esperimento.
  • run_name: specifica un nome per l'esecuzione dell'esperimento. Puoi trovare l'elenco degli esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.
  • project: il tuo ID progetto. Puoi trovare questi ID progetto nella pagina di benvenuto della console Google Cloud.
  • location: consulta l'elenco delle località disponibili
  • experiment_tensorboard: (Facoltativo) Fornisci un nome per l'istanza Vertex AI TensorBoard.

L'autolog dell'SDK Vertex AI utilizza l'autolog di MLFlow nella sua implementazione. Vengono registrate le metriche e i parametri di valutazione dei seguenti framework all'esperimentoTest quando è abilitata la registrazione automatica.

  • Fastai
  • Gluone
  • Keras
  • LightGBM
  • Fulmine PyTorch
  • Scikit-learn
  • Spark
  • Statsmodels
  • XGBoost

Visualizzare i parametri e le metriche registrati automaticamente

Utilizzare l'SDK Vertex AI per Python di confrontare le esecuzioni e ottenere esegue i dati. La console Google Cloud offre un modo semplice per confrontare queste esecuzioni.

Esempio di notebook pertinente

Blog post