Comparer et analyser les exécutions

Vous pouvez utiliser le SDK Vertex AI pour Python pour afficher les données d'exécution de test Vertex AI et comparer les exécutions.

La console Google Cloud fournit une visualisation des données associées à ces exécutions.

Obtenir les données des exécutions de test

Ces exemples impliquent l'obtention de métriques d'exécution, de paramètres d'exécution, de métriques de séries d'exécution, d'artefacts et de métriques de classification pour une exécution de test particulière.

Métriques récapitulatives

Python

def get_experiment_run_metrics_sample(
    run_name: str,
    experiment: Union[str, aiplatform.Experiment],
    project: str,
    location: str,
) -> Dict[str, Union[float, int]]:
    experiment_run = aiplatform.ExperimentRun(
        run_name=run_name, experiment=experiment, project=project, location=location
    )

    return experiment_run.get_metrics()

  • run_name : spécifiez le nom d'exécution approprié pour cette session.
  • experiment : nom ou instance de ce test. Vous trouverez la liste de vos tests dans la console Google Cloud en sélectionnant Tests dans le menu de navigation.
  • project : l'ID de votre projet. Vous le trouverez sur la page d'accueil de la console Google Cloud.
  • location : consultez la liste des emplacements disponibles.

Paramètres

Python

def get_experiment_run_params_sample(
    run_name: str,
    experiment: Union[str, aiplatform.Experiment],
    project: str,
    location: str,
) -> Dict[str, Union[float, int, str]]:
    experiment_run = aiplatform.ExperimentRun(
        run_name=run_name, experiment=experiment, project=project, location=location
    )

    return experiment_run.get_params()

  • run_name : spécifiez le nom d'exécution approprié pour cette session.
  • experiment : nom ou instance de ce test. Vous trouverez la liste de vos tests dans la console Google Cloud en sélectionnant Tests dans le menu de navigation.
  • project : l'ID de votre projet. Vous le trouverez sur la page d'accueil de la console Google Cloud.
  • location : consultez la liste des emplacements disponibles.

Métriques de séries temporelles

Python

def get_experiment_run_time_series_metric_data_frame_sample(
    run_name: str,
    experiment: Union[str, aiplatform.Experiment],
    project: str,
    location: str,
) -> "pd.DataFrame":  # noqa: F821
    experiment_run = aiplatform.ExperimentRun(
        run_name=run_name, experiment=experiment, project=project, location=location
    )

    return experiment_run.get_time_series_data_frame()

  • run_name : spécifiez le nom d'exécution approprié pour cette session.
  • experiment : nom ou instance de ce test. Vous trouverez la liste de vos tests dans la console Google Cloud en sélectionnant Tests dans le menu de navigation.
  • project : l'ID de votre projet. Vous le trouverez sur la page d'accueil de la console Google Cloud.
  • location : consultez la liste des emplacements disponibles.

Artefacts

Python

def get_experiment_run_artifacts_sample(
    run_name: str,
    experiment: Union[str, aiplatform.Experiment],
    project: str,
    location: str,
) -> List[artifact.Artifact]:
    experiment_run = aiplatform.ExperimentRun(
        run_name=run_name,
        experiment=experiment,
        project=project,
        location=location,
    )

    return experiment_run.get_artifacts()
  • run_name : spécifiez le nom d'exécution approprié pour cette session.
  • experiment : nom ou instance de ce test. Vous trouverez la liste de vos tests dans la console Google Cloud en sélectionnant Tests dans le menu de navigation.
  • project : l'ID de votre projet. Vous le trouverez sur la page d'accueil de la console Google Cloud.
  • location : consultez la liste des emplacements disponibles.

Métriques de classification

Python

def get_experiment_run_classification_metrics_sample(
    run_name: str,
    experiment: Union[str, aiplatform.Experiment],
    project: str,
    location: str,
) -> List[Dict[str, Union[str, List]]]:
    experiment_run = aiplatform.ExperimentRun(
        run_name=run_name, experiment=experiment, project=project, location=location
    )

    return experiment_run.get_classification_metrics()

  • run_name : spécifiez le nom d'exécution approprié pour cette session.
  • experiment : nom ou instance de ce test. Vous trouverez la liste de vos tests dans la console Google Cloud en sélectionnant Tests dans le menu de navigation.
  • project : l'ID de votre projet. Vous le trouverez sur la page d'accueil de la console Google Cloud.
  • location : consultez la liste des emplacements disponibles.

Comparer les exécutions

À l'aide du SDK Vertex AI pour Python, vous pouvez récupérer les données associées à votre test. Les données pour les exécutions de test sont renvoyées dans un DataFrame.

Comparer les exécutions

Les données pour les exécutions de test sont renvoyées dans un DataFrame.

Python

def get_experiments_data_frame_sample(
    experiment: str,
    project: str,
    location: str,
):
    aiplatform.init(experiment=experiment, project=project, location=location)

    experiments_df = aiplatform.get_experiment_df()

    return experiments_df

  • experiment_name : indiquez le nom du test. Pour trouver la liste des tests dans la console Google Cloud, sélectionnez Tests dans le menu de navigation
  • project : l'ID de votre projet. Vous pouvez trouver ces ID sur la page d'accueil de la console Google Cloud.
  • location : consultez la liste des emplacements disponibles.

Console Google Cloud

Utilisez la console Google Cloud pour afficher les détails de vos exécutions de test et comparer les exécutions de test entre elles.

Afficher les données des exécutions de test

  1. Dans la console Google Cloud, accédez à la page Tests.
    <a{: class="button button-primary" l10n-attrs-original-order="href,target,class,track-name,track-type" l10n-encrypted-href="V3Ae1hvcBOij4KvUNiRrMltigmNHgUGOXn/QVSGplOhBlpxunv8WHL3F/z3VuS9rwbZOYpOQCXa+v4aZ0dt03w==" target="console" track-name="consoleLink" track-type="tasks" }="">Accédez à la page "Tests".
    La liste des tests associés à un projet s'affiche. </a{:>
  2. Sélectionnez le test contenant l'exécution que vous souhaitez vérifier.
    Une liste d'exécutions, de graphiques de données de séries temporelles, ainsi qu'une table de données de métriques et de paramètres s'affiche. Dans ce cas, remarquez que trois exécutions sont sélectionnées, mais que deux lignes seulement apparaissent dans les graphiques de données de séries temporelles. Il n'y a pas de troisième ligne, car la troisième exécution de test ne comporte aucune donnée de séries temporelles à afficher.
    Liste Vertex AI des exécutions, données de séries temporelles, et table des métriques et paramètres
  3. Cliquez sur le nom de l'exécution pour accéder à sa page d'informations.
    Navigation dans l'exécution de test Vertex AI
    La barre de navigation et les graphiques de données de séries temporelles s'affichent.
    Barre de navigation Vertex AI avec graphiques de données de séries temporelles
  4. Pour afficher les métriques, les paramètres, les artefacts et les détails de l'exécution sélectionnée, cliquez sur les boutons correspondants dans la barre de navigation.
    • Métriques
      Métriques d'exécution de test Vertex AI
    • Paramètres
      Paramètres d'exécution de test Vertex AI
    • Artefacts
      Artefacts d'exécution de test Vertex AI
      Pour afficher la traçabilité des artefacts, cliquez sur le lien Ouvrir l'artefact dans le magasin de métadonnées. Le graphique de traçabilité associé à l'exécution s'affiche.
      Graphique de traçabilité des artefacts Vertex AI
    • Détails
      Détails de l'exécution de test Vertex AI

Pour partager les données avec d'autres utilisateurs, utilisez les URL associées aux vues. Par exemple, partagez la liste des exécutions de test associées à un test :

Partage de liste des exécutions Vertex AI

Comparer les exécutions de test

Vous pouvez sélectionner des exécutions à comparer à la fois dans un test et entre plusieurs tests.

  1. Dans la console Google Cloud, accédez à la page Tests.
    <a{: class="button button-primary" l10n-attrs-original-order="href,target,class,track-name,track-type" l10n-encrypted-href="V3Ae1hvcBOij4KvUNiRrMltigmNHgUGOXn/QVSGplOhBlpxunv8WHL3F/z3VuS9rwbZOYpOQCXa+v4aZ0dt03w==" target="console" track-name="consoleLink" track-type="tasks" }="">Accédez à la page "Tests".
    La liste des tests s'affiche. </a{:>
  2. Sélectionnez le test contenant les exécutions que vous souhaitez comparer. La liste des exécutions s'affiche. Liste des exécutions Vertex AI
  3. Sélectionnez les exécutions de test que vous souhaitez comparer. Cliquez sur Comparer.
    Sélection des exécutions Vertex AI
    Par défaut, des graphiques s'affichent, comparant les métriques de séries temporelles des exécutions de test sélectionnées. Graphiques d'exécution Vertex AI
  4. Pour ajouter des exécutions supplémentaires à partir de n'importe quel test de votre projet, cliquez sur Ajouter une exécution. Ajout d'exécutions Vertex AI

Pour partager les données avec d'autres utilisateurs, utilisez les URL associées aux vues. Par exemple, partagez la vue comparative des données de métriques de séries temporelles :

Partage des données Vertex AI

Consultez la section Créer et gérer des exécutions de tests pour savoir comment mettre à jour l'état d'une exécution.

Étapes suivantes