Créer des métriques personnalisées avec OpenCensus

OpenCensus est un projet Open Source gratuit dont les bibliothèques sont:

  • Fournissez une assistance neutre en matière de fournisseur pour la collecte de données de métrique et de trace dans plusieurs langues.
  • Peut exporter les données collectées vers différentes applications backend, y compris Cloud Monitoring, à l'aide des exportateurs.

Bien que Cloud Monitoring fournisse une API compatible avec la définition et la collecte de métriques personnalisées, il s'agit d'une API propriétaire de bas niveau. OpenCensus fournit une API qui suit le style de la communauté des langages, ainsi qu'un exportateur qui envoie les données de métriques à Cloud Monitoring via l'API Monitoring.

OpenCensus offre également une bonne prise en charge du traçage des applications. Pour obtenir des informations générales à ce sujet, consultez la page relative au traçage dans OpenCensus. Cloud Trace recommande d'utiliser OpenCensus pour l'instrumentation de trace. Pour collecter à la fois des données de métrique et de trace provenant de vos services, vous pouvez utiliser une distribution unique des bibliothèques. Pour en savoir plus sur l'utilisation d'OpenCensus avec Cloud Trace, consultez la page Bibliothèques clientes pour Trace.

Avant de commencer

Pour utiliser Cloud Monitoring, vous devez disposer d'un projet Cloud pour lequel la facturation est activée. Si nécessaire, procédez comme suit:

  1. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  2. Assurez-vous que la facturation est activée pour votre projet Cloud. Découvrez comment vérifier si la facturation est activée sur un projet.

  3. Assurez-vous que l'API Monitoring est activée. Pour en savoir plus, consultez la page Activer l'API Monitoring.
  4. Votre application Cloud doit authentifier votre application pour laquelle les applications s'exécutent en dehors de Google Cloud. En règle générale, vous configurez l'authentification en créant un compte de service pour votre projet et en configurant une variable d'environnement.

    Pour les applications que vous exécutez sur une instance Amazon Elastic Compute Cloud (Amazon EC2), créez le compte de service du projet de connecteur AWS de l'instance.

    Pour en savoir plus sur la création d'un compte de service, consultez la page Premiers pas avec l'authentification.

Installer OpenCensus

Pour utiliser les métriques collectées par OpenCensus dans votre projet Google Cloud, vous devez mettre les bibliothèques de métriques OpenCensus et l'exportateur Stackdriver à disposition de votre application. L'exportateur Stackdriver exporte les métriques qu'OpenCensus collecte vers votre projet Google Cloud. Vous pouvez ensuite utiliser Cloud Monitoring pour créer un graphique ou surveiller ces métriques.

Go

Pour pouvoir utiliser OpenCensus, vous devez disposer de Go version 1.11 ou supérieure. Les dépendances sont gérées automatiquement à votre place.

Java

Pour Maven, ajoutez le code suivant à l'élément dependencies de votre fichier pom.xml:
<dependency>
  <groupId>io.opencensus</groupId>
  <artifactId>opencensus-api</artifactId>
  <version>${opencensus.version}</version>
</dependency>
<dependency>
  <groupId>io.opencensus</groupId>
  <artifactId>opencensus-impl</artifactId>
  <version>${opencensus.version}</version>
</dependency>
<dependency>
  <groupId>io.opencensus</groupId>
  <artifactId>opencensus-exporter-stats-stackdriver</artifactId>
  <version>${opencensus.version}</version>
</dependency>

Node.js

  1. Avant d'installer les bibliothèques principales et d'exportateurs OpenCensus, assurez-vous d'avoir préparé votre environnement pour le développement Node.js.
  2. Le moyen le plus simple d'installer OpenCensus est d'utiliser npm :
    npm install @opencensus/core
    npm install @opencensus/exporter-stackdriver
  3. Placez les instructions require indiquées ci-dessous en haut du point d'entrée ou du script principal de votre application, avant tout autre code :
const {globalStats, MeasureUnit, AggregationType} = require('@opencensus/core');
const {StackdriverStatsExporter} = require('@opencensus/exporter-stackdriver');

Python

Installez les bibliothèques principales d'OpenCensus et celles de l'exportateur Stackdriver à l'aide de la commande suivante :

pip install -r opencensus/requirements.txt

Le fichier requirements.txt se trouve dans le dépôt GitHub de ces exemples, python-docs-samples.

Écrire des métriques personnalisées avec OpenCensus

L'instrumentation de votre code pour utiliser OpenCensus pour les métriques implique trois étapes:

  1. Importez les statistiques OpenCensus et les packages d'exportateurs Stackdriver d'OpenCensus.
  2. Initialisez l'exportateur Stackdriver.
  3. Utilisez l'API OpenCensus pour instrumenter votre code.

L'exemple suivant est un programme minimal qui écrit les données de métriques à l'aide d'OpenCensus. Le programme exécute une boucle et collecte les mesures de latence. Une fois la boucle terminée, il exporte les statistiques vers Cloud Monitoring et l'arrête:

Go


// metrics_quickstart is an example of exporting a custom metric from
// OpenCensus to Stackdriver.
package main

import (
	"context"
	"fmt"
	"log"
	"time"

	"contrib.go.opencensus.io/exporter/stackdriver"
	"go.opencensus.io/stats"
	"go.opencensus.io/stats/view"
	"golang.org/x/exp/rand"
)

var (
	// The task latency in milliseconds.
	latencyMs = stats.Float64("task_latency", "The task latency in milliseconds", "ms")
)

func main() {
	ctx := context.Background()

	// Register the view. It is imperative that this step exists,
	// otherwise recorded metrics will be dropped and never exported.
	v := &view.View{
		Name:        "task_latency_distribution",
		Measure:     latencyMs,
		Description: "The distribution of the task latencies",

		// Latency in buckets:
		// [>=0ms, >=100ms, >=200ms, >=400ms, >=1s, >=2s, >=4s]
		Aggregation: view.Distribution(0, 100, 200, 400, 1000, 2000, 4000),
	}
	if err := view.Register(v); err != nil {
		log.Fatalf("Failed to register the view: %v", err)
	}

	// Enable OpenCensus exporters to export metrics
	// to Stackdriver Monitoring.
	// Exporters use Application Default Credentials to authenticate.
	// See https://developers.google.com/identity/protocols/application-default-credentials
	// for more details.
	exporter, err := stackdriver.NewExporter(stackdriver.Options{})
	if err != nil {
		log.Fatal(err)
	}
	// Flush must be called before main() exits to ensure metrics are recorded.
	defer exporter.Flush()

	if err := exporter.StartMetricsExporter(); err != nil {
		log.Fatalf("Error starting metric exporter: %v", err)
	}
	defer exporter.StopMetricsExporter()

	// Record 100 fake latency values between 0 and 5 seconds.
	for i := 0; i < 100; i++ {
		ms := float64(5*time.Second/time.Millisecond) * rand.Float64()
		fmt.Printf("Latency %d: %f\n", i, ms)
		stats.Record(ctx, latencyMs.M(ms))
		time.Sleep(1 * time.Second)
	}

	fmt.Println("Done recording metrics")
}

Java


import com.google.common.collect.Lists;
import io.opencensus.exporter.stats.stackdriver.StackdriverStatsExporter;
import io.opencensus.stats.Aggregation;
import io.opencensus.stats.BucketBoundaries;
import io.opencensus.stats.Measure.MeasureLong;
import io.opencensus.stats.Stats;
import io.opencensus.stats.StatsRecorder;
import io.opencensus.stats.View;
import io.opencensus.stats.View.Name;
import io.opencensus.stats.ViewManager;
import java.io.IOException;
import java.util.Collections;
import java.util.Random;
import java.util.concurrent.TimeUnit;

public class Quickstart {
  private static final int EXPORT_INTERVAL = 70;
  private static final MeasureLong LATENCY_MS =
      MeasureLong.create("task_latency", "The task latency in milliseconds", "ms");
  // Latency in buckets:
  // [>=0ms, >=100ms, >=200ms, >=400ms, >=1s, >=2s, >=4s]
  private static final BucketBoundaries LATENCY_BOUNDARIES =
      BucketBoundaries.create(Lists.newArrayList(0d, 100d, 200d, 400d, 1000d, 2000d, 4000d));
  private static final StatsRecorder STATS_RECORDER = Stats.getStatsRecorder();

  public static void main(String[] args) throws IOException, InterruptedException {
    // Register the view. It is imperative that this step exists,
    // otherwise recorded metrics will be dropped and never exported.
    View view =
        View.create(
            Name.create("task_latency_distribution"),
            "The distribution of the task latencies.",
            LATENCY_MS,
            Aggregation.Distribution.create(LATENCY_BOUNDARIES),
            Collections.emptyList());

    ViewManager viewManager = Stats.getViewManager();
    viewManager.registerView(view);

    // Enable OpenCensus exporters to export metrics to Stackdriver Monitoring.
    // Exporters use Application Default Credentials to authenticate.
    // See https://developers.google.com/identity/protocols/application-default-credentials
    // for more details.
    StackdriverStatsExporter.createAndRegister();

    // Record 100 fake latency values between 0 and 5 seconds.
    Random rand = new Random();
    for (int i = 0; i < 100; i++) {
      long ms = (long) (TimeUnit.MILLISECONDS.convert(5, TimeUnit.SECONDS) * rand.nextDouble());
      System.out.println(String.format("Latency %d: %d", i, ms));
      STATS_RECORDER.newMeasureMap().put(LATENCY_MS, ms).record();
    }

    // The default export interval is 60 seconds. The thread with the StackdriverStatsExporter must
    // live for at least the interval past any metrics that must be collected, or some risk being
    // lost if they are recorded after the last export.

    System.out.println(
        String.format(
            "Sleeping %d seconds before shutdown to ensure all records are flushed.",
            EXPORT_INTERVAL));
    Thread.sleep(TimeUnit.MILLISECONDS.convert(EXPORT_INTERVAL, TimeUnit.SECONDS));
  }
}

Node.js

'use strict';

const {globalStats, MeasureUnit, AggregationType} = require('@opencensus/core');
const {StackdriverStatsExporter} = require('@opencensus/exporter-stackdriver');

const EXPORT_INTERVAL = process.env.EXPORT_INTERVAL || 60;
const LATENCY_MS = globalStats.createMeasureInt64(
  'task_latency',
  MeasureUnit.MS,
  'The task latency in milliseconds'
);

// Register the view. It is imperative that this step exists,
// otherwise recorded metrics will be dropped and never exported.
const view = globalStats.createView(
  'task_latency_distribution',
  LATENCY_MS,
  AggregationType.DISTRIBUTION,
  [],
  'The distribution of the task latencies.',
  // Latency in buckets:
  // [>=0ms, >=100ms, >=200ms, >=400ms, >=1s, >=2s, >=4s]
  [0, 100, 200, 400, 1000, 2000, 4000]
);

// Then finally register the views
globalStats.registerView(view);

// Enable OpenCensus exporters to export metrics to Stackdriver Monitoring.
// Exporters use Application Default Credentials (ADCs) to authenticate.
// See https://developers.google.com/identity/protocols/application-default-credentials
// for more details.
// Expects ADCs to be provided through the environment as ${GOOGLE_APPLICATION_CREDENTIALS}
// A Stackdriver workspace is required and provided through the environment as ${GOOGLE_PROJECT_ID}
const projectId = process.env.GOOGLE_PROJECT_ID;

// GOOGLE_APPLICATION_CREDENTIALS are expected by a dependency of this code
// Not this code itself. Checking for existence here but not retaining (as not needed)
if (!projectId || !process.env.GOOGLE_APPLICATION_CREDENTIALS) {
  throw Error('Unable to proceed without a Project ID');
}

// The minimum reporting period for Stackdriver is 1 minute.
const exporter = new StackdriverStatsExporter({
  projectId: projectId,
  period: EXPORT_INTERVAL * 1000,
});

// Pass the created exporter to Stats
globalStats.registerExporter(exporter);

// Record 100 fake latency values between 0 and 5 seconds.
for (let i = 0; i < 100; i++) {
  const ms = Math.floor(Math.random() * 5);
  console.log(`Latency ${i}: ${ms}`);
  globalStats.record([
    {
      measure: LATENCY_MS,
      value: ms,
    },
  ]);
}

/**
 * The default export interval is 60 seconds. The thread with the
 * StackdriverStatsExporter must live for at least the interval past any
 * metrics that must be collected, or some risk being lost if they are recorded
 * after the last export.
 */
setTimeout(() => {
  console.log('Done recording metrics.');
  globalStats.unregisterExporter(exporter);
}, EXPORT_INTERVAL * 1000);

Python


from random import random
import time

from opencensus.ext.stackdriver import stats_exporter
from opencensus.stats import aggregation
from opencensus.stats import measure
from opencensus.stats import stats
from opencensus.stats import view

# A measure that represents task latency in ms.
LATENCY_MS = measure.MeasureFloat(
    "task_latency",
    "The task latency in milliseconds",
    "ms")

# A view of the task latency measure that aggregates measurements according to
# a histogram with predefined bucket boundaries. This aggregate is periodically
# exported to Stackdriver Monitoring.
LATENCY_VIEW = view.View(
    "task_latency_distribution",
    "The distribution of the task latencies",
    [],
    LATENCY_MS,
    # Latency in buckets: [>=0ms, >=100ms, >=200ms, >=400ms, >=1s, >=2s, >=4s]
    aggregation.DistributionAggregation(
        [100.0, 200.0, 400.0, 1000.0, 2000.0, 4000.0]))

def main():
    # Register the view. Measurements are only aggregated and exported if
    # they're associated with a registered view.
    stats.stats.view_manager.register_view(LATENCY_VIEW)

    # Create the Stackdriver stats exporter and start exporting metrics in the
    # background, once every 60 seconds by default.
    exporter = stats_exporter.new_stats_exporter()
    print('Exporting stats to project "{}"'
          .format(exporter.options.project_id))

    # Register exporter to the view manager.
    stats.stats.view_manager.register_exporter(exporter)

    # Record 100 fake latency values between 0 and 5 seconds.
    for num in range(100):
        ms = random() * 5 * 1000

        mmap = stats.stats.stats_recorder.new_measurement_map()
        mmap.measure_float_put(LATENCY_MS, ms)
        mmap.record()

        print("Fake latency recorded ({}: {})".format(num, ms))

    # Keep the thread alive long enough for the exporter to export at least
    # once.
    time.sleep(65)

if __name__ == '__main__':
    main()
Lorsque ces données de métrique sont exportées vers Cloud Monitoring, vous pouvez les utiliser comme toutes les autres données.

Le programme crée une vue OpenCensus appelée task_latency_distribution. Cette chaîne devient une partie du nom de la métrique lorsqu'elle est exportée vers Cloud Monitoring. Pour découvrir comment la view (vue) OpenCensus est réalisée en tant que descripteur de métrique Cloud Monitoring, consultez la section Récupérer des descripteurs de métrique. Vous pouvez donc utiliser le nom de la view comme chaîne de recherche lors de la sélection d'une métrique à représenter graphiquement.

Si vous avez exécuté l'exemple de programme, vous pouvez utiliser l'explorateur de métriques pour examiner vos données :
  1. Dans Google Cloud Console, accédez à la page Explorateur de métriques de Monitoring.
  2. Accéder à l'explorateur de métriques

  3. Dans la barre d'outils, sélectionnez l'onglet Explorateur.
  4. Accédez à l'onglet Configuration.
  5. Développez le menu Sélectionner une métrique, saisissez OpenCensus/task_latency_distribution dans la barre de filtre, puis utilisez les sous-menus pour sélectionner un type de ressource et une métrique spécifiques :
    1. Dans le menu Ressources actives, sélectionnez la ressource surveillée. Si vous exécutez le programme dans un environnement local, sélectionnez Global.
    2. Dans le menu Catégories de métriques actives, sélectionnez Personnalisées.
    3. Dans le menu Métriques actives, sélectionnez Répartition de la latence des tâches.
    4. Cliquez sur Appliquer.
  6. Facultatif : pour configurer l'affichage des données, ajoutez des filtres et utilisez les menus Grouper par, Agrégateur et type de graphique. Pour ce graphique, développez le menu Graphique en courbes, puis sélectionnez Graphique de carte de densité. Pour plus d'informations, consultez Sélectionner des métriques lors de l'utilisation de l'explorateur de métriques.
  7. Facultatif : modifiez les paramètres du graphique :
    • Pour le quota et les autres métriques qui indiquent un échantillon par jour, définissez la période sur au moins une semaine et définissez le type de tracé sur Graphique à barres empilées.
    • Pour les métriques à valeur de distribution, définissez le type de tracé sur Graphique de carte de densité.

La capture d'écran suivante montre la série temporelle collectée après l'exécution du programme sur un environnement local:

Métriques d&#39;OpenCensus dans Cloud Monitoring.

Chaque barre de la carte de densité représente une seule exécution du programme. Les composants colorés de chaque barre représentent les buckets de la répartition de la latence.

Lire les métriques OpenCensus dans Cloud Monitoring

Vous utilisez des métriques personnalisées, y compris celles qui sont écrites par OpenCensus, telles que les métriques intégrées. Vous pouvez les représenter sous forme de graphique, définir des alertes, les lire et les surveiller.

Cette section explique comment utiliser APIs Explorer pour lire les données de métriques. Pour savoir comment lire les données de métriques à l'aide de l'API Cloud Monitoring ou en utilisant des bibliothèques clientes, consultez les documents suivants:

  • Parcourir les métriques explique comment répertorier et examiner vos métriques personnalisées et intégrées.
  • Lire les métriques explique comment récupérer des données de séries temporelles à partir de métriques personnalisées et intégrées à l'aide de l'API Monitoring.

Par exemple, la capture d'écran de la section précédente provient de l'explorateur de métriques. Lorsque vous utilisez des outils de création de graphiques, nous vous recommandons d'utiliser le nom de la vue OpenCensus pour filtrer la liste des métriques. Pour plus d'informations, consultez Sélectionner des métriques lors de l'utilisation de l'explorateur de métriques.

Récupérer les descripteurs de métriques

Pour récupérer les données de métriques en utilisant directement l'API Monitoring, vous devez connaître les noms Cloud Monitoring vers lesquels les métriques OpenCensus ont été exportées. Pour déterminer ces noms, récupérez les descripteurs de métriques créés par l'exportateur, puis examinez le champ type. Pour en savoir plus sur les descripteurs de métrique, consultez la page MetricDescriptor.

Pour afficher les descripteurs de métriques créés pour les métriques exportées, procédez comme suit:

  1. Accédez à la page de référence sur metricDescriptors.list.
  2. Dans le widget Essayer cette API de la page de référence, renseignez les champs suivants:

    1. Saisissez le nom de votre projet dans le champ name. Utilisez la structure de noms suivante : projects/PROJECT_ID. Ce document utilise un projet portant l'ID a-gcp-project.

    2. Saisissez un filtre dans le champ filter. Un projet comporte de nombreux descripteurs de métriques. Le filtrage vous permet d'éliminer les descripteurs qui ne vous intéressent pas.

      Par exemple, comme le nom de la vue OpenCensus fait partie du nom de la métrique, vous pouvez ajouter un filtre de ce type:

      metric.type=has_substring("task_latency_distribution")

      La clé metric.type est un champ de type intégré dans une série temporelle. Pour en savoir plus, consultez la page TimeSeries.

    3. Cliquez sur Exécuter.

Les lignes suivantes affichent le descripteur de métrique renvoyé :

    {
      "metricDescriptors": [
        {
          "name": "projects/a-gcp-project/metricDescriptors/custom.googleapis.com/opencensus/task_latency_distribution",
          "labels": [
            {
              "key": "opencensus_task",
              "description": "Opencensus task identifier"
            }
          ],
          "metricKind": "CUMULATIVE",
          "valueType": "DISTRIBUTION",
          "unit": "ms",
          "description": "The distribution of the task latencies",
          "displayName": "OpenCensus/task_latency_distribution",
          "type": "custom.googleapis.com/opencensus/task_latency_distribution"
        }
      ]
    }

Cette ligne du descripteur de métrique indique le nom du type de métrique dans Cloud Monitoring :

    "type": "custom.googleapis.com/opencensus/task_latency_distribution"

Vous disposez maintenant des informations nécessaires pour récupérer manuellement les données associées au type de métrique. La valeur du champ type s'affiche également dans Google Cloud Console lorsque vous graphiquez la métrique.

Récupérer les données de métriques

Pour récupérer manuellement les données de séries temporelles à partir d'un type de métrique, procédez comme suit:

  1. Accédez à la page de référence timeSeries.list.
  2. Dans le widget Essayer cette API de la page de référence, renseignez les champs suivants:

    1. Saisissez le nom de votre projet dans le champ name. Utilisez la structure de noms suivante : projects/PROJECT_ID.
    2. Dans le champ filter, saisissez la valeur suivante :

      metric.type="custom.googleapis.com/opencensus/task_latency_distribution"

    3. Saisissez les valeurs dans les champs interval.startTime et interval.endTime. Ces valeurs doivent être saisies sous forme d'horodatage (par exemple, 2018-10-11T15:48:38-04:00). Assurez-vous que la valeur startTime est antérieure à la valeur endTime.

    4. Cliquez sur le bouton Execute (Exécuter).

Les lignes suivantes affichent le résultat d'une récupération de ce type :

    {
      "timeSeries": [
        {
          "metric": {
            "labels": {
              "opencensus_task": "java-3424@docbuild"
            },
            "type": "custom.googleapis.com/opencensus/task_latency_distribution"
          },
          "resource": {
            "type": "gce_instance",
            "labels": {
              "instance_id": "2455918024984027105",
              "zone": "us-east1-b",
              "project_id": "a-gcp-project"
            }
          },
          "metricKind": "CUMULATIVE",
          "valueType": "DISTRIBUTION",
          "points": [
            {
              "interval": {
                "startTime": "2019-04-04T17:49:34.163Z",
                "endTime": "2019-04-04T17:50:42.917Z"
              },
              "value": {
                "distributionValue": {
                  "count": "100",
                  "mean": 2610.11,
                  "sumOfSquaredDeviation": 206029821.78999996,
                  "bucketOptions": {
                    "explicitBuckets": {
                      "bounds": [
                        0,
                        100,
                        200,
                        400,
                        1000,
                        2000,
                        4000
                      ]
                    }
                  },
                  "bucketCounts": [
                    "0",
                    "0",
                    "1",
                    "6",
                    "13",
                    "15",
                    "44",
                    "21"
                  ]
                }
              }
            }
          ]
        },
        [ ... data from additional program runs deleted ...]
      ]
    }

Les données de métriques renvoyées incluent les éléments suivants:

  • Informations relatives à la ressource surveillée sur laquelle les données ont été collectées OpenCensus peut détecter automatiquement les ressources surveillées gce_instance, k8s_container et aws_ec2_instance. Ces données provenaient d'un programme exécuté sur une instance de Compute  Engine. Pour en savoir plus sur l'utilisation d'autres ressources surveillées, consultez la page Définir une ressource surveillée pour l'exportateur.
  • Description du type de métrique et du type des valeurs
  • Les points de données réels collectés dans l'intervalle de temps demandé

Surveillance des métriques OpenCensus par Monitoring

L'utilisation directe de l'API Cloud Monitoring est compatible avec les métriques personnalisées. Elle est décrite dans la section Créer des métriques personnalisées à l'aide de l'API. En fait, l'exportateur OpenCensus pour Cloud Monitoring utilise cette API pour vous. Cette section fournit des informations sur la manière dont Cloud Monitoring représente les métriques écrites par OpenCensus.

Les constructions utilisées par l'API OpenCensus diffèrent de celles utilisées par Cloud Monitoring, de même que la terminologie employée. Lorsque Cloud Monitoring fait référence à des "métriques", OpenCensus fait parfois référence à des "stats" (statistiques). Par exemple, le composant OpenCensus qui envoie des données métriques à Cloud Monitoring est appelé "stats exporter for Stackdriver" (exportateur de stats pour Stackdriver).

Pour en savoir plus sur le modèle OpenCensus pour les métriques, consultez la section Métriques OpenCensus.

Les modèles de données pour les stats OpenCensus et les métriques Stackdriver Monitoring n'affichent pas une correspondance parfaite. Bon nombre des mêmes concepts existent chez chacun, mais ils ne sont pas directement interchangeables.

  • Une vue OpenCensus est semblable à MetricDescriptor dans l'API Monitoring. Elle décrit la manière de collecter et d'agréger des "measurements" individuels. Les balises sont incluses avec toutes les mesures enregistrées.

  • Un tag (balise) OpenCensus est une paire clé/valeur, Une balise OpenCensus correspond généralement à la propriété LabelDescriptor de l'API Monitoring. Les tags vous permettent de capturer des informations contextuelles que vous pouvez utiliser pour filtrer et regrouper des métriques.

  • Une measure (type de mesure) OpenCensus décrit les données métriques à enregistrer. Une aggregation (agrégation) OpenCensus est une fonction appliquée aux données utilisées pour les résumer. Ces fonctions sont utilisées pour l'exportation afin de déterminer le MetricKind, le ValueType et l'unité indiqués dans le descripteur de métrique Cloud Monitoring.

  • Une mesure OpenCensus est un point de données collecté. Les measurements doivent être agrégées dans des views. Sinon, les measurements individuels sont supprimés. Une mesure OpenCensus est semblable à un Point dans l'API Monitoring. Lorsque les measurements sont agrégés dans des views, les données agrégées sont stockées en tant que view data (données de vue), à la manière d'une ressource TimeSeries dans l'API Monitoring.

Étapes suivantes