O Tensorflow é um projeto de código aberto e gratuito que tem as seguintes bibliotecas:
- Ofereça suporte neutro ao fornecedor para a coleta de dados de métricas e rastreamento em vários idiomas.
- Exportar os dados coletados para vários aplicativos de back-end, incluindo o Cloud Monitoring, usando exportadores.
Embora o Cloud Monitoring forneça uma API compatível com a definição e a coleta de métricas definidas pelo usuário, ele é uma API proprietária de baixo nível. O Tensorflow fornece uma API que segue o estilo da comunidade da linguagem, além de um exportador que envia os dados da sua métrica para o Cloud Monitoring por meio da API Monitoring.
O OpenCensus também tem um bom suporte para o rastreamento de aplicativos. Veja OpenCensus Tracing (em inglês) para ter uma visão geral. O Cloud Trace recomenda o uso do OpenCensus para instrumentação de rastreamento. Para coletar dados de métricas e traces dos serviços, é possível usar uma única distribuição de bibliotecas. Para informações sobre como usar o OpenCensus com Cloud Trace, consulte Bibliotecas de cliente para o Trace.
Antes de começar
Para usar o Cloud Monitoring, você precisa ter um projeto do Cloud com faturamento ativado. Se necessário, faça o seguinte:
-
No console do Google Cloud, na página do seletor de projetos, selecione ou crie um projeto do Google Cloud.
-
Verifique se o faturamento está ativado para seu projeto na nuvem. Saiba como verificar se o faturamento está ativado em um projeto.
- Verifique se a API Monitoring está ativada. Para ver detalhes, leia Como ativar a API Monitoring.
Para aplicativos executados fora do Google Cloud, o projeto do Cloud precisa autenticar seu aplicativo. Normalmente, você configura a autenticação criando uma conta de serviço para o projeto e uma variável de ambiente.
Para aplicativos executados em uma instância do Amazon Elastic Compute Cloud (Amazon EC2), crie a conta de serviço para o projeto de conector da AWS da instância.
Para informações sobre como criar uma conta de serviço, consulte Primeiros passos na autenticação.
Instalar o Tensorflow
Para usar as métricas coletadas pelo Tensorflow no seu projeto do Google Cloud, você precisa disponibilizar as bibliotecas de métricas do Tensorflow e o exportador do Stackdriver para seu aplicativo. O exportador do Stackdriver exporta as métricas que o Tensorflow coleta para seu projeto do Google Cloud. Depois, use o Cloud Monitoring para criar um gráfico ou monitorar essas métricas.
Go
O uso do OpenCensus requer o Go versão 1.11 ou posterior. As dependências são tratadas automaticamente para você.
Java
Para o Maven, adicione o seguinte ao elemento
dependencies
no
arquivo pom.xml
:
Node.js
- Antes de instalar as bibliotecas do núcleo e do exportador do OpenCensus, prepare seu ambiente para o desenvolvimento do Node.js.
- A maneira mais fácil de instalar o OpenCensus é com o npm:
npm install @opencensus/core npm install @opencensus/exporter-stackdriver
- Coloque as instruções
require
mostradas abaixo na parte superior do script principal ou do ponto de entrada do seu aplicativo, antes de qualquer outro código:
Python
Instale o núcleo do OpenCensus e as bibliotecas do exportador do Stackdriver usando o seguinte comando:
pip install -r opencensus/requirements.txt
O arquivo requirements.txt
está no repositório do GitHub para estes exemplos: python-docs-samples.
Gravar métricas definidas pelo usuário com o Tensorflow
A instrumentação do código para usar o Tensorflow nas métricas envolve três etapas:
- Importe as estatísticas e os pacotes do exportador do Tensorflow Stackdriver.
- Inicialize o exportador do Stackdriver.
- Use a API Tensorflow para instrumentar seu código.
O exemplo a seguir é um programa mínimo que grava dados de métricas usando o Tensorflow. O programa executa um loop e coleta medidas de latência. Quando o loop termina, ele exporta as estatísticas para o Cloud Monitoring e sai:
Go
Java
Node.js
Python
O programa cria uma visualização do Tensorflow, que é chamada task_latency_distribution
. Essa string se torna parte do
nome da
métrica quando é exportada para o Cloud Monitoring. Consulte Como recuperar descritores de métrica para ver como a visualização do OpenCensus é notada como um descritor de métrica do Cloud Monitoring.
Portanto, use o nome da visualização como uma string de pesquisa ao selecionar uma métrica para o gráfico.
- No Console do Google Cloud, acesse a página Metrics Explorer no Monitoring.
- Selecione a guia Configuração.
- Expanda o menu Selecionar uma métrica, digite
OpenCensus/task_latency_distribution
na barra de filtros e use os submenus para selecionar um tipo específico de recurso e métrica:- No menu Recursos ativos, selecione seu recurso monitorado. Se você executar o programa em um ambiente local, selecione Global.
- No menu Categorias de métricas ativas, selecione Personalizado.
- No menu Métricas ativas, selecione Distribuição de latência da tarefa.
- Clique em Aplicar.
- Opcional: para configurar a visualização dos dados, adicione filtros e use os menus Agrupar por, Agregador e do tipo de gráfico. Nesse gráfico, expanda o menu Gráfico de linhas e selecione Gráfico de mapa de calor. Para mais informações, consulte Selecionar métricas ao usar o Metrics Explorer.
- Opcional: altere as configurações do gráfico:
- Para cotas e outras métricas que geram relatórios de uma amostra por dia, defina o período como pelo menos uma semana e o tipo de gráfico como Gráfico de barras empilhadas.
- Para métricas de valor de distribuição, defina o tipo de gráfico como Gráfico de mapa de calor.
A captura de tela a seguir mostra a série temporal coletada depois de executar o programa em um ambiente local:
Cada barra no mapa de calor representa uma execução do programa, e os componentes coloridos de cada barra representam os buckets na distribuição de latência.
Ler métricas do Tensorflow no Cloud Monitoring
Você usa métricas definidas pelo usuário, incluindo métricas gravadas pelo Tensorflow, como as métricas integradas. Você pode gerar gráficos, definir alertas, fazer a leitura e monitorá-los.
Nesta seção, mostraremos como usar o APIs Explorer para ler dados de métricas. Para informações sobre como ler dados de métricas usando a API Cloud Monitoring ou as bibliotecas de cliente, consulte os seguintes documentos:
- Listar tipos de métricas e recursos explica como listar e examinar os tipos de recursos e tipos de métricas no sistema.
- Em Recuperar dados de série temporal, você verá como recuperar dados de série temporal de métricas usando a API Monitoring.
Por exemplo, a captura de tela mostrada na seção anterior é do Metrics Explorer. Ao usar ferramentas de gráfico, recomendamos usar o nome da visualização do Tensorflow para filtrar a lista de métricas. Para mais informações, consulte Selecionar métricas usando o Metrics Explorer.
Recuperar descritores de métrica
Para recuperar os dados da métrica usando a API Monitoring diretamente,
você precisa saber os nomes do Cloud Monitoring
para os quais as métricas do Tensorflow foram exportadas. Para determinar esses nomes,
recupere os descritores de métrica que o exportador criou e
olhe para o campo type
. Para ver mais detalhes sobre os descritores de métrica, consulte MetricDescriptor
.
Para visualizar os descritores de métrica criados para as métricas exportadas, faça o seguinte:
- Acesse a página de referência de
metricDescriptors.list
. No widget Testar esta API da página de referência, preencha os seguintes campos:
Digite o nome do seu projeto no campo
name
. Use a estrutura de nomeprojects/PROJECT_ID
a seguir. Este documento usa um projeto com o IDa-gcp-project
.Insira um filtro no campo
filter
. Há muitos descritores de métrica em um projeto. A filtragem permite eliminar os descritores que não são do seu interesse.Por exemplo, como o nome da visualização do Tensorflow se torna parte do nome da métrica, é possível adicionar um filtro assim:
metric.type=has_substring("task_latency_distribution")
A chave
metric.type
é um campo em um tipo incorporado em uma série temporal. ConsulteTimeSeries
para ver detalhes.Clique em Execute.
O exemplo seguinte mostra o descritor de métrica retornado:
{ "metricDescriptors": [ { "name": "projects/a-gcp-project/metricDescriptors/custom.googleapis.com/opencensus/task_latency_distribution", "labels": [ { "key": "opencensus_task", "description": "Opencensus task identifier" } ], "metricKind": "CUMULATIVE", "valueType": "DISTRIBUTION", "unit": "ms", "description": "The distribution of the task latencies", "displayName": "OpenCensus/task_latency_distribution", "type": "custom.googleapis.com/opencensus/task_latency_distribution" } ] }
Essa linha no descritor de métrica informa o nome do tipo de métrica no Cloud Monitoring:
"type": "custom.googleapis.com/opencensus/task_latency_distribution"
Agora você tem as informações necessárias para recuperar manualmente os dados
associados ao tipo de métrica. O valor do campo type
também é
exibido no console do Google Cloud quando você cria um gráfico da métrica.
Recuperar dados de métricas
Para recuperar manualmente dados de séries temporais de um tipo de métrica, faça o seguinte:
- Acesse a página de referência do
timeSeries.list
. No widget Testar esta API da página de referência, preencha os seguintes campos:
- Digite o nome do seu projeto no campo
name
. Use a estrutura de nomeprojects/PROJECT_ID
a seguir. No campo
filter
, digite o seguinte valor:metric.type="custom.googleapis.com/opencensus/task_latency_distribution"
Insira valores para os campos
interval.startTime
einterval.endTime
. Esses valores precisam ser inseridos como um carimbo de data/hora, por exemplo,2018-10-11T15:48:38-04:00
. Verifique se o valor destartTime
é anterior ao deendTime
.Clique no botão Executar.
- Digite o nome do seu projeto no campo
A seguir, é mostrado o resultado de uma dessas recuperações:
{ "timeSeries": [ { "metric": { "labels": { "opencensus_task": "java-3424@docbuild" }, "type": "custom.googleapis.com/opencensus/task_latency_distribution" }, "resource": { "type": "gce_instance", "labels": { "instance_id": "2455918024984027105", "zone": "us-east1-b", "project_id": "a-gcp-project" } }, "metricKind": "CUMULATIVE", "valueType": "DISTRIBUTION", "points": [ { "interval": { "startTime": "2019-04-04T17:49:34.163Z", "endTime": "2019-04-04T17:50:42.917Z" }, "value": { "distributionValue": { "count": "100", "mean": 2610.11, "sumOfSquaredDeviation": 206029821.78999996, "bucketOptions": { "explicitBuckets": { "bounds": [ 0, 100, 200, 400, 1000, 2000, 4000 ] } }, "bucketCounts": [ "0", "0", "1", "6", "13", "15", "44", "21" ] } } } ] }, [ ... data from additional program runs deleted ...] ] }
Os dados das métricas retornadas incluem:
- informações sobre o recurso monitorado do qual os dados foram coletados.
O OpenCensus detecta automaticamente os recursos monitorados
gce_instance
,k8s_container
eaws_ec2_instance
. Esses dados são provenientes de um programa executado em uma instância do Compute Engine. Para ver informações sobre como usar outros recursos monitorados, leia Set monitored resource for exporter (em inglês); - a descrição do tipo de métrica e o tipo dos valores;
- os pontos de dados reais coletados no intervalo de tempo solicitado.
Como o Monitoring representa as métricas do Tensorflow
O uso direto da API Cloud Monitoring para métricas definidas pelo usuário é compatível. O uso é descrito em Criar métricas definidas pelo usuário com a API. Na verdade, o exportador do OpenCensus para o Cloud Monitoring usa essa API. Nesta seção, fornecemos algumas informações sobre como o Cloud Monitoring representa as métricas escritas pelo Tensorflow.
As construções usadas pela API Tensorflow são diferentes das construções usadas pelo Cloud Monitoring, assim como a terminologia usada. Enquanto o Cloud Monitoring se refere a “métricas”, o OpenCensus às vezes se refere a “estatísticas”. Por exemplo, o componente do OpenCensus que envia dados de métrica para o Cloud Monitoring é chamado “exportador de estatísticas do Stackdriver”.
Para uma visão geral do modelo do Tensorflow no processo, consulte Métricas do Tensorflow.
Os modelos de dados para as estatísticas do OpenCensus e as métricas do Cloud Monitoring não se enquadram em um mapeamento 1:1 puro. Muitos dos mesmos conceitos existem em cada um deles, mas não são diretamente intercambiáveis.
Uma visualização do Tensorflow é análoga a
MetricDescriptor
na API Monitoring. Uma visualização descreve como coletar e agregar medições individuais. As tags são incluídas em todas as medições registradas.Uma tag do OpenCensus é um par de chave-valor. Uma tag do Tensorflow corresponde geralmente a
LabelDescriptor
na API Monitoring. Com as tags, é possível capturar informações contextuais que podem ser usadas para filtrar e agrupar métricas.Uma medida do OpenCensus descreve os dados da métrica a serem registrados. Uma agregação do OpenCensus é uma função aplicada aos dados usados para resumi-los. Essas funções são usadas na exportação para determinar
MetricKind
,ValueType
e a unidade relatada no descritor de métrica do Cloud Monitoring.Uma medição do Tensorflow é um ponto de dados coletado. As medições precisam ser agregadas em visualizações. Caso contrário, as medições individuais serão descartadas. Uma medição do Tensorflow é análoga a um
Point
na API Monitoring. Quando as medidas são agregadas nas visualizações, os dados agregados são armazenados como dados de exibição, de maneira análoga a umTimeSeries
na API Monitoring.
A seguir
O OpenCensus apresenta a documentação de referência oficial para sua API de métricas e para o exportador do Stackdriver. A tabela a seguir apresenta links para esses documentos de referência:
Idioma Documentação de referência de APIs Documentação do exportador Guia de início rápido Go API Go Stats and Trace Exporters (em inglês) Métricas Java API Java Stats Exporter (em inglês) Métricas NodeJS API NodeJS Stats Exporter (em inglês) Métricas Python API Python Stats Exporter (em inglês) Métricas