Conferir os registros encaminhados para o BigQuery

Este documento explica como encontrar entradas de registro encaminhadas de Cloud Logging para tabelas do BigQuery. Coletores do Logging dados de geração de registros de stream no BigQuery em pequenos lotes, o que permite a consulta de dados sem executar um job de carregamento. Para ajudar você a criar consultas e entender o formato da sua tabela do BigQuery, este documento também descreve o esquema do BigQuery para logs roteados.

O Cloud Logging usa API streaming legada para transmitir as entradas de registro para o BigQuery. Normalmente, as entradas de registro ficam visíveis no BigQuery em um minuto. No entanto, quando uma nova tabela é criada, pode demorar alguns minutos até que o as primeiras entradas de registro são disponibilizadas.

Antes de começar

Para uma discussão conceitual sobre coletores, consulte Visão geral dos modelos de roteamento e armazenamento: coletores.

Para instruções sobre como rotear seus registros, consulte Rotear registros para destinos compatíveis.

Para saber como os campos de entrada de registro roteados são nomeados, consulte o Esquema do BigQuery para registros roteados.

Ver registros

Para conferir os registros roteados para o BigQuery, faça o seguinte:

  1. No console do Google Cloud, acesse a página do BigQuery:

    Acessar o BigQuery Studio

    Também é possível encontrar essa página usando a barra de pesquisa.

  2. No painel Explorer, expanda o projeto e selecione um conjunto de dados.

    Você encontra as entradas de registro na guia Detalhes. Também é possível consultar a tabela para retornar os dados.

Amostras de consultas

Para saber mais sobre a sintaxe de consulta do BigQuery, acesse Referência de consulta. São especialmente úteis as funções de caractere curinga de tabela, que permitem fazer consultas em várias tabelas, e o operador de nivelamento, que permite exibir dados de campos repetidos.

Exemplo de consulta do Compute Engine

A seguinte consulta do BigQuery recupera entradas de registro de vários dias e tipos:

  • A consulta pesquisa os últimos três dias dos registros syslog e apache-access. A consulta foi feita em 23 de fevereiro de 2020 e abrange todas as entradas de registro recebidas entre 21 e 22 de fevereiro, além de entradas recebidas em 23 de fevereiro até o momento em que a consulta foi feita.

  • A consulta recupera resultados de uma única instância do Compute Engine, 1554300700000000000.

SELECT
  timestamp AS Time,
  logName as Log,
  textPayload AS Message
FROM
  (TABLE_DATE_RANGE(my_bq_dataset.syslog_,
    DATE_ADD(CURRENT_TIMESTAMP(), -2, 'DAY'), CURRENT_TIMESTAMP())),
  (TABLE_DATE_RANGE(my_bq_dataset.apache_access_,
    DATE_ADD(CURRENT_TIMESTAMP(), -2, 'DAY'), CURRENT_TIMESTAMP()))
WHERE
  resource.type == 'gce_instance'
  AND resource.labels.instance_id == '1554300700000000000'
ORDER BY time;

Veja alguns exemplos de linhas de saída:

Row | Time                    | Log                                         | Message
--- | ----------------------- | ------------------------------------------- | ----------------------------------------------------------------------------------------------------------------
 5  | 2020-02-21 03:40:14 UTC | projects/project-id/logs/syslog             | Feb 21 03:40:14 my-gce-instance collectd[24281]: uc_update: Value too old: name = 15543007601548826368/df-tmpfs/df_complex-used; value time = 1424490014.269; last cache update = 1424490014.269;
 6  | 2020-02-21 04:17:01 UTC | projects/project-id/logs/syslog             | Feb 21 04:17:01 my-gce-instance /USR/SBIN/CRON[8082]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
 7  | 2020-02-21 04:49:58 UTC | projects/project-id/logs/apache-access      | 128.61.240.66 - - [21/Feb/2020:04:49:58 +0000] "GET / HTTP/1.0" 200 536 "-" "masscan/1.0 (https://github.com/robertdavidgraham/masscan)"
 8  | 2020-02-21 05:17:01 UTC | projects/project-id/logs/syslog             | Feb 21 05:17:01 my-gce-instance /USR/SBIN/CRON[9104]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
 9  | 2020-02-21 05:30:50 UTC | projects/project-id/log/syslogapache-access | 92.254.50.61 - - [21/Feb/2020:05:30:50 +0000] "GET /tmUnblock.cgi HTTP/1.1" 400 541 "-" "-"

Exemplo de consulta do App Engine

A seguinte consulta do BigQuery recupera solicitações do App Engine que não foram bem-sucedidas no último mês:

SELECT
  timestamp AS Time,
  protoPayload.host AS Host,
  protoPayload.status AS Status,
  protoPayload.resource AS Path
FROM
  (TABLE_DATE_RANGE(my_bq_dataset.appengine_googleapis_com_request_log_,
    DATE_ADD(CURRENT_TIMESTAMP(), -1, 'MONTH'), CURRENT_TIMESTAMP()))
WHERE
  protoPayload.status != 200
ORDER BY time

Veja alguns dos resultados:

Row | Time                    | Host                                  | Status | Path
--- | ----------------------- | ------------------------------------- | ------ | ------
 6  | 2020-02-12 19:35:02 UTC | default.my-gcp-project-id.appspot.com |    404 | /foo?thud=3
 7  | 2020-02-12 19:35:21 UTC | default.my-gcp-project-id.appspot.com |    404 | /foo
 8  | 2020-02-16 20:17:19 UTC | my-gcp-project-id.appspot.com         |    404 | /favicon.ico
 9  | 2020-02-16 20:17:34 UTC | my-gcp-project-id.appspot.com         |    404 | /foo?thud=%22what???%22

Esquema do BigQuery para registros roteados

Os esquemas de tabela do BigQuery para registros encaminhados são baseados na estrutura do tipo LogEntry e no conteúdo dos payloads do registro. O Cloud Logging também aplica regras para encurtar nomes de campo de esquema do BigQuery para registros de auditoria e para determinados campos de payload estruturados. Para visualizar a tabela de esquema, selecione uma tabela com entradas de registro encaminhadas para a interface do BigQuery.

Convenções de nomenclatura de campo

Há algumas convenções de nomenclatura que se aplicam aos campos de entrada de registro ao enviar registros para o BigQuery:

  • Os nomes de campos de entrada de registro não podem ter mais de 128 caracteres.

  • Os nomes dos campos de entrada de registro podem ser compostos apenas por caracteres alfanuméricos. Todos os caracteres incompatíveis são removidos dos nomes dos campos e substituídos por caracteres sublinhados. Por exemplo, jsonPayload.foo%% seria transformado em jsonPayload.foo__.

    Os nomes dos campos de entrada de registro precisam começar com um caractere alfanumérico, mesmo após a transformação. Os sublinhados iniciais são removidos.

  • Para os campos de entrada de registro que fazem parte do tipo LogEntry, os nomes de campo correspondentes do BigQuery são iguais a eles.

  • Para qualquer campo de entrada de registro fornecido pelo usuário, os nomes de campo correspondentes do BigQuery são normalizados para letras minúsculas, mas a nomenclatura é preservada.

  • Para campos em payloads estruturados, contanto que o especificador @type não esteja presente, os nomes de campo correspondentes do BigQuery são normalizados para letras minúsculas, mas a nomenclatura é preservada.

    Para informações sobre payloads estruturados em que o especificador @type é presente, consulte Campos de payload com @type nesta página.

Os exemplos a seguir mostram como essas convenções de nomenclatura são aplicadas:

Campo de entrada de registro Mapeamento do tipo LogEntry Nome do campo do BigQuery
insertId insertId insertId
textPayload textPayload textPayload
httpRequest.status httpRequest.status httpRequest.status
httpRequest.requestMethod.GET httpRequest.requestMethod.[ABC] httpRequest.requestMethod.get
resource.labels.moduleid resource.labels.[ABC] resource.labels.moduleid
jsonPayload.MESSAGE jsonPayload.[ABC] jsonPayload.message
jsonPayload.myField.mySubfield jsonPayload.[ABC].[XYZ] jsonPayload.myfield.mysubfield

Campos de payload com @type

Nesta seção, discutimos nomes de campo especiais de esquema do BigQuery para entradas de registro com payloads que contêm o especificador @type. Isso inclui entradas de registro de auditoria roteadas para o BigQuery.

Os payloads nas entradas de registro podem conter dados estruturados. Qualquer um desses campos pode incluir um especificador de tipo opcional no seguinte formato:

@type: type.googleapis.com/[TYPE]

As regras de nomenclatura explicam por que o campo protoPayload de uma entrada de registro de auditoria pode ser mapeado para o campo do esquema do BigQuery protopayload_auditlog.

Regras de nomenclatura para @type

Os campos estruturados que têm especificadores de tipo recebem nomes de campo do BigQuery com [TYPE] anexado a eles. O valor de [TYPE] pode ser qualquer string.

As regras de nomenclatura para @type se aplicam somente ao nível superior de jsonPayload ou protoPayload. Campos aninhados são ignorados. Ao tratar campos de payload estruturados de nível superior, o Logging remove o prefixo type.googleapis.com.

Por exemplo, na tabela a seguir você verá o mapeamento de campos de payload estruturados em nível superior em nomes de campo do BigQuery:

Payload @type do payload Campo de payload Nome do campo do BigQuery
jsonPayload (nenhum) statusCode jsonPayload.statusCode
jsonPayload type.googleapis.com/abc.Xyz statusCode jsonpayload_abc_xyz.statuscode
protoPayload (nenhum) statusCode protoPayload.statuscode
protoPayload type.googleapis.com/abc.Xyz statusCode protopayload_abc_xyz.statuscode

Algumas exceções se aplicam às regras anteriores para campos com especificadores de tipo:

  • Nos registros de solicitação do App Engine, o nome do payload nos registros roteados para o BigQuery é protoPayload, embora o payload inclua um especificador de tipo.

  • O Cloud Logging aplica algumas regras especiais para encurtar os nomes de campo do esquema do BigQuery para registros de auditoria. Isso é discutido na seção Campos de registros de auditoria desta página.

Exemplo

Este exemplo mostra como os campos de payload estruturados são nomeados e usados quando recebidos pelo BigQuery.

Suponha que o payload de uma entrada de registro esteja estruturado assim:

jsonPayload: {
  @type: "type.googleapis.com/google.cloud.v1.CustomType"
    name_a: {
      sub_a: "A value"
    }
    name_b: {
      sub_b: 22
    }
  }

O mapeamento nos campos do BigQuery será o seguinte:

  • O campo estruturado de nível superior jsonPayload contém um especificador @type. O nome do BigQuery é jsonpayload_v1_customtype.

  • Os campos aninhados são tratados com as regras de nomenclatura padrão do BigQuery, já que as regras de especificador de tipo não se aplicam a campos aninhados.

Assim, são definidos os seguintes nomes do BigQuery para o payload da entrada de registro:

  jsonpayload_v1_customtype
  jsonpayload_v1_customtype._type
  jsonpayload_v1_customtype.name_b
  jsonpayload_v1_customtype.name_b.sub_b
  jsonpayload_v1_customtype.name_a
  jsonpayload_v1_customtype.name_a.sub_a

Campos de registros de auditoria

Se você não estiver trabalhando com registros de auditoria que foram roteados para o BigQuery, ignore esta seção.

Os campos de payload protoPayload.request, protoPayload.response e protoPayload.metadata do registro de auditoria têm especificadores @type, mas são tratados como dados JSON. Ou seja, seus nomes de esquema do BigQuery são os nomes dos campos com Json anexados a eles, contendo dados de string no formato JSON.

Os dois conjuntos de nomes de campo do payload do registro de auditoria estão listados na tabela a seguir:

Campo de entrada de registro Nome do campo do BigQuery
protoPayload protopayload_auditlog
protopayload.metadata protopayload_auditlog.metadataJson
protoPayload.serviceData protopayload_auditlog.servicedata_v1_bigquery
Exemplo: protopayload_auditlog.servicedata_v1_bigquery.tableInsertRequest
protoPayload.request protopayload_auditlog.requestJson
protoPayload.response protopayload_auditlog.responseJson

Observe que a convenção de nomenclatura serviceData é específica para registros de auditoria gerados pelo BigQuery e roteados do Cloud Logging para o BigQuery. Essas entradas de registro de auditoria contêm um campo serviceData que tem um especificador @type de type.googleapis.com/google.cloud.bigquery.logging.v1.auditdata.

Exemplo

Uma entrada de registro de auditoria gerada pelo BigQuery tem um campo com o seguinte nome:

protoPayload.serviceData.tableInsertRequest

Se essa entrada de registro fosse roteada para o BigQuery, como seria o campo tableInsertRequest? Antes do encurtamento do nome, o nome do campo correspondente no BigQuery seria:

protopayload_google_cloud_audit_auditlog.servicedata_google_cloud_bigquery_logging_v1_auditdata.tableInsertRequest

Depois de encurtá-lo, o mesmo campo aparece nas tabelas do BigQuery assim:

protopayload_auditlog.servicedata_v1_bigquery.tableInsertRequest

Organização da tabela

Nesta seção, você tem uma visão geral das tabelas particionadas para registros roteados para o BigQuery.

Quando você encaminha registros para um conjunto de dados do BigQuery, o Logging cria tabelas para armazenar as entradas de registro. A primeira entrada de registro recebida pelo BigQuery determina o esquema da tabela de destino do BigQuery. O BigQuery cria uma tabela com colunas baseadas nos campos da primeira entrada de registro e seus tipos. Entradas de registro subsequentes podem causar uma incompatibilidade de esquema. Para informações sobre quando elas ocorrem e como são processadas, consulte Incompatibilidades de esquema.

Há dois tipos de tabelas pelas quais o Logging organiza os dados que roteia: tabelas fragmentadas por datas e tabelas particionadas. Os dois tipos de tabela particionam os dados de registros com base nos campos timestamp de entradas de registro. No entanto, há duas diferenças principais entre os tipos de tabela, da seguinte maneira:

  • Desempenho: uma tabela particionada divide uma tabela grande em partições menores para melhorar o desempenho da consulta e, assim, controlar melhor os custos do BigQuery, reduzindo o número de bytes lidos por uma consulta.

  • Nomenclatura de tabela: os tipos de tabela usam diferentes convenções de nomenclatura, conforme discutido na seção abaixo.

Organização da tabela

As entradas de registro são fragmentadas em tabelas do BigQuery com organização e nomes baseados nos nomes de registro e carimbos de data/hora das entradas.

Os nomes das tabelas são sufixados com a data do calendário do carimbo de data/hora UTC da entrada de registro, usando o formato básico ISO 8601 (AAAAMMDD).

Na tabela a seguir, você verá exemplos de como nomes de registro e amostras de carimbos de data/hora são mapeados para nomes de tabela no BigQuery:

Nome do registro Entrada de registro timestamp1 Nome da tabela do BigQuery
(organizado por data)
Nome da tabela do BigQuery
(particionado)
syslog 2017-05-23T18:19:22.135Z syslog_20170523 syslog
apache-access 2017-01-01T00:00:00.000Z apache_access_20170101 apache_access
compute.googleapis.com/activity_log 2017-12-31T23:59:59.999Z compute_googleapis_com_activity_log_20171231 compute_googleapis_com_activity_log

1 Os carimbos de data/hora da entrada de registro são mostrados em UTC (Tempo Universal Coordenado).

Como criar tabelas particionadas

Ao criar um coletor para rotear seus registros para o BigQuery, é possível usar tabelas fragmentadas por datas ou tabelas particionadas. A seleção padrão é uma tabela fragmentada por datas:

Para instruções sobre como criar sinks, consulte os seguintes recursos:

Incompatibilidades no esquema

A primeira entrada de registro recebida pelo BigQuery determina o esquema da tabela de destino do BigQuery. O BigQuery cria uma tabela com colunas baseadas nos campos da primeira entrada de registro e seus tipos.

Uma incompatibilidade de esquema ocorre quando as entradas de registro são gravadas na tabela de destino e um dos seguintes erros ocorre:

  • Uma entrada de registro posterior altera o tipo de campo de um campo existente na tabela.

    Por exemplo, se o campo jsonPayload.user_id da entrada de registro inicial for string, essa entrada de registro gerará uma tabela com um tipo de string para esse campo. Se, posteriormente, você começar a registrar jsonPayload.user_id como um array, isso causará uma incompatibilidade de esquema.

  • Uma nova entrada de registro contém um campo que não está no esquema atual e inserir esse campo na tabela de destino excederia o Limite de colunas do BigQuery.

    A tabela de destino pode aceitar o novo campo se isso não fizer com que a coluna seja excedido.

Quando o BigQuery identifica uma incompatibilidade de esquema, ele cria uma tabela no conjunto de dados correspondente para armazenar as informações de erro. O tipo de uma tabela determina o nome dela. Para tabelas fragmentadas por data, o formato de nomenclatura é export_errors_YYYYMMDD. Para tabelas particionadas, o formato de nomenclatura é export_errors. Para mais informações, consulte Organização da tabela.

Ao encaminhar entradas de registro, o Logging envia mensagens como um lote para o BigQuery. O BigQuery usa as seguintes regras para determinar em qual tabela as entradas de registro no lote atual de mensagens são gravadas:

  • Quando ocorre uma alteração de tipo de campo, apenas as entradas de registro que causaram uma incompatibilidade de esquema são gravadas na tabela de erros. As entradas de registro no lote atual de mensagens que não causam uma incompatibilidade de esquema são gravadas na tabela de destino original.

  • Quando o limite de colunas é excedido, todas as entradas de registro no lote atual de mensagens são gravadas na tabela de erros.

Esquema da tabela de erro

A tabela de erros contém dados de LogEntry e informações sobre a incompatibilidade:

  • logEntry: contém a entrada de registro completa. No entanto, a entrada de registro convertido de JSON para string.
  • schemaErrorDetail: contém a mensagem de erro completa retornada pelo BigQuery.
  • sink: contém o caminho completo do recurso para o coletor de registros.
  • logName: extraído do LogEntry.
  • timestamp: extraído do LogEntry.
  • receiveTimestamp: extraído do LogEntry.
  • severity: extraído do LogEntry.
  • insertId: extraído do LogEntry.
  • trace: extraído do LogEntry.
  • resourceType: extraído do LogEntry.

O Logging comunica incompatibilidades de esquema ao Projeto do Google Cloud que contém o coletor de roteamento das seguintes maneiras:

  • Os proprietários do projeto recebem um e-mail. Os detalhes incluem: ID do projeto do Google Cloud, nome do coletor e destino.
  • A página "Atividade" do console do Google Cloud mostra um erro, Stackdriver Config error. Os detalhes incluem o nome do coletor e o destino e um link com um exemplo de uma entrada de registro que causou o erro.

Evitar incompatibilidades futuras de tipo de campo

Para corrigir inconsistências de tipo de campo em entradas de registro posteriores, corrija o tipo de campo para que ele corresponda ao esquema atual. Para informações sobre como corrigir um tipo de campo, consulte Altere o tipo de dados de uma coluna.

Às vezes, não é possível alterar o tipo de campo, por exemplo, para registros gerados automaticamente pelo Google Cloud serviços. Para evitar incompatibilidades de esquema quando não é possível mudar um tipo de campo, renomeie a tabela ou mude os parâmetros do coletor para que o Logging recrie a tabela em um conjunto de dados diferente. Para instruções, consulte Gerenciar coletores.

Solução de problemas

Se os registros parecerem estar ausentes no destino do coletor ou se você suspeitar que ele não está roteando registros corretamente, consulte Resolver problemas de roteamento de registros.

Preços

O Cloud Logging não cobra pelo encaminhamento de registros para um destino compatível. No entanto, o destino pode aplicar cobranças. Com exceção do bucket de registro _Required, o Cloud Logging cobra para transmitir registros em buckets de registro e para armazenamento por mais tempo do que o período de retenção padrão do bucket de registro.

O Cloud Logging não cobra pela cópia de registros, para definir escopos de registro; ou consultas emitidas pela páginas Análise de registros ou Análise de registros.

Para mais informações, consulte estes documentos: