Vista de WRITE_API_TIMELINE_BY_FOLDER

La vista INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER contiene estadísticas de transferencia de la API de BigQuery Storage Write agregadas por minuto para la carpeta superior del proyecto actual, incluidas sus subcarpetas.

Puedes consultar las vistas de la API de Write INFORMATION_SCHEMA para recuperar información histórica y en tiempo real sobre la transferencia de datos a BigQuery que usa la API de BigQuery Storage Write. Consulta la API de BigQuery Storage Write para obtener más información.

Permiso necesario

Si quieres consultar la vista INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER, necesitas el permiso bigquery.tables.list de Identity and Access Management (IAM) para la carpeta superior del proyecto.

Cada uno de los siguientes roles predefinidos de IAM incluye el permiso anterior:

  • roles/bigquery.admin
  • roles/bigquery.user
  • roles/bigquery.dataViewer
  • roles/bigquery.dataEditor
  • roles/bigquery.dataOwner
  • roles/bigquery.metadataViewer
  • roles/bigquery.resourceAdmin

Para obtener más información sobre IAM de BigQuery, consulta Control de acceso con IAM.

Esquema

Cuando consultas las vistas de la API de BigQuery Storage Write INFORMATION_SCHEMA, los resultados de la consulta contienen información histórica y en tiempo real sobre la transferencia de datos a BigQuery mediante la API de BigQuery Storage Write. Cada fila de las siguientes vistas representa estadísticas para transferir en una tabla específica, agregada durante un intervalo de un minuto a partir de start_timestamp. Las estadísticas se agrupan por tipo de transmisión y código de error, por lo que habrá una fila para cada tipo de transmisión y cada código de error encontrado durante el intervalo de un minuto para cada marca de tiempo y combinación de tablas. Las solicitudes que se realizan de forma correcta tienen el código de error establecido en OK. Si no se transfiere ningún dato en una tabla durante un período determinado, no hay filas presentes para las marcas de tiempo correspondientes de esa tabla.

Las vistas INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_* tienen el siguiente esquema:

Column name Tipo de datos Valor
start_timestamp TIMESTAMP (Columna de partición) marca de tiempo de inicio del intervalo de 1 minuto para las estadísticas agregadas.
project_id STRING (Columna de agrupamiento en clústeres) ID del proyecto.
project_number INTEGER Número del proyecto
dataset_id STRING (Columna de agrupamiento en clústeres) ID del conjunto de datos.
table_id STRING (Columna de agrupamiento en clústeres) ID de la tabla.
stream_type STRING El tipo de transmisión que se usa para la transferencia de datos con la API de BigQuery Storage Write. Se supone que debe ser "DEFAULT", "COMMITTED", "BUFFERED" o "PENDING".
error_code STRING Código de error que esta fila muestra en las solicitudes especificadas. “Aceptar” para las solicitudes exitosas.
total_requests INTEGER Cantidad total de solicitudes en el intervalo de 1 minuto.
total_rows INTEGER Cantidad total de filas de todas las solicitudes en el intervalo de 1 minuto.
total_input_bytes INTEGER Cantidad total de bytes de todas las filas en el intervalo de 1 minuto.

Retención de datos

Esta vista contiene el historial de transferencias de la API de BigQuery Storage Write de los últimos 180 días.

Permiso y sintaxis

Las consultas realizadas a esta vista deben incluir un calificador de región. Si no especificas un calificador regional, los metadatos se recuperan de todas las regiones. En la siguiente tabla, se explica el permiso de la región para esta vista:

Nombre de la vista Permiso del recurso Permiso de la región
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER Carpeta que contiene el proyecto especificado REGION
Reemplaza lo siguiente:

  • Opcional: PROJECT_ID: el ID del proyecto de Google Cloud. Si no se especifica, se usa el proyecto predeterminado.
  • REGION: Cualquier nombre de región del conjunto de datos. Por ejemplo, region-us.

Ejemplo

  • Para consultar datos en la multirregión de EE.UU., usa region-us.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER.
  • Para consultar datos en la multirregión de la UE, usa region-eu.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER.
  • Para consultar datos en la región asia-northeast1, usa region-asia-northeast1.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER.

Si deseas obtener una lista de las regiones disponibles, consulta Ubicaciones de conjuntos de datos.

Ejemplos

Ejemplo 1: Fallas recientes de transferencia de la API de BigQuery Storage Write

En el siguiente ejemplo, se calcula el desglose por minuto del total de solicitudes que fallaron para todas las tablas en la carpeta del proyecto en los últimos 30 minutos, dividido por el tipo de transmisión y el código de error:

SELECT
  start_timestamp,
  stream_type,
  error_code,
  SUM(total_requests) AS num_failed_requests
FROM
  `region-us`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
WHERE
  error_code != 'OK'
  AND start_timestamp > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 30 MINUTE)
GROUP BY
  start_timestamp,
  stream_type,
  error_code
ORDER BY
  start_timestamp DESC;

El resultado es similar al siguiente:

+---------------------+-------------+------------------+---------------------+
|   start_timestamp   | stream_type |    error_code    | num_failed_requests |
+---------------------+-------------+------------------+---------------------+
| 2023-02-24 00:25:00 | PENDING     | NOT_FOUND        |                   5 |
| 2023-02-24 00:25:00 | DEFAULT     | INVALID_ARGUMENT |                   1 |
| 2023-02-24 00:25:00 | DEFAULT     | DEADLINE_EXCEEDED|                   4 |
| 2023-02-24 00:24:00 | PENDING     | INTERNAL         |                   3 |
| 2023-02-24 00:24:00 | DEFAULT     | INVALID_ARGUMENT |                   1 |
| 2023-02-24 00:24:00 | DEFAULT     | DEADLINE_EXCEEDED|                   2 |
+---------------------+-------------+------------------+---------------------+
Ejemplo 2: Desglose por minuto para todas las solicitudes con códigos de error

En el siguiente ejemplo, se calcula un desglose por minuto de las solicitudes de agregación exitosas y fallidas en la carpeta del proyecto, dividido en categorías de código de error. Esta consulta se podría usar para propagar un panel.

SELECT
  start_timestamp,
  SUM(total_requests) AS total_requests,
  SUM(total_rows) AS total_rows,
  SUM(total_input_bytes) AS total_input_bytes,
  SUM(
    IF(
      error_code IN (
        'INVALID_ARGUMENT', 'NOT_FOUND', 'CANCELLED', 'RESOURCE_EXHAUSTED',
        'ALREADY_EXISTS', 'PERMISSION_DENIED', 'UNAUTHENTICATED',
        'FAILED_PRECONDITION', 'OUT_OF_RANGE'),
      total_requests,
      0)) AS user_error,
  SUM(
    IF(
      error_code IN (
        'DEADLINE_EXCEEDED','ABORTED', 'INTERNAL', 'UNAVAILABLE',
        'DATA_LOSS', 'UNKNOWN'),
      total_requests,
      0)) AS server_error,
  SUM(IF(error_code = 'OK', 0, total_requests)) AS total_error,
FROM
  `region-us`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
GROUP BY
  start_timestamp
ORDER BY
  start_timestamp DESC;

El resultado es similar al siguiente:

+---------------------+----------------+------------+-------------------+------------+--------------+-------------+
|   start_timestamp   | total_requests | total_rows | total_input_bytes | user_error | server_error | total_error |
+---------------------+----------------+------------+-------------------+------------+--------------+-------------+
| 2020-04-15 22:00:00 |         441854 |     441854 |       23784853118 |          0 |           17 |          17 |
| 2020-04-15 21:59:00 |         355627 |     355627 |       26101982742 |          8 |            0 |          13 |
| 2020-04-15 21:58:00 |         354603 |     354603 |       26160565341 |          0 |            0 |           0 |
| 2020-04-15 21:57:00 |         298823 |     298823 |       23877821442 |          2 |            0 |           2 |
+---------------------+----------------+------------+-------------------+------------+--------------+-------------+
Ejemplo 3: Tablas con más tráfico entrante

En el siguiente ejemplo, se muestran las estadísticas de transferencia de la API de BigQuery Storage Write para las 10 tablas en la carpeta del proyecto con más tráfico entrante:

SELECT
  project_id,
  dataset_id,
  table_id,
  SUM(total_rows) AS num_rows,
  SUM(total_input_bytes) AS num_bytes,
  SUM(total_requests) AS num_requests
FROM
  `region-us`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
GROUP BY
  project_id,
  dataset_id,
  table_id
ORDER BY
  num_bytes DESC
LIMIT 10;

El resultado es similar al siguiente:

+----------------------+------------+-------------------------------+------------+----------------+--------------+
|      project_id      | dataset_id |           table_id            |  num_rows  |   num_bytes    | num_requests |
+----------------------+------------+-------------------------------+------------+----------------+--------------+
| my-project1          | dataset1   | table1                        | 8016725532 | 73787301876979 |   8016725532 |
| my-project2          | dataset1   | table2                        |   26319580 | 34199853725409 |     26319580 |
| my-project1          | dataset2   | table1                        |   38355294 | 22879180658120 |     38355294 |
| my-project3          | dataset1   | table3                        |  270126906 | 17594235226765 |    270126906 |
| my-project2          | dataset2   | table2                        |   95511309 | 17376036299631 |     95511309 |
| my-project2          | dataset2   | table3                        |   46500443 | 12834920497777 |     46500443 |
| my-project3          | dataset2   | table4                        |   25846270 |  7487917957360 |     25846270 |
| my-project4          | dataset1   | table4                        |   18318404 |  5665113765882 |     18318404 |
| my-project4          | dataset1   | table5                        |   42829431 |  5343969665771 |     42829431 |
| my-project4          | dataset1   | table6                        |    8771021 |  5119004622353 |      8771021 |
+----------------------+------------+-------------------------------+------------+----------------+--------------+