Cuotas y límites

En las siguientes listas se resumen los límites de frecuencia y cuotas de BigQuery.

BigQuery limita la frecuencia máxima de solicitudes entrantes y aplica las cuotas pertinentes a cada proyecto. Las políticas específicas están sujetas a cambios sin previo aviso y varían según la disponibilidad de los recursos, el perfil del usuario, el historial de uso del servicio y otros factores.

Tareas de consulta

Los siguientes límites corresponden a las tareas de consulta creadas automáticamente mediante la ejecución de consultas interactivas, así como a las tareas enviadas de forma programática con llamadas a los métodos jobs.query y jobs.insert de tipo consulta.

Las consultas con resultados devueltos desde la caché de consulta se tienen en cuenta en este límite durante el tiempo que tarda BigQuery en determinar que es un resultado en caché. Las consultas de ejecución de prueba no se tienen en cuenta en este límite. Puedes especificar que una consulta es de prueba con la marca --dry_run o estableciendo la propiedad dryRun en una tarea de consulta.

Este límite se aplica a nivel de proyecto. Para aumentar el límite, ponte en contacto con el equipo de asistencia o de ventas.

  • Límite de frecuencia simultánea para las consultas interactivas a fuentes de datos externas de Bigtable: 4 consultas simultáneas

Tienes un límite de 4 consultas simultáneas a fuentes de datos externas de Bigtable.

  • Límite de frecuencia simultánea para las consultas de SQL antiguo que contienen funciones definidas por el usuario: 6 consultas simultáneas

El límite de frecuencia simultánea para las consultas de SQL antiguo que contienen funciones definidas por el usuario incluye las consultas interactivas y por lotes. Las consultas interactivas que contienen este tipo de funciones también cuentan de cara al límite de frecuencia simultánea para consultas interactivas. Este límite no se aplica a las consultas de SQL estándar.

  • Consultas federadas entre regiones: 1 TB por proyecto y día

Si la ubicación de procesamiento de las consultas de BigQuery y la ubicación de la instancia de Cloud SQL difieren, se genera una consulta entre regiones. Puedes ejecutar hasta 1 TB de consultas entre regiones por proyecto y día. Echa un vistazo al artículo sobre las consultas federadas de Cloud SQL.

  • Límite diario del tamaño de las consultas: ilimitado de forma predeterminada

Si quieres fijar límites en cuanto a la cantidad de datos que pueden consultar los usuarios, establece cuotas personalizadas.

  • Límite diario de actualización de tablas de destino: 1500 actualizaciones por tabla y día

Las tablas de destino de las tareas de consulta están sujetas al límite de 1500 actualizaciones por tabla y día. Estas actualizaciones incluyen las operaciones para añadir y sobrescribir realizadas mediante consultas con la consola, la interfaz web clásica de BigQuery y la herramienta de línea de comandos bq, o bien con llamadas a los métodos de API jobs.query y jobs.insert de tipo consulta.

  • Límite de tiempo de la ejecución de consultas/secuencias de comandos: 6 horas

Este límite no se puede cambiar. En determinados casos, se puede reintentar una consulta para que se ejecute durante otras 6 horas. Además, este proceso puede repetirse hasta 3 veces. Por lo tanto, el tiempo de ejecución total podría superar las 6 horas.

  • Número máximo de tablas a las que se hace referencia por consulta: 1000

  • Longitud máxima de las consultas de SQL antiguo sin resolver: 256 kB

  • Longitud máxima de las consultas de SQL estándar sin resolver: 1 MB

  • Longitud máxima de las consultas de SQL antiguo y estándar resueltas: 12 MB

En el límite de longitud de las consultas resueltas se incluye la longitud de todas las vistas y tablas comodín a las que la consulta hace referencia.

  • Número máximo de parámetros de consulta de SQL estándar: 10.000

  • Tamaño máximo de respuesta: 10 GB comprimidos1

1 El tamaño varía en función de la relación de compresión que se utilice para los datos. El tamaño de respuesta real puede ser significativamente superior a 10 GB.

El tamaño máximo de respuesta es ilimitado cuando se escribe un gran volumen de resultados de consulta en una tabla de destino.

  • Tamaño máximo de fila: 100 MB2

2 El límite máximo del tamaño de fila es aproximado porque se basa en la representación interna de los datos de fila. Este límite se aplica durante ciertas fases de la ejecución de las tareas de consulta.

  • Número máximo de columnas en una tabla, resultado de consulta o definición de vista: 10.000

  • Número máximo de ranuras simultáneas por proyecto para el precio bajo demanda: 2000

Las ranuras de BigQuery se comparten entre todas las consultas de un mismo proyecto. Es posible que BigQuery supere este límite para agilizar las consultas.

Si quieres saber cuántas ranuras estás utilizando, aprende a monitorizar BigQuery con Cloud Monitoring.

  • Número máximo de consultas simultáneas en fuentes de datos externas de Bigtable: 4

Para obtener información sobre los límites que se aplican a las funciones definidas por el usuario en las consultas SQL, lee el apartado Límites de las funciones definidas por el usuario.

  • Consultas programadas

A pesar de que las consultas programadas utilizan funciones de BigQuery Data Transfer Service, no son transferencias ni están sujetas a las cuotas de las tareas de carga. A este tipo de consultas se les aplican las mismas cuotas y límites que a las consultas manuales de BigQuery.

Tareas de carga

Se aplican los siguientes límites a las tareas creadas automáticamente mediante la carga de datos con la herramienta de línea de comandos, la consola de Cloud o la interfaz web clásica de BigQuery. También se aplican a las tareas de carga enviadas de forma programática mediante el método de API jobs.insert de tipo carga.

Se aplican los siguientes límites cuando cargas datos en BigQuery.

  • Tareas de carga por tabla y día: 1500 (incluidos los fallos)
  • Tareas de carga por proyecto y día: 100.000 (incluidos los fallos)
  • El límite de 1500 tareas de carga por tabla y día no puede aumentarse.
  • Límites de tamaño de filas y celdas:
    Formato de datos Límite máximo
    CSV 100 MB (tamaño de filas y celdas)
    JSON 100 MB (tamaño de filas)
  • Número máximo de columnas por tabla: 10.000
  • Tamaños máximos de archivo:
    Tipo de archivo Comprimido Sin comprimir
    CSV 4 GB 5 TB
    JSON 4 GB 5 TB
  • Tamaño máximo por tarea de carga: 15 TB entre todos los archivos de entrada para los formatos CSV, JSON, Avro, Parquet y ORC
  • Número máximo de URIs de origen en la configuración de la tarea: 10.000 URI
  • Número máximo de archivos por tarea de carga: 10 millones de archivos totales, incluidos todos los archivos coincidentes con todas las URI comodín
  • Límite de tiempo para la ejecución de una tarea de carga: 6 horas
  • Con la excepción de los conjuntos de datos radicados en EE. UU., tienes que cargar los datos desde un segmento de Cloud Storage que se encuentre en la misma región que la ubicación del conjunto de datos (el segmento puede ser multirregional o estar en la misma región que el conjunto de datos). Puedes cargar datos desde cualquier región en los conjuntos de datos radicados en EE. UU.

Para obtener más información, consulta la introducción a la carga de datos en BigQuery.

Tareas de copia

Los siguientes límites corresponden a la copia de tablas en BigQuery. Se aplican a tareas creadas automáticamente mediante la copia de datos con la herramienta de línea de comandos bq, la consola de Cloud o la interfaz web clásica de BigQuery. También se aplican a las tareas de copia enviadas de forma programática mediante el método de API jobs.insert de tipo copia.

  • Tareas de copia por tabla de destino y día: 1000 (incluidos los fallos)
  • Tareas de copia por proyecto y día: 100.000 (incluidos los fallos)

Tareas de exportación

Los siguientes límites corresponden a las tareas de exportación de datos desde BigQuery. Se aplican a las tareas creadas automáticamente mediante la exportación de datos con la herramienta de línea de comandos bq, la consola de Cloud o la interfaz web clásica de BigQuery. También se aplican a las tareas de exportación enviadas de forma programática mediante el método de API jobs.insert de tipo carga.

  • Exportaciones al día: 100.000 exportaciones por proyecto y hasta 50 TB al día (el límite de datos de 50 TB es acumulativo entre todas las exportaciones)
  • Si exportas más de 50 TB de datos al día, usa la API Storage de BigQuery.

  • URIs comodín: 500 URI comodín por exportación

Límites de conjuntos de datos

Los siguientes límites se aplican a los conjuntos de datos:

  • Número de conjuntos de datos por proyecto: sin restricciones
    El número de conjuntos de datos por proyecto no está sujeto a una cuota; sin embargo, cuando un proyecto se acerca a miles de conjuntos de datos, el rendimiento de la interfaz web clásica comienza a disminuir y las operaciones para mostrar los conjuntos de datos se ralentizan.
  • Número de tablas por conjunto de datos: sin restricciones
    Cuando un conjunto de datos se acerca a las 50.000 tablas, las operaciones para mostrarlas se ralentizan. El rendimiento de estas operaciones se resiente tanto con las llamadas a API como con la interfaz web clásica de BigQuery. Actualmente, dicha interfaz te permite mostrar solo 50.000 tablas por conjunto de datos en la consola de Google Cloud. Para mejorar el rendimiento de la interfaz web clásica de BigQuery, puedes usar el parámetro ?minimal para limitar el número de tablas que se muestran a 30.000 por proyecto. Añade el parámetro a la URL de esa interfaz con el formato https://bigquery.cloud.google.com/queries/[PROJECT_NAME]?minimal.
  • Número máximo de vistas autorizadas en una lista de control de acceso de un conjunto de datos: 2500
    Puedes crear una vista autorizada para restringir el acceso a tus datos de origen. Se crea una vista autorizada con una consulta SQL que excluye las columnas que no quieres que vean los usuarios cuando envían una consulta a la vista. Puedes añadir hasta 2500 vistas autorizadas a una lista de control de acceso de un conjunto de datos.
  • Frecuencia máxima de operaciones de actualización de metadatos de un conjunto de datos: 5 operaciones cada 10 segundos por conjunto de datos
    El límite de actualización de los metadatos de los conjuntos de datos incluye todas las operaciones de actualización de metadatos realizadas mediante la consola, la interfaz web clásica de BigQuery y la herramienta de línea de comandos bq, o bien con llamadas a los métodos de API datasets.insert, datasets.patch o datasets.update.
  • Longitud máxima de la descripción de un conjunto de datos: 16.384 caracteres
    Cuando añades una descripción a un conjunto de datos, el texto puede tener un máximo de 16.384 caracteres.

Límites de tabla

Se aplican los siguientes límites a las tablas de BigQuery.

Todas las tablas

  • Longitud máxima de la descripción de una columna: 16.384 caracteres

Cuando añades una descripción a una columna, el texto puede tener un máximo de 16.384 caracteres.

Tablas estándares

  • Número máximo de operaciones con las tablas al día: 1500

Tienes un límite de 1500 operaciones por tabla y día tanto para añadir datos a tablas como para truncarlas.

El número máximo de operaciones de tabla incluye el total combinado de todas las tareas de carga, copia y consulta que añaden datos a una tabla de destino o la sobrescriben, o bien que usan una declaración INSERT, UPDATE, DELETE o MERGE de DML para escribir datos en tablas. Aunque para calcular la cuota se tienen en cuenta las declaraciones de DML, esta no las limita. En otras palabras: las declaraciones de DML están incluidas entre las operaciones diarias que se tienen en cuenta para calcular la cuota, pero el límite de la cuota no afecta a su funcionamiento.

Por ejemplo, si ejecutas 500 tareas de copia que añaden datos a mytable y 1000 tareas de consulta que añaden datos a mytable, alcanzarás la cuota.

  • Frecuencia máxima de operaciones de actualización de metadatos de cada tabla: 5 operaciones cada 10 segundos

El límite de actualización de los metadatos de las tablas incluyen todas las operaciones de actualización de metadatos que se realizan mediante la consola de Cloud, la interfaz web clásica de BigQuery, la herramienta de línea de comandos bq y las bibliotecas de cliente, o bien con llamadas a los métodos de API tables.insert, tables.patch o tables.update, o la ejecución de declaraciones de DDL ALTER TABLE. Este límite también se aplica a la salida de la tarea.

  • Número máximo de columnas en una tabla, resultado de consulta o definición de vista: 10.000

Tablas con particiones

  • Número máximo de particiones por tabla: 4000

  • Número máximo de particiones modificadas por una sola tarea: 4000

Cada operación de tarea (consulta o carga) puede afectar a un máximo de 4000 particiones. Si afecta a más, BigQuery la rechaza.

  • Número máximo de modificaciones de partición por tabla con particiones por hora de ingestión: 5000
  • Número máximo de modificaciones de partición por tabla con particiones en columnas: 30.000

Tienes un límite diario de 5000 modificaciones de partición en total para las tablas con particiones por hora de ingestión y de 30.000 modificaciones de partición para las tablas con particiones por columnas. Una partición puede modificarse con una operación que añade datos a una partición o los sobrescribe. Entre las operaciones que modifican las particiones se incluyen las tareas de carga, las consultas que escriben resultados en una partición o las declaraciones de DML (INSERT, DELETE, UPDATE o MERGE) que modifican datos en una partición.

Es posible que una sola tarea afecte a más de una partición. Por ejemplo, una declaración de DML puede actualizar datos en varias particiones (tanto en tablas con particiones estándar como en tablas con particiones por hora de ingestión). Las tareas de consulta y carga también pueden escribir en varias particiones, pero solo en tablas con particiones. Aunque para calcular la cuota se tienen en cuenta las declaraciones de DML, esta no las limita. En otras palabras: las declaraciones de DML están incluidas entre las operaciones diarias que se tienen en cuenta para calcular la cuota, pero el límite de la cuota no afecta a su funcionamiento. BigQuery calcula cuánta cuota consume una tarea basándose en el número de particiones a las que afecta. Las inserciones de transmisión no influyen en la cuota.

  • Frecuencia máxima de operaciones de partición: 50 operaciones de partición cada 10 segundos

Tablas externas

En las tablas con datos almacenados en Cloud Storage en formato Parquet, ORC, Avro, CSV o JSON, se aplican los siguientes límites.

  • Número máximo de URIs de origen por tabla externa: 10.000
  • Número máximo de archivos por tabla externa: 10 millones en total, incluidos todos los archivos coincidentes con todas las URI comodín
  • Tamaño máximo de los datos almacenados en Cloud Storage por tabla externa en todos los archivos de entrada: 600 TB

    Este límite se aplica a los tamaños de los archivos almacenados en Cloud Storage, que no coinciden con los tamaños usados en la fórmula de precios de consultas. En las tablas con particiones externas, el límite se aplica tras el recorte de particiones.

Límites de vista

  • Número máximo de niveles de vista anidados: 16

BigQuery admite hasta 16 niveles de vista anidados. Si se supera esta cifra, se devolverá un error del tipo INVALID_INPUT.

  • Longitud máxima de una consulta de SQL estándar utilizada para definir una vista: 256.000 caracteres

Cuando creas una vista, el texto de la consulta de SQL estándar puede incluir un máximo de 256.000 caracteres.

  • Número máximo de vistas autorizadas en una lista de control de acceso de un conjunto de datos: 2500

Puedes crear una vista autorizada para restringir el acceso a tus datos de origen. Se crea una vista autorizada con una consulta SQL que excluye las columnas que no quieres que vean los usuarios cuando envían una consulta a la vista. Puedes añadir hasta 2500 vistas autorizadas a una lista de control de acceso de un conjunto de datos.

Límites de las funciones definidas por el usuario

Los siguientes límites se aplican a las funciones definidas por el usuario temporales y persistentes en las consultas SQL.

  • Cantidad de datos que genera tu función definida por el usuario en JavaScript cuando procesa una única fila: aproximadamente 5 MB o menos.
  • Límite de frecuencia simultánea para las consultas de SQL antiguo que contienen funciones definidas por el usuario: 6 consultas simultáneas.
  • El límite de frecuencia simultánea para las consultas de SQL antiguo que contienen funciones definidas por el usuario incluye las consultas interactivas y por lotes. Las consultas interactivas que contienen funciones definidas por el usuario también cuentan de cara al límite de frecuencia simultánea de consultas interactivas. Este límite no se aplica a las consultas de SQL estándar.

  • Número máximo de recursos de funciones definidas por el usuario en JavaScript, como código insertado o archivos externos, en una tarea de consulta: 50
  • Tamaño máximo de cada blob de código insertado: 32 kB
  • Tamaño máximo de cada recurso de código externo: 1 MB

Se aplican los siguientes límites a las funciones definidas por el usuario persistentes.
  • Longitud máxima de un nombre de función: 256 caracteres
  • Número máximo de argumentos: 256
  • Longitud máxima del nombre de un argumento: 128 caracteres
  • Profundidad máxima de la cadena de referencia de una función definida por el usuario: 16
  • Profundidad máxima de un argumento o salida del tipo STRUCT: 15
  • Número máximo de campos en un argumento o salida del tipo STRUCT por función definida por el usuario: 1024
  • Número máximo de funciones definidas por el usuario únicas, además de referencias de tablas por consulta: 1000 Tras la expansión total, cada función definida por el usuario puede hacer referencia a un máximo de 1000 funciones definidas por el usuario y tablas únicas combinadas.
  • Número máximo de bibliotecas de JavaScript en la declaración CREATE FUNCTION: 50
  • Longitud máxima de las rutas de la biblioteca de JavaScript incluidas: 5000 caracteres
  • Velocidad de actualización máxima por función definida por el usuario: 5 cada 10 segundos Tras crear la función, puedes actualizar cada función hasta 5 veces cada 10 segundos.
  • Cada blob de código insertado está limitado a un tamaño máximo de 32 kB.
  • Cada recurso de código de JavaScript puede tener un tamaño máximo de 1 MB.

Declaraciones de lenguaje de manipulación de datos (DML)

Las declaraciones de DML de BigQuery no tienen límites de cuota.

Sin embargo, sí se tienen en cuenta para calcular el número máximo de operaciones con las tablas por día y de modificaciones de partición por día. Estos límites no afectan al funcionamiento de las declaraciones de DML.

Asimismo, las declaraciones de DML están sujetas a la frecuencia máxima de operaciones de actualización de metadatos de una tabla.. Si superas el límite, tendrás que volver a intentar la operación con un tiempo de espera exponencial entre cada intento.

Inserciones de transmisión

Los siguientes límites se aplican a la transmisión de datos a BigQuery.

Si no rellenas el campo insertId cuando insertas una fila, se aplican las siguientes cuotas. Para obtener más información, consulta la sección sobre cómo inhabilitar la anulación de duplicados mejor posible. Se trata de la forma recomendada de usar BigQuery para que los límites de cuota de ingestión de flujos sean más altos.

  • Número máximo de bytes por segundo: 1 GB Si no rellenas el campo insertId cada vez que insertes una fila, se aplicará un límite de 1 GB por segundo y proyecto. Este límite se aplica a nivel de proyecto, no de tabla. Si se supera esta cantidad, se generarán errores del tipo quotaExceeded.

Si rellenas el campo insertId cuando insertas una fila, se aplican las siguientes cuotas.

  • Número máximo de filas por segundo en las multirregiones us y eu: 500.000
    Si rellenas el campo insertId cada vez que insertes una fila, se aplicará un límite de 500.000 filas por segundo y proyecto o tabla en las multirregiones us y eu. Esta cuota es acumulativa. Puedes usarla toda en una tabla o para transmitir datos a varias tablas de un proyecto.

    Si se supera esta cantidad, se generarán errores del tipo quotaExceeded.
  • Número máximo de filas por segundo en el resto de ubicaciones: 100.000
    Si rellenas el campo insertId cada vez que insertes una fila, se aplicará un límite de 100.000 filas por segundo y proyecto o tabla en todas las ubicaciones menos en las multirregiones us y eu. Esta cuota es acumulativa. Puedes usarla toda en una tabla o para transmitir datos a varias tablas de un proyecto.

    Si se supera esta cantidad, se generarán errores del tipo quotaExceeded.
  • Número máximo de bytes por segundo: 100 MB
    Si rellenas el campo insertId cada vez que insertes una fila, se aplicará un límite de 100 MB por segundo y tabla.

    Si se supera esta cantidad, se generarán errores del tipo quotaExceeded.

Las siguientes cuotas de transmisión se aplican tanto si rellenas el campo insertId como si no:

  • Tamaño máximo de fila: 5 MB
    Si superas este valor, se generarán errores del tipo invalid.
  • Límite de tamaño de la solicitud HTTP: 10 MB (consulta la nota)
    Si superas este valor, se generarán errores del tipo invalid.
  • Número máximo de filas por solicitud: 10.000
    Recomendamos usar un máximo de 500 filas. Trabajar por lotes puede aumentar el rendimiento hasta cierto punto, pero a costa de aumentar la latencia por solicitud. El envío de un número demasiado bajo de filas por solicitud y la sobrecarga de cada solicitud pueden provocar una ingestión ineficiente. Enviar demasiadas filas por solicitud puede disminuir el rendimiento.

    Recomendamos usar un máximo de 500 filas por solicitud, pero experimentar con datos representativos (tamaños de datos y esquemas) te ayudará a determinar el tamaño del lote ideal.
  • Longitud del campo insertId: 128
    Si superas este valor, se generarán errores del tipo invalid.

Si necesitas que aumentemos las cuotas de transmisión de tu proyecto, puedes inhabilitar la anulación de duplicados mejor posible. Si necesitas una cuota mayor que esos límites, puedes enviar una solicitud desde la consola de Google Cloud. Deberías recibir una respuesta en un plazo de dos a tres días laborables.

Solicitudes a API

Todas las solicitudes a API

Se aplican los siguientes límites a todas las solicitudes a API de BigQuery:

  • Solicitudes a API por segundo y usuario: 100
    Si realizas más de 100 solicitudes por segundo, podría limitarse el envío. Este límite no se aplica a las inserciones de transmisión.
  • Solicitudes a API simultáneas por usuario: 300
    Si un usuario realiza más de 300 solicitudes simultáneas, podría limitarse el envío. Este límite no se aplica a las inserciones de transmisión.

Solicitudes de tabledata.list

El método tabledata.list muestra los datos de tablas del conjunto de filas especificado. La cuota de esta API también se consume al usar otras API, como jobs.getQueryResults, y al obtener resultados con jobs.query y con jobs.insert. Se aplican los siguientes límites a las solicitudes de tabledata.list:

  • Número máximo de consultas tabledata.list por proyecto: 500 por segundo
    Cuando llamas a tabledata.list, puedes enviar un máximo de 500 solicitudes por segundo y proyecto.
  • Número máximo de bytes por segundo y proyecto devueltos por llamadas a tabledata.list: 60 MB por segundo
    Cuando llamas a tabledata.list, puedes devolver un máximo de 60 MB por segundo de datos de fila de tablas y por proyecto. El límite se aplica al proyecto que contiene la tabla que se está leyendo.
  • Número máximo de filas por segundo y proyecto devueltas por llamadas a tabledata.list: 150.000
    Cuando llamas a tabledata.list, puedes devolver un máximo de 150.000 filas de tablas por segundo y proyecto. El límite se aplica al proyecto que contiene la tabla que se está leyendo.

Solicitudes de tables.insert

El método tables.insert crea una tabla vacía en el conjunto de datos. Se aplican los siguientes límites a las solicitudes de tables.insert:

Solicitudes de projects.list

El método projects.list muestra todos los proyectos a los que se te haya dado acceso. Se aplican los siguientes límites a las solicitudes de projects.list:

  • Solicitudes máximas por segundo y proyecto: 2 Cuando llamas a projects.list, puedes crear un máximo de 2 solicitudes por segundo y proyecto.

Solicitudes de jobs.get

El método jobs.get devuelve información sobre una tarea específica. Se aplican los siguientes límites a las solicitudes de jobs.get:

  • Número máximo de solicitudes por segundo y proyecto: 1000 Cuando llamas a jobs.get, puedes crear un máximo de 1000 solicitudes por segundo y proyecto.

Solicitudes de jobs.query

El método jobs.query ejecuta una consulta SQL de manera síncrona y devuelve resultados si esta se completa en el tiempo de espera especificado.

  • Tamaño máximo de respuesta: 10 MB De forma predeterminada, no hay un límite máximo de filas de datos que pueden devolverse por página de resultados, pero sí lo hay en el tamaño de respuesta: 10 MB. Para cambiar el número de filas que se devuelven, usa el parámetro maxResults.

Solicitudes a la API de IAM

Se aplican los siguientes límites cuando se utiliza la funcionalidad de gestión de identidades y accesos en BigQuery para mostrar y definir las políticas de IAM, así como para probar los permisos de IAM.

  • En el nivel de proyecto de Google Cloud, hay un límite de 25 solicitudes por segundo y usuario.

  • En el nivel de proyecto de Google Cloud, hay un límite de 50 solicitudes por segundo.

Si necesitas que aumentemos las cuotas de IAM de tu proyecto, puedes enviar una solicitud desde la consola de Google Cloud. Deberías recibir una respuesta en un plazo de dos a tres días laborables.

Solicitudes a la API Storage de BigQuery

Los siguientes límites se aplican a las llamadas a ReadRows si se usa la API Storage de BigQuery:

  • Llamadas a ReadRows por minuto: 5000 Al leer los datos con la API Storage de BigQuery, se aplica un límite de 5000 llamadas a ReadRows por minuto, usuario y proyecto.

Los siguientes límites se aplican a las llamadas al resto de los métodos si se usa la API Storage de BigQuery:

  • Llamadas a la API por minuto: 1000 Tienes un límite de 1000 llamadas a la API Storage de BigQuery por minuto, usuario y proyecto.

¿Cuándo se reponen las cuotas?

Como su objetivo es controlar el límite de frecuencia, las cuotas diarias se reponen a intervalos regulares a lo largo del día. También se realiza una actualización intermitente para evitar interrupciones prolongadas en caso de que se agote la cuota. Por lo general, se ofrece más cuota en cuestión de minutos en lugar de reponerse de forma global una vez al día.

Códigos de error

Los errores de cuota y límite devuelven un código de respuesta HTTP 403 o 400. Consulta la página de solución de problemas para ver una lista completa de los códigos de error, así como los pasos que debes seguir para resolver las incidencias.

Limitar el uso de cuotas

Para saber cómo puedes limitar el uso de un recurso en concreto, dentro de los límites definidos por Google, consulta la sección correspondiente.