Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.

Cuotas y límites

Descripción general

En este documento, se enumeran las cuotas y los límites que se aplican a BigQuery.

Una cuota restringe cuánto de un recurso compartido de Google Cloud en particular puede usar tu proyecto de Cloud, incluidos los componentes de red, hardware y software.

Las cuotas son parte de un sistema que realiza las siguientes acciones:

  • Supervisa el uso o consumo de productos y servicios de Google Cloud.
  • Restringe el consumo de esos recursos por motivos como garantizar la equidad y reducir los picos de uso.
  • Mantiene las configuraciones que aplican automáticamente las restricciones prescritas.
  • Proporciona un medio para realizar o solicitar cambios en la cuota.

Cuando se excede una cuota, en la mayoría de los casos, el sistema bloquea de inmediato el acceso al recurso de Google correspondiente, y la tarea que intentas realizar falla. En la mayoría de los casos, las cuotas se aplican a cada proyecto de Cloud y se comparten entre todas las aplicaciones y direcciones IP que usan ese proyecto.

También existen límites para los recursos de BigQuery. Estos límites no están relacionados con el sistema de cuotas. Los límites no se pueden cambiar, a menos que se indique lo contrario.

De forma predeterminada, las cuotas y los límites de BigQuery se aplican por proyecto. Las cuotas y los límites que se aplican con criterios diferentes se indican según corresponda, por ejemplo, la cantidad máxima de columnas por tabla o la cantidad máxima de solicitudes a la API simultáneas por usuario. Las políticas específicas varían según la disponibilidad de los recursos, el perfil del usuario, el historial de uso del servicio y otros factores. Además, están sujetas a cambios sin previo aviso.

Restablecimiento de cuotas

Las cuotas diarias se restablecen en intervalos regulares durante el día a fin de reflejar su propósito de orientar comportamientos que limiten las frecuencias. También se realizan actualizaciones intermitentes para evitar interrupciones prolongadas cuando una cuota se agota. Por lo general, se habilita más capacidad de la cuota en unos minutos en lugar de restablecerla por completo una vez al día.

Solicita un aumento de la cuota

Para aumentar o disminuir la mayoría de las cuotas, usa la consola de Google Cloud. Consulta Solicita una cuota mayor para obtener más información.

Si deseas obtener una guía paso a paso durante el proceso de solicitud de aumento de cuota en la consola de Google Cloud, haz clic en Guíame:

GUIARME

Limita el uso de cuota

Si deseas obtener información para limitar el uso de un recurso en particular mediante la especificación de una cuota más pequeña que la predeterminada, consulta Limita el uso.

Permisos necesarios

Para ver y actualizar tus cuotas de BigQuery en la consola de Google Cloud, necesitas los mismos permisos que cualquier cuota de Google Cloud. Para obtener más información, consulta los permisos de cuota de Google Cloud.

Solucionar problemas

Si deseas obtener más información para solucionar errores relacionados con las cuotas y los límites, consulta Soluciona problemas de errores de cuota de BigQuery.

Jobs

Las cuotas y los límites se aplican a los trabajos que BigQuery ejecuta por ti, ya sea que se ejecuten mediante la consola de Google Cloud, la herramienta de línea de comandos de bq o de manera programática mediante la API de REST o las bibliotecas cliente.

Trabajos de consulta

Se aplican los siguientes límites a trabajos de consulta creados automáticamente mediante la ejecución de consultas interactivas y programadas, y trabajos enviados mediante jobs.query y métodos de API de consulta jobs.insert:

Cuota Predeterminada Notas
Uso de consultas por día Ilimitada No hay límite para la cantidad de bytes que pueden procesarse en las consultas de un proyecto.
Ver cuota en la consola de Google Cloud
Uso de consultas por día por usuario Ilimitada No hay límite para la cantidad de bytes que las consultas de un usuario pueden procesar cada día.
Ver cuota en la consola de Google Cloud
Bytes entre regiones de consultas federadas de Cloud SQL por día 1 TB Si la ubicación de procesamiento de consultas de BigQuery y la ubicación de la instancia de Cloud SQL son distintas, la consulta es entre regiones. Tu proyecto puede ejecutar hasta 1 TB en consultas entre regiones por día. Revisa Consultas federadas de Cloud SQL.
Ver cuota en la consola de Google Cloud

Se aplican los siguientes límites a trabajos de consulta creados automáticamente mediante la ejecución de consultas interactivas y programadas, y trabajos enviados mediante jobs.query y métodos de tipo de consulta de la API jobs.insert:

Límite Predeterminada Notas
Cantidad máxima de consultas interactivas simultáneas 100 consultas Tu proyecto puede ejecutar hasta 100 consultas interactivas simultáneas. Las consultas con resultados que se muestran desde la caché de consultas se descuentan de este límite por el tiempo que le lleve a BigQuery determinar si es un acierto de caché. Las consultas de prueba no se descuentan de este límite. Puedes especificar una consulta de ejecución de prueba mediante la marca --dry_run. Si deseas obtener información sobre las estrategias para permanecer dentro de este límite, consulta Soluciona problemas de errores de cuota.
Cantidad máxima de consultas por lotes simultáneas 10 consultas Sin embargo, tu proyecto puede ejecutar hasta 10 consultas por lotes simultáneas.
Cantidad máxima de consultas interactivas simultáneas en fuentes externas de datos de Cloud Bigtable 4 consultas Tu proyecto puede ejecutar hasta cuatro consultas simultáneas en una fuente de datos externa de Bigtable.
Cantidad máxima de consultas simultáneas que contienen funciones remotas 10 consultas Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto.
Cantidad máxima de consultas simultáneas de varias declaraciones 1,000 consultas de varias declaraciones Tu proyecto puede ejecutar hasta 1,000 consultas de varias declaraciones simultáneas.
Cantidad máxima de consultas heredadas en SQL simultáneas que contienen UDF 6 consultas Tu proyecto puede ejecutar hasta seis consultas de SQL heredado simultáneas con funciones definidas por el usuario (UDF). Este límite incluye consultas interactivas y por lotes. También se toman en cuenta las consultas interactivas que contienen UDF en el límite de simultaneidad de las consultas interactivas. No se aplica este límite a consultas de SQL estándar.
Límite diario de tamaño de las consultas Ilimitada De forma predeterminada, no hay un límite de tamaño de consulta diario. Sin embargo, puedes establecer límites en la cantidad de datos que los usuarios pueden consultar mediante la creación de cuotas personalizadas.
Límite diario de actualización de tablas de destino Consulta Cantidad máxima de operaciones en tablas por día. Las actualizaciones de las tablas de destino en un trabajo de consulta se tienen en cuenta para el límite en la cantidad máxima de operaciones en tabla por día para las tablas de destino. Las actualizaciones de tablas de destino incluyen operaciones que agregan y reemplazan datos, las cuales se realizan mediante consultas que se ejecutan con la consola de Google Cloud, la herramienta de línea de comandos bq o mediante una llamada a los métodos de API jobs.query y jobs.insert de tipo de consulta.
Límite de tiempo de ejecución de las consultas o consultas de varias declaraciones 6 hours Una consulta o una consulta de varias declaraciones puede ejecutarse hasta por seis horas. Luego de ese tiempo, fallará. Sin embargo, a veces se reintentan las consultas. Una consulta se puede probar hasta tres veces, y cada intento puede ejecutarse hasta por seis horas. Como resultado, es posible que una consulta tenga un tiempo de ejecución total de más de seis horas.
Cantidad máxima de recursos referenciados por consulta 1,000 recursos Una consulta puede hacer referencia hasta un total de 1,000 tablas, vistas únicas, funciones definidas por el usuario únicas, (UDF) y funciones con valores de tabla (TVF) únicas (Vista previa) después de una expansión completa. Este límite incluye lo siguiente:
  • Tablas, vistas, UDF y funciones de tabla a las que hace referencia la consulta de forma directa.
  • Tablas, vistas, UDF y funciones de tabla a las que hacen referencia otras vistas, UDF y funciones de tabla a las que se hace referencia en la consulta.
  • Tablas que resultan de la expansión de tablas comodín usadas en la consulta o en las otras vistas, UDF o funciones de tabla a las que se hace referencia.
Longitud máxima de consultas de SQL heredado sin resolver 256 KB Una consulta de SQL heredado sin resolver puede tener hasta 256 KB. Si tu consulta es más larga, recibes el siguiente error: The query is too large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes por parámetros de consulta.
Longitud máxima de consulta de SQL estándar sin resolver 1 MB Una consulta de SQL estándar sin resolver puede tener hasta 1 MB de longitud. Si tu consulta es más larga, recibes el siguiente error: The query is too large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes con parámetros de consulta.
Longitud máxima de consulta de SQL estándar y heredado resueltas 12 MB El límite de la longitud de las consultas resueltas incluye la longitud de todas las vistas y tablas de comodines a las que se hace referencia en la consulta.
Cantidad máxima de parámetros de consulta de SQL estándar: 10,000 parámetros Una consulta de SQL estándar puede tener hasta 10,000 parámetros.
Tamaño máximo de la solicitud 10 MB El tamaño de la solicitud puede ser de hasta 10 MB, incluidas las propiedades adicionales, como los parámetros de consulta.
Tamaño máximo de la respuesta 10 GB comprimidos Los tamaños varían según el índice de compresión de los datos. El tamaño real de respuesta puede ser mucho mayor que 10 GB. El tamaño máximo de respuesta es ilimitado cuando se escriben los resultados de una consulta grande en una tabla de destino.
Tamaño máximo de fila 100 MB El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. Este se aplica durante ciertas etapas de la ejecución del trabajo de consulta.
Cantidad máxima de columnas en una tabla, resultado de consulta o definición de la vista 10,000 columnas Una definición de tabla, resultado de consulta o vista puede tener hasta 10,000 columnas.
Cantidad máxima de ranuras simultáneas para precios según demanda 2,000 ranuras Con los precios según demanda, tu proyecto puede tener hasta 2,000 ranuras simultáneas. Las ranuras de BigQuery se comparten entre todas las consultas de un mismo proyecto. BigQuery podría sobrepasar este límite en aumentos repentinos de actividad para acelerar las consultas. Para verificar la cantidad de ranuras que usas, consulta Supervisa BigQuery mediante Cloud Monitoring.
Uso máximo de CPU por datos analizados para los precios según demanda 256 segundos de CPU por MiB analizado Con los precios según demanda, tu consulta puede usar hasta 256 segundos de CPU por cada MiB de datos analizados. Si tu consulta requiere demasiado CPU para la cantidad de datos que se procesan, la consulta fallará con un error billingTierLimitExceeded. Para obtener más información, consulta billingTierLimitExceeded.

A pesar de que en las consultas programadas se usa el Servicio de transferencia de datos de BigQuery, estas no se transfieren y no están sujetas a límites de trabajo de carga.

Trabajos de exportación

Se aplican los siguientes límites a los trabajos que exportan datos desde BigQuery mediante la herramienta de línea de comandos de bq, la consola de Google Cloud o el método de API de exportación jobs.insert.

Límite Predeterminada Notas
La cantidad máxima de bytes exportados por día 50 TB Puedes exportar hasta 50 TB de datos por día desde un proyecto de forma gratuita mediante el grupo de ranuras compartidas. Si deseas exportar más de 50 TB de datos al día, realiza una de las siguientes acciones:
Cantidad máxima de exportaciones por día 100,000 exportaciones Puedes ejecutar hasta 100,000 exportaciones por día en un proyecto. Para ejecutar más de 100,000 exportaciones por día, realiza una de las siguientes acciones:
Tamaño máximo de la tabla exportada a un solo archivo 1 GB Puedes exportar hasta 1 GB de datos de tablas a un solo archivo. Si necesitas exportar más de 1 GB de datos, usa un comodín para exportar los datos a varios archivos. Cuando exportas datos a varios archivos, el tamaño de estos puede variar. En algunos casos, el tamaño de los archivos de salida es de más de 1 GB.
URI comodín por exportación 500 URI Una exportación puede tener hasta 500 URI comodines.

Trabajos de carga

Se aplican los siguientes límites cuando cargas datos en BigQuery mediante la consola de Google Cloud, la herramienta de línea de comandos de bq o el tipo de carga del método jobs.insert de la API.

Límite Predeterminada Notas
Trabajos de carga por tabla por día Los trabajos de carga, incluidos los trabajos de carga con errores, se tienen en cuenta en la cantidad máxima de operaciones de tabla por día para la tabla de destino. Si deseas obtener información sobre los límites de cantidad de operaciones de tablas por día para tablas estándar y particionadas, consulta Tablas.
Trabajos de carga por día 100,000 trabajos Tu proyecto puede ejecutar hasta 100,000 trabajos de carga por día. Los trabajos de carga con errores se consideran en este límite.
Cantidad máxima de columnas por tabla: 10,000 columnas Una tabla puede tener hasta 10,000 columnas.
Tamaño máximo por trabajo de carga 15 TB El tamaño total de todos los archivos de entrada CSV, JSON, Avro, ORC y Parquet puede ser de hasta 15 TB.
Cantidad máxima de URI de origen en la configuración del trabajo 10,000 URI Una configuración de trabajo puede tener hasta 10,000 URI de origen.
Cantidad máxima de archivos por trabajo de carga 10,000,000 de archivos Un trabajo de carga puede tener hasta 10 millones de archivos en total, incluidos todos los archivos que coincidan con todos los URI comodín.
Límite de tiempo de ejecución del trabajo de carga 6 hours Un trabajo de carga falla si se ejecuta durante más de seis horas.
Avro: tamaño máximo de los bloques de datos del archivo 16 MB El límite de tamaño de los bloques de datos del archivo de Avro es de 16 MB.
CSV: Tamaño máximo de celdas 100 MB Las celdas de CSV pueden tener un tamaño de hasta 100 MB.
CSV: tamaño máximo de fila 100 MB Las filas de CSV pueden tener un tamaño de hasta 100 MB.
CSV: Tamaño máximo del archivo comprimido 4 GB El límite de tamaño para un archivo CSV comprimido es de 4 GB.
CSV: Tamaño máximo del archivo sin comprimir 5 TB El límite de tamaño para un archivo CSV sin comprimir es de 5 TB.
JSON: tamaño máximo de fila 100 MB Las filas de JSON pueden tener un tamaño de hasta 100 MB.
JSON: tamaño máximo del archivo comprimido 4 GB El límite de tamaño de un archivo JSON comprimido es de 4 GB.
JSON: tamaño máximo del archivo sin comprimir 5 TB El límite de tamaño para un archivo JSON sin comprimir es de 5 TB.

Si superas los límites del trabajo de carga con regularidad debido a las actualizaciones frecuentes, considera transmitir datos a BigQuery en su lugar.

Consideraciones sobre las cuotas del trabajo de carga del Servicio de transferencia de datos de BigQuery

Los trabajos de carga creados por las transferencias del Servicio de transferencia de datos de BigQuery se incluyen en las cuotas de BigQuery para los trabajos de carga. Es importante tener en cuenta la cantidad de transferencias que habilitas en cada proyecto para evitar que las transferencias y otros trabajos de carga produzcan errores de quotaExceeded.

Puedes usar la siguiente ecuación para estimar cuántos trabajos de carga requieren tus transferencias:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

En el ejemplo anterior, se ilustra lo siguiente:

  • Number of transfers es la cantidad de opciones de configuración de transferencia que habilitas en tu proyecto.
  • Number of tables es la cantidad de tablas creadas por cada tipo de transferencia específico. La cantidad de tablas varía según el tipo de transferencia:

    • Las transferencias de Campaign Manager crean aproximadamente 25 tablas.
    • Las transferencias de Google Ads crean aproximadamente 60 tablas.
    • Las transferencias de Google Ad Manager crean aproximadamente 40 tablas.
    • Las transferencias de Google Play crean alrededor de 25 tablas.
    • Las transferencias de Search Ads 360 crean alrededor de 50 tablas.
    • Las transferencias de YouTube crean alrededor de 50 tablas.
  • Schedule frequency describe la frecuencia con la que se ejecuta la transferencia. Se proporcionan los programas de ejecución de las transferencias para cada tipo de transferencia:

  • Refresh window es la cantidad de días que se deben incluir en la transferencia de datos. Si ingresas 1, no se realiza un reabastecimiento diario.

Trabajos de copia

Se aplican los siguientes límites a los trabajos de BigQuery para copiar tablas, incluidos los trabajos que crean una copia, una clonación o una instantánea de una tabla estándar, una clonación de tabla o una instantánea de tabla. Los límites se aplican a los trabajos creados mediante la consola de Google Cloud, la herramienta de línea de comandos de bq o el método de la API jobs.insert de tipo de copia. Los trabajos de copia se tienen en cuenta en estos límites, ya sea que se completen correctamente o fallen.

Límite Predeterminada Notas
Trabajos de copia diarios por tabla de destino Consulta Operaciones de tabla por día.
Trabajos de copia por día 100,000 trabajos Tu proyecto puede ejecutar hasta 100,000 trabajos de copia por día.
Trabajos de copia entre regiones por tabla de destino por día 100 trabajos Tu proyecto puede ejecutar hasta 100 trabajos de copia entre regiones por tabla de destino por día.
Trabajos de copia entre regiones por día 2,000 trabajos Tu proyecto puede ejecutar hasta 2,000 trabajos de copia entre regiones por día.

Se aplican los siguientes límites a la copia de conjuntos de datos:

Límite Predeterminada Notas
Cantidad máxima de tablas en el conjunto de datos de origen 20,000 tablas Un conjunto de datos de origen puede tener hasta 20,000 tablas.
Cantidad máxima de tablas que se pueden copiar por ejecución en un conjunto de datos de destino en la misma región 20,000 tablas Tu proyecto puede copiar 20,000 tablas por ejecución a un conjunto de datos de destino que se encuentra en la misma región.
Cantidad máxima de tablas que se pueden copiar por ejecución en un conjunto de datos de destino ubicado en una región diferente 1,000 tablas Tu proyecto puede copiar 1,000 tablas por ejecución a un conjunto de datos de destino que se encuentra en una región diferente. Por ejemplo, si configuras una copia entre regiones de un conjunto de datos que tiene 8,000 tablas, el Servicio de transferencia de datos de BigQuery crea de forma automática ocho ejecuciones de manera secuencial. La primera ejecución copia 1,000 tablas. A las veinticuatro horas de la segunda ejecución, la segunda copia 1,000 tablas. Este proceso continúa hasta que se copien todas las tablas del conjunto de datos, hasta un máximo de 20,000 tablas por conjunto de datos.

Administración de políticas de datos

Se aplican los siguientes límites al enmascaramiento de datos dinámicos a nivel de la columna (vista previa):

Límite Predeterminada Notas
Cantidad máxima de políticas de datos por etiqueta de política 1
Cantidad máxima de llamadas a dataPolicy.list. 400 solicitudes por minuto por proyecto

600 solicitudes por minuto por organización
Cantidad máxima de llamadas a dataPolicy.testIamPermissions. 400 solicitudes por minuto por proyecto

600 solicitudes por minuto por organización
Cantidad máxima de solicitudes de lectura. 1,200 solicitudes por minuto por proyecto

1,800 solicitudes por minuto por organización
Esto incluye las llamadas a dataPolicy.get y dataPolicy.getIamPolicy.
Cantidad máxima de solicitudes de escritura. 600 solicitudes por minuto por proyecto

900 solicitudes por minuto por organización

Esto incluye llamadas a:

Conjuntos de datos

Se aplican los siguientes límites a los conjunto de datos de BigQuery.

Límite Predeterminada Notas
Cantidad máxima de conjuntos de datos Ilimitada No hay límite para la cantidad de conjuntos de datos que puede tener un proyecto.
Cantidad de tablas por conjunto de datos Ilimitada Cuando usas una llamada a la API, se ralentiza el rendimiento de la enumeración a medida que te acercas a las 50,000 tablas por conjunto de datos. La consola de Google Cloud puede mostrar hasta 50,000 tablas por cada conjunto de datos.
Cantidad de recursos autorizados en la lista de control de acceso de un conjunto de datos 2,500 recursos La lista de control de acceso de un conjunto de datos puede tener hasta 2,500 recursos autorizados en total, incluidas las vistas autorizadas, los conjuntos de datos autorizados y las funciones autorizadas. Si superas este límite debido a una gran cantidad de vistas autorizadas, considera agrupar las vistas en conjuntos de datos autorizados.
Cantidad de operaciones de actualización de conjuntos de datos por conjunto de datos cada 10 segundos 5 operaciones Tu proyecto puede realizar hasta cinco operaciones de actualización de conjuntos de datos cada 10 segundos. El límite de actualización del conjunto de datos incluye todas las operaciones de actualización de metadatos que realizan los siguientes elementos:
Longitud máxima de la descripción de un conjunto de datos 16,384 caracteres Cuando agregas una descripción a un conjunto de datos, el texto puede tener, como máximo, 16,384 caracteres.

Tablas

Todas las tablas

Se aplican los siguientes límites a todas las tablas de BigQuery.

Límite Predeterminada Notas
Longitud máxima de la descripción de una columna 1,024 caracteres Cuando agregas una descripción a una columna, el texto puede tener 1,024 caracteres como máximo.
Profundidad máxima de los registros anidados 15 niveles Las columnas de tipo RECORD pueden contener tipos RECORD anidados, también llamados registros secundarios. El límite de profundidad de anidado máximo es de 15 niveles. Este límite es independiente de si los registros son escalares o basados en arrays (repetidos).

Tablas externas

Se aplican los siguientes límites a las tablas almacenadas en Cloud Storage en los formatos Parquet, ORC, Avro, CSV o JSON.

Límite Predeterminada Notas
Cantidad máxima de URI de origen por tabla externa 10,000 URI Cada tabla externa puede tener hasta 10,000 URI de origen.
Cantidad máxima de archivos por tabla externa 10,000,000 de archivos Una tabla externa puede tener hasta 10 millones de archivos, incluidos todos los archivos que coincidan con todos los URI comodines.
Tamaño máximo de los datos almacenados en Cloud Storage por tabla externa 600 TB Una tabla externa puede tener hasta 600 terabytes en todos los archivos de entrada. Este límite se aplica a los tamaños de archivo según lo almacenado en Cloud Storage. Este tamaño no es el mismo que el tamaño que se usa en la fórmula para calcular los precios de las consultas. En el caso de las tablas particionadas de forma externa, se aplica el límite después de la reducción de particiones.

Tablas particionadas

Se aplican los siguientes límites a las tablas particionadas de BigQuery.

Los límites de partición se aplican al total combinado de todos los Trabajos de carga, trabajos de copia y Trabajos de consulta que agreguen o reemplacen una partición de destino o que usen un DML DELETE ,INSERT ,MERGE ,TRUNCATE TABLE o UPDATE para afectar los datos en una tabla.

Las declaraciones DML se toman en cuenta en los límites de partición, pero no están limitadas por ellas. Para obtener más información sobre los límites de DML, consulta las declaraciones de lenguaje de manipulación de datos.

Un solo trabajo puede afectar a varias particiones. Por ejemplo, una declaración DML puede actualizar datos en múltiples particiones (tanto para tablas de tiempo de transferencia como para tablas particionadas). Los trabajos de carga y de consulta también pueden escribir en múltiples particiones, pero solo en tablas particionadas.

BigQuery usa la cantidad de particiones que afecta un mismo trabajo para determinar qué cantidad de límite consume el trabajo. Las inserciones de transmisión no afectan a este límite.

Si deseas obtener información sobre las estrategias para permanecer dentro de los límites de las tablas particionadas, consulta Soluciona problemas de errores de cuota.

Límite Predeterminada Notas
Cantidad de particiones por tabla particionada 4,000 particiones Cada tabla particionada puede tener hasta 4,000 particiones. Si superas este límite, considera usar el agrupamiento en clústeres además de la partición o en lugar de hacerlo.
Cantidad máxima de particiones modificadas mediante un solo trabajo 4,000 particiones Cada operación de trabajo (de consulta o carga) puede afectar hasta 4,000 particiones. BigQuery rechaza cualquier trabajo de consulta o carga que intente modificar más de 4,000 particiones.
Cantidad de modificaciones de particiones por tabla particionada por tiempo de transferencia por día 5,000 modificaciones. Tu proyecto puede realizar hasta 5,000 modificaciones de particiones por día en una tabla particionada por tiempo de transferencia.
La cantidad de modificaciones de partición por tabla particionada por columna por día 30,000 modificaciones

Tu proyecto puede realizar hasta 30,000 modificaciones de particiones por día en una tabla particionada por columnas.

Cantidad de modificaciones cada 10 segundos por tabla 50 modificaciones Tu proyecto puede ejecutar hasta 50 modificaciones por tabla particionada cada 10 segundos.
Cantidad de rangos posibles para la partición por rangos 10,000 rangos Una tabla particionada por rango puede tener hasta 10,000 rangos posibles. Este límite se aplica a la especificación de la partición cuando creas la tabla. Después de crear la tabla, el límite también se aplica a la cantidad real de particiones.

Tablas estándar

Se aplican los siguientes límites a las tablas estándares de BigQuery.

Límite Predeterminada Notas
Operaciones de tabla por día 1500 operaciones

Tu proyecto puede realizar hasta 1,500 operaciones por tabla por día, ya sea que la operación agregue datos a la tabla o la trunque. Este límite incluye el total combinado de todos los trabajos de carga,trabajos de copia y trabajos de consulta que anexan o reemplazan una tabla de destino o que usan una declaración DML DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE para escribir datos en una tabla.

Las declaraciones DML se toman en cuenta en la cantidad de operaciones de tabla por día. Para obtener más información sobre los límites de DML, consulta las instrucciones de lenguaje de manipulación de datos.

Frecuencia máxima de operaciones de actualización de metadatos de tabla por tabla 5 operaciones cada 10 segundos Tu proyecto puede realizar hasta cinco operaciones de actualización de metadatos de tablas cada 10 segundos por tabla. Este límite se aplica a todas las operaciones de actualización de metadatos de la tabla, realizadas por: Este límite también incluye el total combinado de todos los trabajos de carga, de copia y de consulta que agregan datos a una tabla de destino o la reemplazan. Este límite no se aplica a las operaciones DML.

Si excedes este límite, recibirás un mensaje de error como Exceeded rate limits: too many table update operations for this table. Este error es transitorio. puedes volver a intentarlo con una retirada exponencial.

Para identificar las operaciones que se consideran en este límite, puedes inspeccionar tus registros.

Cantidad máxima de columnas por tabla 10,000 columnas Cada tabla, resultado de la consulta o definición de la vista puede tener hasta 10,000 columnas.

Instantáneas de tablas

Se aplican los siguientes límites a las instantáneas de tabla de BigQuery:

Límite Predeterminada Notas
Cantidad máxima de trabajos de instantáneas de tablas simultáneas 100 trabajos Tu proyecto puede ejecutar hasta 100 trabajos de instantáneas de tabla simultáneos.
Cantidad máxima de trabajos de instantáneas de tablas por día 50,000 trabajos Tu proyecto puede ejecutar hasta 50,000 trabajos de instantáneas de tablas por día.
Cantidad máxima de trabajos por instantánea de tabla por día 50 trabajos Tu proyecto puede ejecutar hasta 50 trabajos diarios por instantánea de tabla.
Cantidad máxima de actualizaciones de metadatos por instantánea de tabla cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar los metadatos de una instantánea de tabla hasta cinco veces cada 10 segundos.

Vistas

Se aplican los siguientes límites a las vistas de BigQuery.

Límite Predeterminada Notas
Cantidad máxima de niveles de vistas anidadas 16 niveles BigQuery admite un máximo de 16 niveles de vistas anidadas. Si hay más de 16 niveles, se mostrará un error de INVALID_INPUT.
Longitud máxima de una consulta de SQL estándar usada para definir una vista 256,000 caracteres El texto de una consulta de SQL estándar que define una vista puede tener hasta 256,000 caracteres.
Cantidad máxima de vistas autorizadas por conjunto de datos Consulta Conjuntos de datos.

Seguridad a nivel de la fila

Se aplican los siguientes límites a las políticas de acceso a nivel de fila de BigQuery:

Límite Predeterminada Notas
Cantidad máxima de políticas de acceso de fila por tabla 100 políticas Una tabla puede tener hasta 100 políticas de acceso de fila.
Cantidad máxima de políticas de acceso de fila por consulta 100 políticas Una consulta puede acceder hasta un total de 100 políticas de acceso de fila.
Cantidad máxima de declaraciones DDL CREATE / DROP por política cada 10 segundos 5 declaraciones Tu proyecto puede realizar hasta cinco declaraciones CREATE o DROP por recurso de política de acceso de fila cada 10 segundos.
Declaraciones DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos 5 declaraciones Tu proyecto puede realizar hasta cinco declaraciones DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos.
Cantidad máxima de llamadas a rowAccessPolicies.list Consulta Límites para todas las API de BigQuery.
Cantidad máxima de llamadas a rowAccessPolicies.getIamPolicy Consulta Cuotas de la API de IAM.

Declaraciones de lenguaje de manipulación de datos

Los siguientes límites se aplican a las declaraciones de lenguaje de manipulación de datos (DML) de BigQuery:

Límite Predeterminada Notas
Declaraciones DML por día Ilimitada Las declaraciones DML se toman en cuenta en la cantidad de operaciones de tabla por día (o en la cantidad de operaciones de tablas particionadas por día para tablas particionadas). Sin embargo, la cantidad de declaraciones DML que tu proyecto puede ejecutar por día no es limitada. Una vez que se usa el límite diario de operaciones de tabla (o operaciones de tabla particionada), obtienes errores por operaciones de tabla que no son de DML. Pero puedes continuar ejecutando declaraciones DML sin obtener errores.

Por ejemplo, supongamos que tienes una tabla particionada por tiempo de transferencia llamada mytable. Si ejecutas 3,000 trabajos de copia que agregan datos a mytable$20210720 y 2,000 trabajos de consulta que usan INSERT para agregar datos a mytable$20210720, alcanzas el límite diario de modificaciones de partición. Una vez que alcances el límite, cualquier trabajo de copia adicional fallará, pero los trabajos de consulta basados en DML seguirán funcionando de manera correcta. Sin embargo, las declaraciones DML tienen sus propias limitaciones.
Declaraciones DML de mutación simultáneas por tabla 2 declaraciones BigQuery ejecuta hasta dos declaraciones DML de mutación simultáneas (UPDATE, DELETE y MERGE) para cada tabla. Las declaraciones DML adicionales de mutación para una tabla están en cola.
Declaraciones DML de mutación en cola por tabla 20 declaraciones Una tabla puede tener hasta 20 declaraciones DML de mutación en cola para su ejecución. Si envías declaraciones DML de mutación adicionales para la tabla, estas fallarán.
Tiempo máximo en cola para la declaración DML 6 hours Una declaración DML interactiva de prioridad puede esperar en la cola hasta por 6 horas. Si la declaración no se ejecuta después de seis horas, fallará.

Para obtener más información sobre las mutaciones de declaraciones DML, consulta Simultaneidad de DML INSERT y simultaneidad de DML UPDATE, DELETE, MERGE.

Inserciones de transmisión

Se aplican los siguientes límites y cuotas cuando transmites datos a BigQuery mediante la API de transmisión heredada. Si quieres obtener información sobre las estrategias para no superar estos límites, consulta Soluciona problemas de errores de cuota. Si excedes estas cuotas, recibirás errores de quotaExceeded.

Límite Predeterminada Notas
Cantidad máxima de bytes por segundo y por proyecto en las multirregiones us y eu 1 GB por segundo

Tu proyecto puede transmitir hasta 1 GB por segundo. Esta cuota es acumulativa en una multirregión determinada. Es decir, el límite de 1 GB se suma a la suma de bytes por segundo que se transmiten a todas las tablas de un proyecto determinado en una multirregión.

Si superas este límite, se generan errores quotaExceeded.

Si es necesario, puedes solicitar un aumento de cuota si te comunicas con Atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de cuota lleva tiempo en estar disponible, en especial en el caso de un aumento significativo.

Cantidad máxima de bytes por segundo y por proyecto en todas las demás ubicaciones 300 MB por segundo

Tu proyecto puede transmitir hasta 300 MB por segundo en todas las ubicaciones, excepto en las multirregiones us y eu. Esta cuota es acumulativa en una multirregión determinada. Es decir, el límite de 300 MB se aplica a la suma de bytes por segundo que se transmiten a todas las tablas de un proyecto determinado en una región.

Si superas este límite, se generan errores quotaExceeded.

Si es necesario, puedes solicitar un aumento de cuota si te comunicas con Atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de cuota lleva tiempo en estar disponible, en especial en el caso de un aumento significativo.

Tamaño máximo de fila 10 MB Si superas este valor, se generarán errores invalid.
Límite de tamaño de la solicitud HTTP 10 MB

Si superas este valor, se generarán errores invalid.

La solicitud se traduce de manera interna de HTTP JSON a una estructura de datos propia. La estructura de datos traducida tiene su propio límite de tamaño aplicado. Es difícil predecir el tamaño de la estructura de datos interna que se generará, pero si mantienes las solicitudes HTTP en 10 MB o menos, las probabilidades de alcanzar el límite interno serán bajas.

Máximo de filas por solicitud 50,000 filas Se recomienda una cantidad máxima de 500 filas. La agrupación en lotes puede aumentar el rendimiento y la capacidad de procesamiento hasta cierto punto, pero en detrimento de la latencia por solicitud. Una baja cantidad de filas por solicitud y la sobrecarga de cada solicitud pueden llevar a que la transferencia sea ineficiente. Si una solicitud abarca demasiadas filas, puedes observar una disminución en la capacidad de procesamiento. Experimenta con datos representativos (esquema y tamaño de datos) a fin de determinar el tamaño de lote ideal para tus datos.
Longitud del campo insertId 128 caracteres Si superas este valor, se generarán errores invalid.

Si deseas obtener una cuota de transmisión adicional, consulta Solicita un aumento de la cuota.

Funciones de tabla

Se aplican los siguientes límites a las funciones de tabla de BigQuery:

Límite Predeterminada Notas
Longitud máxima de un nombre de función de tabla 256 caracteres El nombre de una función de tabla puede tener hasta 256 caracteres.
Longitud máxima de un nombre de argumento 128 caracteres El nombre de un argumento de función de tabla puede tener hasta 128 caracteres de longitud.
Cantidad máxima de argumentos 256 argumentos Una función de tabla puede tener hasta 256 argumentos.
Profundidad máxima de una cadena de referencia de función de tabla 16 referencias Una cadena de referencia de función de tabla puede tener hasta 16 referencias de profundidad.
Profundidad máxima del argumento o resultado de tipo STRUCT: 15 niveles Un argumento STRUCT para una función de tabla puede tener hasta 15 niveles de profundidad. De modo similar, un registro STRUCT en el resultado de una función de tabla puede tener hasta 15 niveles de profundidad.
Cantidad máxima de campos en un argumento o tabla de muestra de tipo STRUCT por función de tabla 1,024 campos Un argumento STRUCT para una función de tabla puede tener hasta 1,024 campos. De manera similar, un registro STRUCT en el resultado de una función de tabla puede tener hasta 1,024 campos.
Cantidad máxima de columnas en la tabla de retorno 1,024 columnas Una tabla que muestra una función de tabla puede tener hasta 1,024 columnas.
Longitud máxima de los nombres de las columnas de la tabla de retorno 128 caracteres Los nombres de las columnas en las tablas que se muestran pueden tener hasta 128 caracteres.
Cantidad máxima de actualizaciones por función de tabla cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar una función de tabla hasta cinco veces cada 10 segundos.

UDF

Los siguientes límites se aplican a las funciones definidas por el usuario (UDF), tanto temporales como persistentes, en las consultas en SQL estándar de Google.

Límite Predeterminada Notas
Resultado máximo por fila 5 MB La cantidad máxima de datos que tu UDF de JavaScript puede generar cuando procesa una única fila es de alrededor de 5 MB.
Cantidad máxima de consultas simultáneas de SQL heredado con UDF de JavaScript 6 consultas Tu proyecto puede tener hasta seis consultas de SQL heredado simultáneas que contengan UDF en JavaScript. Este límite incluye consultas tanto interactivas como por lotes. También se toman en cuenta las consultas interactivas que contienen UDF en el límite de frecuencia de simultaneidad de las consultas interactivas. No se aplica este límite a consultas de SQL estándar.
Recursos máximos de UDF de JavaScript por consulta 50 recursos Un trabajo de consulta puede tener hasta 50 recursos de UDF de JavaScript, como archivos externos o BLOB de código intercalados.
Tamaño máximo del BLOB de código intercalado 32 KB Un BLOB de código intercalado en una UDF puede tener un tamaño de hasta 32 KB.
Tamaño máximo de cada recurso de código externo 1 MB El tamaño máximo de cada recurso de código JavaScript es de 1 MB.

Se aplican los siguientes límites a las UDF persistentes:

Límite Predeterminada Notas
Longitud máxima de un nombre de UDF 256 caracteres Los nombres de las UDF pueden tener hasta 256 caracteres.
Cantidad máxima de argumentos 256 argumentos Una UDF puede tener hasta 256 argumentos.
Longitud máxima de un nombre de argumento 128 caracteres Los nombres de los argumentos de las UDF pueden tener hasta 128 caracteres.
Profundidad máxima de una cadena de referencia de UDF 16 referencias Una cadena de referencia de UDF puede tener hasta 16 referencias de profundidad.
Profundidad máxima de un argumento o resultado de tipo STRUCT 15 niveles Un argumento o resultado de UDF de tipo STRUCT puede tener hasta 15 niveles de profundidad.
Cantidad máxima de campos en los argumentos o resultados de tipo STRUCT por UDF 1,024 campos Una UDF puede tener hasta 1,024 campos en los argumentos y resultados de tipo STRUCT.
Cantidad máxima de bibliotecas JavaScript en una declaración CREATE FUNCTION 50 bibliotecas Una declaración CREATE FUNCTION puede tener hasta 50 bibliotecas de JavaScript.
Longitud máxima de las rutas de acceso a bibliotecas JavaScript incluidas 5,000 caracteres La ruta de acceso a una biblioteca de JavaScript incluida en una UDF puede tener hasta 5,000 caracteres.
Frecuencia de actualización máxima por UDF cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar una UDF hasta cinco veces cada 10 segundos.
Cantidad máxima de UDF autorizados por conjunto de datos Consulta Conjuntos de datos.

Funciones remotas

Se aplican los siguientes límites a las funciones remotas en BigQuery.

Límite Predeterminada Notas
Cantidad máxima de consultas simultáneas que contienen funciones remotas 10 consultas Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto.
Límite de tamaño de respuesta HTTP (1.a gen.) de Cloud Functions 10 MB El cuerpo de la respuesta HTTP de tu 1ª gen. de Cloud Functions es de hasta 10 MB. Si superas este valor, se generarán errores en la consulta.
Límite de tamaño de respuesta HTTP (Cloud Functions de 2ª gen. o Cloud Run) 15 MB El cuerpo de la respuesta HTTP de tu función de Cloud Function de 2ª gen. o Cloud Run es de hasta 15 MB. Si superas este valor, se generan fallas en la consulta.
Límite máximo de tiempo de invocación HTTP (1ª gen. de Cloud Functions) 9 minutos Puedes configurar tu propio límite de tiempo para la 1ª gen. de Cloud Functions para una invocación HTTP individual, pero el límite de tiempo máx. es de 9 minutos. Superar el límite de tiempo establecido para tu 1ª gen. de Cloud Functions puede causar fallas en la invocación de HTTP y en las consultas después de una cantidad limitada de reintentos.
Límite de tiempo de invocación HTTP (Cloud Functions (2nd gen o Cloud Run) 20 minutos El límite de tiempo de una invocación HTTP individual a tu Cloud Function de segunda generación o Cloud Run. Superar este valor puede causar fallas en la invocación de HTTP y en la consulta después de una cantidad limitada de reintentos.

Consultas de varias declaraciones

Se aplican los siguientes límites a las consultas de varias declaraciones en BigQuery.

Límite Predeterminada Notas
Límite de tiempo acumulado 24 horas El límite de tiempo acumulativo para una consulta de varias declaraciones es de 24 horas.
Límite de tiempo de la declaración 6 hours El límite de tiempo para una declaración individual en una consulta de varias declaraciones es de 6 horas.

API de BigQuery

En esta sección, se describen las cuotas y los límites que se aplican a todas las solicitudes a la API de BigQuery, y las cuotas y los límites que se aplican a los tipos específicos de solicitudes a la API.

Todas las API de BigQuery

Se aplica la siguiente cuota a todas las solicitudes a la API de BigQuery:

Cuota Predeterminada Notas
Solicitudes por día Ilimitada Tu proyecto puede realizar una cantidad ilimitada de solicitudes a la API de BigQuery por día.
Ver la cuota en la consola de Google Cloud

Se aplican los siguientes límites a todas las solicitudes a la API de BigQuery:

Límite Predeterminada Notas
Cantidad máxima de solicitudes a la API por segundo, por usuario y por método 100 solicitudes Un usuario puede realizar hasta 100 solicitudes a la API por segundo a un método de API. Si un usuario realiza más de 100 solicitudes por segundo a un método, es posible que se les aplique un límite. No se aplica este límite a las inserciones de transmisión.
Cantidad máxima de solicitudes simultáneas a la API por usuario 300 solicitudes Si un usuario realiza más de 300 solicitudes simultáneas, es posible que se aplique un límite. Este límite no se aplica a inserciones de transmisión.
Tamaño máximo del encabezado de la solicitud 16 KiB Tu solicitud a la API de BigQuery puede ser de hasta 16 KiB, incluida la URL de la solicitud y todos los encabezados. Este límite no se aplica al cuerpo de la solicitud, por ejemplo, en una solicitud POST.

Solicitudes jobs.get

Se aplica el siguiente límite a las solicitudes a la API jobs.get:

Límite Predeterminada Notas
Cantidad máxima de solicitudes jobs.get por segundo 1,000 solicitudes Tu proyecto puede realizar hasta 1,000 solicitudes jobs.get por segundo.

Solicitudes jobs.query

Se aplica el siguiente límite a las solicitudes a la API jobs.query:

Límite Predeterminada Notas
Tamaño máximo de la respuesta de jobs.query 20 MB De forma predeterminada, no hay un recuento de filas máximo para la cantidad de filas de datos que se muestran en jobs.query por cada página de resultados. Sin embargo, estás limitado a un tamaño máximo de respuesta de 20 MB. Puedes modificar la cantidad de filas que se muestran mediante el parámetro maxResults.

Solicitudes projects.list

Se aplica el siguiente límite a las solicitudes a la API projects.list:

Límite Predeterminada Notas
Cantidad máxima de solicitudes projects.list por segundo 2 solicitudes Tu proyecto puede realizar hasta dos solicitudes projects.list por segundo.

Solicitudes tabledata.list

Se aplica la siguiente cuota a las solicitudes tabledata.list. Otras API, incluidas jobs.getQueryResults y que recuperan resultados de jobs.query y jobs.insert también puede consumir esta cuota.

Cuota Predeterminada Notas
Bytes de listas de tabledata por minuto 3.6 GB Tu proyecto puede mostrar un máximo de 3.6 GB de datos de filas de la tabla por minuto. Esta cuota se aplica al proyecto que contiene la tabla que se lee.
Ver la cuota en la consola de Google Cloud

Se aplican los siguientes límites a las solicitudes tabledata.list:

Límite Predeterminada Notas
Cantidad máxima de solicitudes tabledata.list por segundo 1,000 solicitudes Tu proyecto puede realizar hasta 1,000 solicitudes tabledata.list por segundo.
Cantidad máxima de filas que muestran las solicitudes tabledata.list por segundo 150,000 filas Tu proyecto puede mostrar hasta 150,000 filas por segundo mediante las solicitudes tabledata.list. Este límite se aplica al proyecto que contiene la tabla que se está leyendo.
Cantidad máxima de filas por respuesta de tabledata.list 100,000 filas Una llamada a tabledata.list puede mostrar hasta 100,000 filas de tabla. Para obtener más información, consulta Desplázate por los resultados mediante la API.

Solicitudes tables.insert

Con el método tables.insert, se crea una nueva tabla vacía dentro del conjunto de datos. Se aplica el siguiente límite a las solicitudes a la API tables.insert. Este límite incluye las instrucciones de SQL que crean tablas, como CREATE TABLE y las consultas con las que se escriben resultados en tablas de destino.

Límite Predeterminada Notas
Cantidad máxima de solicitudes tables.insert por segundo 10 solicitudes Tu proyecto puede realizar hasta 10 solicitudes tables.insert por segundo.

API de BigQuery Connection

Se aplican las siguientes cuotas a las llamadas a la API de conexión de BigQuery:

Cuota Predeterminada Notas
Solicitudes de lectura por minuto 1,000 solicitudes Tu proyecto puede realizar hasta 1,000 solicitudes por minuto a los métodos de la API de conexión de BigQuery que leen datos de conexión.
Ver la cuota en la consola de Google Cloud
Solicitudes de escritura por minuto 100 solicitudes por minuto Tu proyecto puede realizar hasta 100 solicitudes por minuto a los métodos de la API de conexión de BigQuery que crean o actualizan conexiones.
Ver la cuota en la consola de Google Cloud

API de BigQuery Migration

Se aplican los siguientes límites a la API de BigQuery Migration:

Límite Predeterminada Notas
Tamaño de archivo individual para la traducción de SQL por lotes 10 MB Cada archivo individual de origen y metadatos puede tener hasta 10 MB. No se aplica este límite al archivo ZIP de metadatos que genera la herramienta de línea de comandos de dwh-migration-dumper.
Tamaño total de los archivos de origen para la traducción de SQL por lotes 1 GB El tamaño total de todos los archivos de entrada subidos a Cloud Storage puede ser de hasta 1 GB. Esto incluye todos los archivos fuente y los archivos de metadatos si eliges incluirlos.
Tamaño de la string de entrada para la traducción de SQL interactiva < 1 MB La string que ingreses para la traducción de SQL interactiva debe ser inferior a 1 MB.

Se aplican las siguientes cuotas a la API de BigQuery Migration:

Cuota Predeterminada Notas

Solicitudes de listas de servicios de EDWMigration por minuto

Solicitudes de listas de servicios de EDWMigration por minuto y por usuario

25,000 solicitudes

5,000 solicitudes

Tu proyecto puede realizar hasta 25,000 solicitudes de la lista de la API de migración por minuto.

Cada usuario puede realizar hasta 5,000 solicitudes de lista de la API de migración por minuto.

Ver cuotas en la consola de Google Cloud

Solicitudes Get de servicios de EDWMigration por minuto

Solicitudes Get de servicio de EDWMigration por minuto y por usuario

50,000 solicitudes

5,000 solicitudes

Tu proyecto puede realizar hasta 50,000 solicitudes de obtención de la API de migración por minuto.

Cada usuario puede realizar hasta 5,000 solicitudes Get de la API de migración por minuto.

Ver cuotas en la consola de Google Cloud

Otras solicitudes de servicio de EDWMigration por minuto

Otras solicitudes de servicio de EDWMigration por minuto y por usuario

50 solicitudes

10 solicitudes

Tu proyecto puede realizar hasta 50 solicitudes a la API de migración más por minuto.

Cada usuario puede realizar hasta 10 solicitudes a la API de migración más por minuto.

Ver cuotas en la consola de Google Cloud

Solicitudes de traducción de SQL interactivas por minuto

Solicitudes interactivas de traducción de SQL por minuto y por usuario

500 solicitudes

100 solicitudes

Tu proyecto puede realizar hasta 500 solicitudes de servicio de traducción de SQL por minuto.

Cada usuario puede realizar hasta 100 solicitudes de servicio de traducción de SQL más por minuto.

Ver cuotas en la consola de Google Cloud

API de BigQuery Reservation

Se aplican las siguientes cuotas a la API de reservación de BigQuery:

Cuota Predeterminada Notas
Solicitudes por minuto, por región 100 solicitudes Tu proyecto puede realizar un total de hasta 100 llamadas a los métodos de la API de reservación de BigQuery por minuto y por región.
Ver cuotas en la consola de Google Cloud
Cantidad de llamadas por minuto a la región SearchAllAssignments 100 solicitudes Tu proyecto puede realizar hasta 100 llamadas al método SearchAllAssignments por minuto y por región.
Ver cuotas en la consola de Google Cloud
Solicitudes de SearchAllAssignments por minuto, por región y por usuario 10 solicitudes Cada usuario puede realizar hasta 10 llamadas al método SearchAllAssignments por minuto y por región.
Visualiza las cuotas en la consola de Google Cloud
(En los resultados de la búsqueda de la consola de Google Cloud, busca lo siguiente: por usuario).
Cantidad total de ranuras para la región de la UE 2,000 ranuras Cantidad máxima de ranuras de BigQuery que puedes comprar en la multirregión de la UE mediante la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para la región de EE.UU. 4,000 ranuras Cantidad máxima de ranuras de BigQuery que puedes comprar en la multirregión de EE.UU. con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para las siguientes regiones: asia-northeast1, asia-northeast3, australia-southeast1, europe-west2 y northamerica-northeast1 1,000 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en cada una de las regiones enumeradas con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para regiones de Omnis (aws-us-east-1 y azure-eastus2) 100 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en las regiones de Omni mediante la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para todas las demás regiones 500 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en cada región con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud

API de IAM

Se aplican las siguientes cuotas cuando usas la funcionalidad de Identity and Access Management en BigQuery para recuperar y establecer políticas de IAM, y probar los permisos de IAM.

Cuota Predeterminada Notas
Solicitudes IamPolicy por minuto 3,000 solicitudes Tu proyecto puede realizar hasta 3,000 solicitudes de IAM por segundo.
Ver la cuota en la consola de Google Cloud
Solicitudes IamPolicy por minuto y por usuario 1,500 solicitudes Cada usuario puede realizar hasta 1,500 solicitudes de IAM por minuto por proyecto.
Ver la cuota en la consola de Google Cloud

API de Storage Read

Las siguientes cuotas se aplican a las solicitudes a la API de BigQuery Storage Read.:

Cuota Predeterminada Notas
Solicitudes de lectura de plano de datos por minuto y por usuario 25,000 solicitudes Cada usuario puede realizar hasta 25,000 llamadas ReadRows por minuto y por proyecto.
Ver la cuota en la consola de Google Cloud
Solicitudes del plano de control de lectura por minuto y por usuario 5,000 solicitudes Cada usuario puede realizar hasta 5,000 llamadas de operaciones de metadatos de la API de Storage Read por minuto y por proyecto. Las llamadas de metadatos incluyen los métodos CreateReadSession y SplitReadStream.
Ver la cuota en la consola de Google Cloud

Los siguientes límites se aplican a las solicitudes a la API de BigQuery Storage Read:

Límite Predeterminada Notas
Longitud máxima del filtro o fila 1 MB Cuando usas la llamada CreateReadSession de la API de lectura de almacenamiento, tienes un límite de longitud de 1 MB para cada fila o filtro.
Tamaño máximo de datos serializados 128 MB Cuando usas la llamada ReadRows de la API de Storage Read, la representación serializada de los datos en un mensaje ReadRowsResponse individual no puede superar los 128 MB.
Cantidad máxima de conexiones simultáneas 2,000 en multirregiones; 400 en regiones Puedes abrir un máximo de 2,000 conexiones ReadRows simultáneas por proyecto en las multirregiones us y eu, y 400 conexiones ReadRows simultáneas en otras regiones. En algunos casos, puedes estar limitado a una cantidad menor de conexiones simultáneas que las de este límite.

API de Storage Write

Las siguientes cuotas se aplican a las solicitudes a la API de Storage Write:

Cuota Predeterminada Notas
Conexiones simultáneas 10,000 en multirregiones; 1,000 en regiones Tu proyecto puede operar con 10,000 conexiones simultáneas en las multirregiones us y eu, y 1,000 en otras regiones.
Ver la cuota en la consola de Google Cloud
Bytes de transmisión pendientes 10 TB en multirregiones; 1 TB en regiones Por cada confirmación que actives, puedes confirmar hasta 10 TB en las multiregiones us y eu, y 1 TB en otras regiones.
Ver la cuota en la consola de Google Cloud
Capacidad de procesamiento 3 GB de capacidad de procesamiento por segundo en multirregiones; 300 MB por segundo en regiones Puedes transmitir hasta 3 GBps en las multirregiones us y eu, y 300 MBps en otras regiones por proyecto.
Ver la cuota en la consola de Google Cloud
Solicitudes CreateWriteStream 30,000 transmisiones cada 4 horas por proyecto Puedes llamar a CreateWriteStream hasta 30,000 veces por 4 horas por proyecto. Considera usar la transmisión predeterminada si realmente no necesitas una semántica única.
Ver la cuota en la consola de Google Cloud

Se aplican los siguientes límites a las solicitudes a la API de Storage Write:

Límite Predeterminada Notas
Confirmaciones por lotes 10,000 transmisiones por tabla Puedes confirmar hasta 10,000 transmisiones en cada llamada BatchCommitWriteStream.
Tamaño de la solicitud 10 MB El tamaño máximo solicitado es de 10 MB.

BigQuery BI Engine

Se aplican los siguientes límites a BigQuery BI Engine.

Límite Predeterminada Notas
Tamaño máximo de la reserva por proyecto y por ubicación (interfaz de SQL) 250 GB Se aplica cuando se usa BI Engine con herramientas de inteligencia empresarial (IE) que no sean Data Studio.

Puedes solicitar un aumento de la capacidad máxima de la reserva para tus proyectos.
Tamaño máximo de la reserva por proyecto y por ubicación (Data Studio) 100 GB Se aplica cuando se usa BI Engine con Data Studio. Este límite no afecta el tamaño de las tablas que consultas mientras BI Engine carga en la memoria solo las columnas que se usan en tus consultas, no la tabla completa.
Tamaño máximo del modelo de datos por tabla (Data Studio) 10 GB Se aplica cuando se usa BI Engine con Data Studio. Si tienes una reserva de 100 GB por proyecto y ubicación, BI Engine limitará la reserva por tabla a 10 GB. El resto de la reserva disponible se usa en las demás tablas del proyecto.
Cantidad máxima de particiones por tabla (Data Studio) 500 particiones BI Engine para Data Studio admite un máximo de 500 particiones por tabla.
Cantidad máxima de filas por consulta (Data Studio) 150 millones BI Engine para Data Studio admite hasta 150 millones de filas de datos consultados, según la complejidad de la consulta.

Límites de consultas

Si ejecutas una consulta que genera resultados cuyo tamaño supera tu capacidad de BI Engine, la función de ajuste automático de BI Engine usa ranuras de BigQuery para ejecutarla. Cuando se usan las ranuras de BigQuery para ejecutar una consulta, este trabajo se cobra en función de los precios de consultas a pedido de BigQuery. Cuando se usan ranuras para ejecutar una consulta, se aplican todas las cuotas y los límites de los trabajos de consulta de BigQuery.

Analytics Hub

Se aplican los siguientes límites a Analytics Hub:

Límite Predeterminada Notas
Cantidad máxima de intercambios de datos por proyecto 500 Puedes crear hasta 500 intercambios de datos en un proyecto.
Cantidad máxima de fichas por intercambio de datos 1,000 Puedes crear hasta 1,000 fichas en un intercambio de datos.
Cantidad máxima de conjuntos de datos vinculados por conjunto de datos compartidos 1,000 Todos los suscriptores de Analytics Hub, combinados, pueden tener un máximo de 1,000 conjuntos de datos vinculados por conjunto de datos compartidos.