Cuotas y límites

En este documento, se enumeran las cuotas y los límites del sistema que se aplican a BigQuery.

  • Las cuotas especifican la cantidad de un recurso compartido contable que puedes usar. Las cuotas se definen según los servicios de Google Cloud, como BigQuery.
  • Los límites del sistema son valores fijos que no se pueden cambiar.

Google Cloud usa cuotas para garantizar la equidad y reducir los aumentos repentinos en el uso y la disponibilidad de los recursos. Una cuota restringe la cantidad de un recurso de Google Cloud que puede usar tu proyecto de Google Cloud. Las cuotas se aplican a una variedad de tipos de recursos, incluidos los componentes de hardware, software y red. Por ejemplo, las cuotas pueden restringir la cantidad de llamadas a la API para un servicio, la cantidad de balanceadores de cargas que se usan en simultáneo en tu proyecto o la cantidad de proyectos que puedes crear. Las cuotas protegen a la comunidad de usuarios de Google Cloud mediante la prevención de la sobrecarga de los servicios. También te ayudan a administrar tus propios recursos de Google Cloud.

El sistema de cuotas Cloud realiza las siguientes acciones:

  • Supervisa el consumo de productos y servicios de Google Cloud.
  • Restringe el consumo de esos recursos.
  • Proporciona un medio para solicitar cambios en el valor de la cuota.

En la mayoría de los casos, cuando intentas consumir más de lo que permite la cuota de un recurso, el sistema bloquea el acceso al recurso, y la tarea que intentas realizar falla.

Por lo general, las cuotas se aplican a nivel del proyecto de Google Cloud. El uso de un recurso en un proyecto no afecta tu cuota disponible en otro proyecto. Dentro de un proyecto de Google Cloud, las cuotas se comparten entre todas las aplicaciones y direcciones IP.

También existen límites del sistema para los recursos de BigQuery. Los límites del sistema no se pueden cambiar.

De forma predeterminada, las cuotas y los límites de BigQuery se aplican por proyecto. Las cuotas y los límites que se aplican con criterios diferentes se indican según corresponda, por ejemplo, la cantidad máxima de columnas por tabla o la cantidad máxima de solicitudes a la API simultáneas por usuario. Las políticas específicas varían según la disponibilidad de los recursos, el perfil del usuario, el historial de Service Usage y otros factores, y están sujetas a cambios sin previo aviso.

Restablecimiento de cuotas

Las cuotas diarias se restablecen en intervalos regulares durante el día para reflejar su propósito de orientar comportamientos que limiten las frecuencias. También se realizan actualizaciones intermitentes para evitar interrupciones prolongadas cuando una cuota se agota. Por lo general, se habilita más capacidad de la cuota en unos minutos en lugar de restablecerla por completo una vez al día.

Solicitar un aumento de cuota

Para ajustar la mayoría de las cuotas, usa la consola de Google Cloud. Para obtener más información, consulta Solicita un ajuste de cuota.

Si deseas obtener una guía paso a paso durante el proceso de solicitud de aumento de cuota en la consola de Google Cloud, haz clic en Guíame:

GUIARME

Limita el uso de cuota

Si deseas obtener información para limitar el uso de un recurso en particular a través de la creación de una anulación de cuota, consulta Crea una anulación de cuota.

Permisos necesarios

Para ver y actualizar tus cuotas de BigQuery en la consola de Google Cloud, necesitas los mismos permisos que cualquier cuota de Google Cloud. Para obtener más información, consulta los permisos de cuota de Google Cloud.

Solucionar problemas

Si deseas obtener más información para solucionar errores relacionados con las cuotas y los límites, consulta Soluciona problemas de errores de cuota de BigQuery.

Trabajos

Las cuotas y los límites se aplican a los trabajos que BigQuery ejecuta por ti, ya sea que se ejecuten a través de la consola de Google Cloud, la herramienta de línea de comandos de bq o de manera programática a través de la API de REST o las bibliotecas cliente.

Trabajos de consulta

Se aplican los siguientes límites a trabajos de consulta creados automáticamente a través de la ejecución de consultas interactivas y programadas, y trabajos enviados a través de jobs.query y métodos de API de consulta jobs.insert:

Cuota Predeterminada Notas
Uso de consultas por día Ilimitado No hay límite para la cantidad de bytes que pueden procesarse en las consultas de un proyecto.
Ver la cuota en la consola de Google Cloud
Uso de consultas por día por usuario Ilimitado No hay límite para la cantidad de bytes que las consultas de un usuario pueden procesar cada día.
Ver la cuota en la consola de Google Cloud
Bytes entre regiones de consultas federadas de Cloud SQL por día 1 TB Si la ubicación de procesamiento de consultas de BigQuery y la ubicación de la instancia de Cloud SQL son distintas, la consulta es entre regiones. Tu proyecto puede ejecutar hasta 1 TB en consultas entre regiones por día. Revisa Consultas federadas de Cloud SQL.
Ver la cuota en la consola de Google Cloud
Bytes transferidos entre nubes por día 1 TB Puedes transferir hasta 1 TB de datos por día desde un bucket de Amazon S3 o desde Azure Blob Storage. Para obtener más información, consulta Transferencia entre nubes de Amazon S3 y Azure.
Ver la cuota en la consola de Google Cloud

Se aplican los siguientes límites a trabajos de consulta creados automáticamente a través de la ejecución de consultas interactivas y programadas, y trabajos enviados a través de jobs.query y métodos de tipo de consulta de la API jobs.insert:

Límite Predeterminada Notas
Cantidad máxima de consultas interactivas en cola 1,000 consultas Tu proyecto puede poner en cola hasta 1,000 consultas interactivas. Las consultas interactivas adicionales que superan este límite muestran un error de cuota.
Cantidad máxima de consultas por lotes en cola 20,000 consultas Tu proyecto puede poner en cola hasta 20,000 consultas por lotes. Las consultas por lotes adicionales que superan este límite muestran un error de cuota.
Cantidad máxima de consultas interactivas simultáneas en fuentes externas de datos de Bigtable 16 consultas Tu proyecto puede ejecutar hasta dieciséis consultas simultáneas en una fuente de datos externa de Bigtable.
Cantidad máxima de consultas simultáneas que contienen funciones remotas 10 consultas Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto.
Cantidad máxima de consultas simultáneas de varias declaraciones 1,000 consultas de varias declaraciones Tu proyecto puede ejecutar hasta 1,000 consultas de varias declaraciones simultáneas. Para conocer otras cuotas y límites relacionados con las consultas de varias sentencias, ve a Consultas de varias sentencias.
Cantidad máxima de consultas heredadas en SQL simultáneas que contienen UDF 6 consultas Tu proyecto puede ejecutar hasta seis consultas de SQL heredado simultáneas con funciones definidas por el usuario (UDF). Este límite incluye consultas interactivas y por lotes. También se toman en cuenta las consultas interactivas que contienen UDF en el límite de simultaneidad de las consultas interactivas. Este límite no se aplica a consultas de GoogleSQL.
Límite diario de tamaño de las consultas Ilimitado De forma predeterminada, no hay un límite de tamaño de consulta diario. Sin embargo, puedes establecer límites para la cantidad de datos que los usuarios pueden consultar a través de la creación de cuotas personalizadas para controlar el uso de consultas por día o el uso de consultas por día por usuario.
Límite diario de actualización de tablas de destino Consulta Cantidad máxima de operaciones en tablas por día. Las actualizaciones de las tablas de destino en un trabajo de consulta se tienen en cuenta para el límite en la cantidad máxima de operaciones en tabla por día para las tablas de destino. Las actualizaciones de tablas de destino incluyen operaciones que agregan y reemplazan datos, las cuales se realizan a través de consultas que se ejecutan con la consola de Google Cloud, la herramienta de línea de comandos de bq o a través de una llamada a los métodos de API jobs.query y de tipo de consulta jobs.insert.
Límite de tiempo de ejecución de las consultas o consultas de varias declaraciones 6 horas

Una consulta o una consulta de varias declaraciones puede ejecutarse hasta por 6 horas. Luego de ese tiempo, fallará. Sin embargo, a veces se reintentan las consultas. Una consulta se puede probar hasta tres veces, y cada intento se puede ejecutar hasta por 6 horas. Como resultado, es posible que una consulta tenga un entorno de ejecución total superior a 6 horas.

El tiempo de espera de trabajo de CREATE MODEL es de 24 horas de forma predeterminada, excepto para las series temporales, AutoML y los trabajos de ajuste de hiperparámetros que tienen un tiempo de espera de 72 horas.

Cantidad máxima de recursos referenciados por consulta 1,000 recursos Una consulta puede hacer referencia hasta un total de 1,000 tablas únicas, vistas únicas, funciones definidas por el usuario (UDF) únicas, y funciones de tabla únicas después de una expansión completa. Este límite incluye lo siguiente:
  • Tablas, vistas, UDF y funciones de tabla a las que hace referencia la consulta de forma directa.
  • Tablas, vistas, UDF y funciones de tabla a las que hacen referencia otras vistas, UDF y funciones de tabla a las que se hace referencia en la consulta.
Longitud máxima de caracteres para consultas de SQL 1,024 KB en caracteres Una consulta de SQL puede tener hasta 1,024 KB en caracteres. Este límite incluye comentarios y espacios en blanco. Si tu consulta es más larga, recibirás el siguiente error: The query is too large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes con parámetros de consulta y dividir una consulta larga en varias consultas en la sesión.
Longitud máxima de consultas de SQL heredado sin resolver 256 KB Una consulta de SQL heredado sin resolver puede tener hasta 256 KB. Si tu consulta es más larga, recibes el siguiente error: The query is too large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes por parámetros de consulta.
Longitud máxima de consultas de GoogleSQL sin resolver 1 MB Una consulta de GoogleSQL sin resolver puede tener hasta 1 MB de longitud. Si tu consulta es más larga, recibes el siguiente error: The query is too large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes con parámetros de consulta.
Longitud máxima de consulta de GoogleSQL heredada y resuelta 12 MB El límite de la longitud de las consultas resueltas incluye la longitud de todas las vistas y tablas de comodines a las que se hace referencia en la consulta.
Cantidad máxima de parámetros de consulta de GoogleSQL 10,000 parámetros Una consulta de GoogleSQL puede tener hasta 10,000 parámetros.
Tamaño máximo de la solicitud 10 MB El tamaño de la solicitud puede ser de hasta 10 MB, incluidas las propiedades adicionales, como los parámetros de consulta.
Tamaño máximo de la respuesta 10 GB comprimidos Los tamaños varían según el índice de compresión de los datos. El tamaño real de respuesta puede ser mucho mayor que 10 GB. El tamaño máximo de respuesta es ilimitado cuando se escriben los resultados de una consulta grande en una tabla de destino.
Tamaño máximo de fila 100 MB El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. Este se aplica durante ciertas etapas de la ejecución del trabajo de consulta.
Cantidad máxima de columnas en una tabla, resultado de consulta o definición de la vista 10,000 columnas Una definición de tabla, resultado de consulta o vista puede tener hasta 10,000 columnas. Esto incluye columnas anidadas y repetidas.
Cantidad máxima de ranuras simultáneas para precios según demanda 2,000 ranuras por proyecto

20,000 ranuras por organización
Con los precios según demanda, tu proyecto puede tener hasta 2,000 ranuras simultáneas. También hay un límite de 20,000 ranuras simultáneas a nivel de la organización. BigQuery intenta asignar ranuras de manera equitativa entre los proyectos dentro de una organización si su demanda total es superior a 20,000 ranuras. Las ranuras de BigQuery se comparten entre todas las consultas de un mismo proyecto. BigQuery podría sobrepasar este límite en aumentos repentinos de actividad para acelerar las consultas. Para verificar la cantidad de ranuras que usas, consulta Supervisa BigQuery a través de Cloud Monitoring.
Uso máximo de CPU por datos analizados para los precios según demanda 256 segundos de CPU por MiB analizado Con los precios según demanda, tu consulta puede usar hasta 256 segundos de CPU por cada MiB de datos analizados. Si tu consulta requiere demasiado CPU para la cantidad de datos que se procesan, la consulta fallará con un error billingTierLimitExceeded. Para obtener más información, consulta billingTierLimitExceeded.
Mutaciones de las tablas de transacciones de varias declaraciones 100 tablas Una transacción puede mutar datos en un máximo de 100 tablas.
Modificaciones de particiones de transacciones de varias declaraciones 100,000 modificaciones de particiones Una transacción puede realizar como máximo 100,000 modificaciones de particiones.
Tamaño máximo de resultados de consulta de BigQuery Omni 20 GiB sin comprimir El tamaño máximo de resultado es de 20 GiB de bytes lógicos cuando se consultan datos de Azure o AWS. Si el resultado de tu consulta es mayor a 20 GiB, considera exportar los resultados a Amazon S3 o Blob Storage. Para obtener más información, consulta las limitaciones de BigQuery Omni.
Tamaño total de resultados de consultas de BigQuery Omni por día 1 TB Los tamaños totales de los resultados de las consultas de un proyecto son de 1 TB por día. Para obtener más información, consulta las limitaciones de BigQuery Omni.
Tamaño máximo de fila de BigQuery Omni 10 MiB El tamaño máximo de fila es de 10 MiB cuando se consultan datos de Azure o AWS. Para obtener más información, consulta las limitaciones de BigQuery Omni.

A pesar de que en las consultas programadas se usa el Servicio de transferencia de datos de BigQuery, estas no se transfieren y no están sujetas a límites de trabajo de carga.

Trabajos de exportación

Se aplican los siguientes límites a los trabajos que exportan datos desde BigQuery a través de la herramienta de línea de comandos de bq, la consola de Google Cloud o el método de API de exportación jobs.insert.

Límite Predeterminada Notas
La cantidad máxima de bytes exportados por día 50 TiB Puedes exportar hasta 50 TiB (Tebibytes) de datos por día desde un proyecto sin costo mediante el grupo de ranuras compartidas. Puedes configurar una política de alertas de Cloud Monitoring que proporcione una notificación de la cantidad de bytes exportados. Si deseas exportar más de 50 TiB (Tebibytes) de datos al día, realiza una de las siguientes acciones:
Cantidad máxima de trabajos de exportación por día 100,000 exportaciones Puedes ejecutar hasta 100,000 exportaciones por día en un proyecto. Para ejecutar más de 100,000 exportaciones por día, realiza una de las siguientes acciones:
Tamaño máximo de la tabla exportada a un solo archivo 1 GB Puedes exportar hasta 1 GB de datos de tablas a un solo archivo. Si necesitas exportar más de 1 GB de datos, usa un comodín para exportar los datos a varios archivos. Cuando exportas datos a varios archivos, el tamaño de estos puede variar. En algunos casos, el tamaño de los archivos de salida es de más de 1 GB.
URI comodín por exportación 500 URI Una exportación puede tener hasta 500 URI comodines.

Para obtener más información sobre cómo ver el uso actual de tu trabajo de exportación, consulta Visualiza el uso actual de la cuota.

Trabajos de carga

Se aplican los siguientes límites cuando cargas datos en BigQuery a través de la consola de Google Cloud, la herramienta de línea de comandos de bq o el tipo de carga del método jobs.insert de la API.

Límite Predeterminada Notas
Trabajos de carga por tabla por día 1,500 trabajos Los trabajos de carga, incluidos los trabajos de carga con errores, se tienen en cuenta en la cantidad máxima de operaciones de tabla por día para la tabla de destino. Si deseas obtener información sobre los límites de cantidad de operaciones de tablas por día para tablas estándar y particionadas, consulta Tablas.
Trabajos de carga por día 100,000 trabajos Tu proyecto se reabastece con un máximo de 100,000 cuotas de trabajos de carga cada 24 horas. Los trabajos de carga con errores se consideran en este límite. En algunos casos, es posible ejecutar más de 100,000 trabajos de carga en 24 horas si la cuota de un día anterior no se usa por completo.
Cantidad máxima de columnas por tabla: 10,000 columnas Una tabla puede tener hasta 10,000 columnas. Esto incluye columnas anidadas y repetidas.
Tamaño máximo por trabajo de carga 15 TB El tamaño total de todos los archivos de entrada CSV, JSON, Avro, ORC y Parquet puede ser de hasta 15 TB.
Cantidad máxima de URI de origen en la configuración del trabajo 10,000 URI Una configuración de trabajo puede tener hasta 10,000 URI de origen.
Cantidad máxima de archivos por trabajo de carga 10,000,000 de archivos Un trabajo de carga puede tener hasta 10 millones de archivos en total, incluidos todos los archivos que coincidan con todos los URI comodín.
Cantidad máxima de archivos en el bucket de origen de Cloud Storage Un aproximado de 60,000,000 archivos Un trabajo de carga puede leer desde un bucket de Cloud Storage que contiene hasta 60,000,000 archivos.
Límite de tiempo de ejecución del trabajo de carga 6 horas Un trabajo de carga falla si se ejecuta durante más de seis horas.
Avro: tamaño máximo de los bloques de datos del archivo 16 MB El límite de tamaño de los bloques de datos del archivo de Avro es de 16 MB.
CSV: Tamaño máximo de celdas 100 MB Las celdas de CSV pueden tener un tamaño de hasta 100 MB.
CSV: tamaño máximo de fila 100 MB Las filas de CSV pueden tener un tamaño de hasta 100 MB.
CSV: Tamaño máximo del archivo comprimido 4 GB El límite de tamaño para un archivo CSV comprimido es de 4 GB.
CSV: Tamaño máximo del archivo sin comprimir 5 TB El límite de tamaño para un archivo CSV sin comprimir es de 5 TB.
JSON delimitado por saltos de línea (ndJSON): Tamaño máximo de fila 100 MB Las filas de ndJSON pueden tener un tamaño de hasta 100 MB.
ndJSON: Tamaño máximo del archivo comprimido 4 GB El límite de tamaño de un archivo ndJSON comprimido es de 4 GB.
ndJSON: Tamaño máximo del archivo sin comprimir 5 TB El límite de tamaño para un archivo ndJSON sin comprimir es de 5 TB.

Si superas los límites del trabajo de carga con regularidad debido a las actualizaciones frecuentes, considera transmitir datos a BigQuery en su lugar.

Para obtener información sobre cómo ver tu uso actual de trabajos de carga, consulta Visualiza el uso actual de la cuota.

Consideraciones sobre las cuotas del trabajo de carga del Servicio de transferencia de datos de BigQuery

Los trabajos de carga creados por las transferencias del Servicio de transferencia de datos de BigQuery se incluyen en las cuotas de BigQuery para los trabajos de carga. Es importante tener en cuenta la cantidad de transferencias que habilitas en cada proyecto para evitar que las transferencias y otros trabajos de carga produzcan errores de quotaExceeded.

Puedes usar la siguiente ecuación para estimar cuántos trabajos de carga requieren tus transferencias:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

En el ejemplo anterior, se ilustra lo siguiente:

  • Number of transfers es la cantidad de opciones de configuración de transferencia que habilitas en tu proyecto.
  • Number of tables es la cantidad de tablas creadas por cada tipo de transferencia específico. La cantidad de tablas varía según el tipo de transferencia:

    • Las transferencias de Campaign Manager crean aproximadamente 25 tablas.
    • Las transferencias de Google Ads crean aproximadamente 60 tablas.
    • Las transferencias de Google Ad Manager crean aproximadamente 40 tablas.
    • Las transferencias de Google Play crean alrededor de 25 tablas.
    • Las transferencias de Search Ads 360 crean alrededor de 50 tablas.
    • Las transferencias de YouTube crean alrededor de 50 tablas.
  • Schedule frequency describe la frecuencia con la que se ejecuta la transferencia. Se proporcionan los programas de ejecución de las transferencias para cada tipo de transferencia:

  • Refresh window es la cantidad de días que se deben incluir en la transferencia de datos. Si ingresas 1, no se realiza un reabastecimiento diario.

Trabajos de copia

Se aplican los siguientes límites a los trabajos de BigQuery para copiar tablas, incluidos los trabajos que crean una copia, una clonación o una instantánea de una tabla estándar, una clonación de tabla o una instantánea de tabla. Los límites se aplican a los trabajos creados a través de la consola de Google Cloud, la herramienta de línea de comandos de bq o el método jobs.insert que especifica el campo copy en la configuración del trabajo. Los trabajos de copia se tienen en cuenta en estos límites, ya sea que se completen de forma correcta o fallen.

Límite Predeterminada Notas
Trabajos de copia diarios por tabla de destino Consulta Operaciones de tabla por día.
Trabajos de copia por día 100,000 trabajos Tu proyecto puede ejecutar hasta 100,000 trabajos de copia por día.
Trabajos de copia entre regiones por tabla de destino por día 100 trabajos Tu proyecto puede ejecutar hasta 100 trabajos de copia entre regiones por tabla de destino por día.
Trabajos de copia entre regiones por día 2,000 trabajos Tu proyecto puede ejecutar hasta 2,000 trabajos de copia entre regiones por día.
Cantidad de tablas de origen para copiar 1,200 tablas de origen Puedes copiar hasta 1,200 tablas de origen por trabajo de copia.

Para obtener información sobre cómo ver tu uso actual de trabajos de copia, consulta Trabajos de copia: Visualiza el uso actual de la cuota.

Se aplican los siguientes límites a la copia de conjuntos de datos:

Límite Predeterminada Notas
Cantidad máxima de tablas en el conjunto de datos de origen 25,000 tablas Un conjunto de datos de origen puede tener hasta 25,000 tablas.
Cantidad máxima de tablas que se pueden copiar por ejecución en un conjunto de datos de destino en la misma región 20,000 tablas Tu proyecto puede copiar un máximo de 20,000 tablas por ejecución a un conjunto de datos de destino dentro de la misma región. Si un conjunto de datos de origen contiene más de 20,000 tablas, el Servicio de transferencia de datos de BigQuery programa ejecuciones secuenciales, cada una de las cuales copia hasta 20,000 tablas, hasta que se copian todas. Estas ejecuciones se separan por un intervalo predeterminado de 24 horas, que los usuarios pueden personalizar hasta un mínimo de 12 horas.
Cantidad máxima de tablas que se pueden copiar por ejecución en un conjunto de datos de destino ubicado en una región diferente 1,000 tablas Tu proyecto puede copiar un máximo de 1,000 tablas por ejecución a un conjunto de datos de destino que se encuentre en una región diferente. Si un conjunto de datos de origen contiene más de 1,000 tablas, el Servicio de transferencia de datos de BigQuery programa ejecuciones secuenciales, cada una de las cuales copia hasta 1,000 tablas, hasta que se copien todas. Estas ejecuciones se separan por un intervalo predeterminado de 24 horas, que los usuarios pueden personalizar hasta un mínimo de 12 horas.

Reservas

Las siguientes cuotas se aplican a las reservas:

Cuota Predeterminada Notas
Cantidad total de ranuras para la región de la UE 5,000 ranuras Cantidad máxima de ranuras de BigQuery que puedes comprar en la multirregión de la UE a través de la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para la región de EE.UU. 10,000 ranuras Cantidad máxima de ranuras de BigQuery que puedes comprar en la multirregión de EE.UU. con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para la región us-east1. 4,000 ranuras Cantidad máxima de ranuras de BigQuery que puedes comprar en la región especificada a través de la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para las siguientes regiones:
  • asia-south1
  • asia-southeast1
  • europe-west2
  • us-central1
  • us-west1
2,000 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en cada una de las regiones enumeradas con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para las siguientes regiones:
  • asia-east1
  • asia-northeast1
  • asia-northeast3
  • asia-southeast2
  • australia-southeast1
  • europe-north1
  • europe-west1
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us-east4
  • southamerica-east1
1,000 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en cada una de las regiones enumeradas con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para regiones de BigQuery Omni 100 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en las regiones de BigQuery Omni a través de la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud
Cantidad total de ranuras para todas las demás regiones 500 ranuras La cantidad máxima de ranuras de BigQuery que puedes comprar en cada región con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud

Se aplican los siguientes límites a las reservas:

Límite Valor Notas
Cantidad de proyectos de administración para reservas de ranuras 5 proyectos por organización El número máximo de proyectos dentro de una organización que pueden contener una reserva o un compromiso activo para ranuras para una ubicación o región determinada.
Cantidad máxima de reservas de la edición estándar 10 reservas por proyecto La cantidad máxima de reservas de la edición estándar por proyecto de administración dentro de una organización para una ubicación o región determinada.
Cantidad máxima de reservas de la edición Enterprise o Enterprise Plus 200 reservas por proyecto La cantidad máxima de reservas por proyecto de administración de la edición Enterprise o Enterprise Plus dentro de una organización para una ubicación o región determinada.
Es la cantidad máxima de ranuras en una reserva que está asociada con una asignación de reserva con un tipo de trabajo CONTINUOUS. 500 ranuras Cuando quieras crear una asignación de reserva que tenga un tipo de trabajo CONTINUOUS, la reserva asociada no puede tener más de 500 ranuras.

Conjuntos de datos

Se aplican los siguientes límites a los conjunto de datos de BigQuery.

Límite Predeterminada Notas
Cantidad máxima de conjuntos de datos Ilimitado No hay límite para la cantidad de conjuntos de datos que puede tener un proyecto.
Cantidad de tablas por conjunto de datos Ilimitado Cuando usas una llamada a la API, se ralentiza el rendimiento de la enumeración a medida que te acercas a las 50,000 tablas por conjunto de datos. La consola de Google Cloud puede mostrar hasta 50,000 tablas por cada conjunto de datos.
Cantidad de recursos autorizados en la lista de control de acceso de un conjunto de datos 2,500 recursos La lista de control de acceso de un conjunto de datos puede tener hasta 2,500 recursos autorizados en total, incluidas las vistas autorizadas, los conjuntos de datos autorizados y las funciones autorizadas. Si superas este límite debido a una gran cantidad de vistas autorizadas, considera agrupar las vistas en conjuntos de datos autorizados.
Cantidad de operaciones de actualización de conjuntos de datos por conjunto de datos cada 10 segundos 5 operaciones Tu proyecto puede realizar hasta cinco operaciones de actualización de conjuntos de datos cada 10 segundos. El límite de actualización del conjunto de datos incluye todas las operaciones de actualización de metadatos que realizan los siguientes elementos:
Longitud máxima de la descripción de un conjunto de datos 16,384 caracteres Cuando agregas una descripción a un conjunto de datos, el texto puede tener, como máximo, 16,384 caracteres.

Tablas

Todas las tablas

Se aplican los siguientes límites a todas las tablas de BigQuery.

Límite Predeterminada Notas
Longitud máxima de un nombre de columna 300 caracteres El nombre de la columna puede tener 300 caracteres como máximo.
Longitud máxima de la descripción de una columna 1,024 caracteres Cuando agregas una descripción a una columna, el texto puede tener 1,024 caracteres como máximo.
Profundidad máxima de los registros anidados 15 niveles Las columnas de tipo RECORD pueden contener tipos RECORD anidados, también llamados registros secundarios. El límite de profundidad de anidado máximo es de 15 niveles. Este límite es independiente de si los registros son escalares o basados en arrays (repetidos).
Longitud máxima de la descripción de una tabla 16,384 caracteres Cuando agregas una descripción a una tabla, el texto puede tener, como máximo, 16,384 caracteres.

Tablas estándar

Se aplican los siguientes límites a las tablas estándar de BigQuery (integradas):

Límite Predeterminada Notas
Modificaciones de la tabla por día 1,500 modificaciones

Tu proyecto puede realizar hasta 1,500 modificaciones de tabla por día, ya sea que la modificación actualice los metadatos de la tabla, agregue o actualice datos, o trunque la tabla. Este límite no puede cambiarse y, además, incluye el total combinado de todos los trabajos de carga, trabajos de copia y trabajos de consulta que agregan datos a una tabla de destino o la reemplazan.

Las declaraciones DML no se consideran en la cantidad de modificaciones de tablas por día.

Los datos de transmisión no se consideran en la cantidad de modificaciones de tablas por día.

Frecuencia máxima de operaciones de actualización de metadatos de tabla por tabla 5 operaciones cada 10 segundos Tu proyecto puede realizar hasta cinco operaciones de actualización de metadatos de tablas cada 10 segundos por tabla. Este límite se aplica a todas las operaciones de actualización de metadatos de la tabla, realizadas por: Este límite incluye el total combinado de todos los trabajos de carga, de copia y de consulta que anexan o reemplazan una tabla de destino o que usan una declaración DML, DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE para escribir datos en una tabla. Ten en cuenta que, aunque las declaraciones DML se toman en cuenta en este límite, no están sujetas a ella si se alcanza. Las operaciones DML tienen límites de frecuencia dedicados.

Si excedes este límite, recibirás un mensaje de error como Exceeded rate limits: too many table update operations for this table. Este error es transitorio. puedes volver a intentarlo con una retirada exponencial.

Para identificar las operaciones que se consideran en este límite, puedes inspeccionar tus registros. Consulta Soluciona problemas de errores de cuota para obtener información sobre cómo diagnosticar y resolver este error.

Cantidad máxima de columnas por tabla 10,000 columnas Cada tabla, resultado de la consulta o definición de la vista puede tener hasta 10,000 columnas. Esto incluye columnas anidadas y repetidas.

Tablas externas

Se aplican los siguientes límites a las tablas de BigQuery almacenadas en Cloud Storage en los formatos Parquet, ORC, Avro, CSV o JSON.

Límite Predeterminada Notas
Cantidad máxima de URI de origen por tabla externa 10,000 URI Cada tabla externa puede tener hasta 10,000 URI de origen.
Cantidad máxima de archivos por tabla externa 10,000,000 de archivos Una tabla externa puede tener hasta 10 millones de archivos, incluidos todos los archivos que coincidan con todos los URI comodines.
Tamaño máximo de los datos almacenados en Cloud Storage por tabla externa 600 TB Una tabla externa puede tener hasta 600 terabytes en todos los archivos de entrada. Este límite se aplica a los tamaños de archivo según lo almacenado en Cloud Storage. Este tamaño no es el mismo que el tamaño que se usa en la fórmula para calcular los precios de las consultas. En el caso de las tablas particionadas de forma externa, se aplica el límite después de la reducción de particiones.
Cantidad máxima de archivos en el bucket de origen de Cloud Storage Un aproximado de 60,000,000 archivos Una tabla externa puede hacer referencia a un bucket de Cloud Storage que contenga hasta 60,000,000 archivos. En el caso de las tablas particionadas de forma externa, se aplica este límite antes de la reducción de particiones.

Tablas particionadas

Se aplican los siguientes límites a las tablas particionadas de BigQuery.

Los límites de partición se aplican al total combinado de todos los trabajos de carga, Trabajos de copia y Trabajos de consulta que agregan o reemplazan una partición de destino.

Un solo trabajo puede afectar a varias particiones. Por ejemplo, los trabajos de carga y de consulta pueden escribir en varias particiones.

BigQuery usa la cantidad de particiones que afecta un mismo trabajo para determinar qué cantidad de límite consume el trabajo. Las inserciones de transmisión no afectan a este límite.

Si deseas obtener información sobre las estrategias para permanecer dentro de los límites de las tablas particionadas, consulta Soluciona problemas de errores de cuota.

Límite Predeterminada Notas
Cantidad de particiones por tabla particionada 10,000 particiones Cada tabla particionada puede tener hasta 10,000 particiones. Si superas este límite, considera usar el agrupamiento en clústeres además de la partición o en lugar de hacerlo.
Cantidad máxima de particiones modificadas a través de un solo trabajo 4,000 particiones Cada operación de trabajo (de consulta o carga) puede afectar hasta 4,000 particiones. BigQuery rechaza cualquier trabajo de consulta o carga que intente modificar más de 4,000 particiones.
Cantidad de modificaciones de particiones durante el tiempo de transferencia por tabla particionada por día 11,000 modificaciones

Tu proyecto puede realizar hasta 11,000 modificaciones de particiones por día, ya sea que la modificación agregue datos, los actualice o trunque una tabla particionada por tiempo de transferencia.

Las declaraciones DML no se toman en cuenta en la cantidad de modificaciones de partición por día.

La cantidad de modificaciones de partición por tabla particionada por columna por día 30,000 modificaciones

Tu proyecto puede realizar hasta 30,000 modificaciones de particiones por día en una tabla particionada por columnas.

Las declaraciones DML no se toman en cuenta en la cantidad de modificaciones de partición por día.

Los datos de transmisión no se consideran en la cantidad de modificaciones de partición por día.

Frecuencia máxima de operaciones de actualización de metadatos de tabla por tabla particionada 50 modificaciones cada 10 segundos Tu proyecto puede ejecutar hasta 50 modificaciones por tabla particionada cada 10 segundos. Este límite se aplica a todas las operaciones de actualización de metadatos de la tabla particionada, realizadas por: Este límite incluye el total combinado de todos los trabajos de carga, de copia y de consulta que anexan o reemplazan una tabla de destino o que usan una declaración DML, DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE para escribir datos en una tabla.

Si excedes este límite, recibirás un mensaje de error como Exceeded rate limits: too many partitioned table update operations for this table. Este error es transitorio. puedes volver a intentarlo con una retirada exponencial.

Para identificar las operaciones que se consideran en este límite, puedes inspeccionar tus registros.

Cantidad de rangos posibles para la partición por rangos 10,000 rangos Una tabla particionada por rango puede tener hasta 10,000 rangos posibles. Este límite se aplica a la especificación de la partición cuando creas la tabla. Después de crear la tabla, el límite también se aplica a la cantidad real de particiones.

Clonaciones de tablas

Se aplican los siguientes límites a las clonaciones de tabla de BigQuery:

Límite Predeterminada Notas
Cantidad máxima de clonaciones y de instantáneas en una cadena 3 instantáneas o clonaciones de tabla Las clonaciones y las instantáneas combinadas están limitadas a una profundidad de 3. Cuando clonas o tomas instantáneas de una tabla base, puedes clonar o tomar instantáneas del resultado solo dos veces más; intentar clonar o tomar instantáneas del resultado por tercera vez genera un error. Por ejemplo, puedes crear la clonación A de la tabla base, crear la instantánea B de la clonación A y crear la clonación C de la instantánea B. Para hacer duplicados adicionales del clon o la instantánea de tercer nivel, usa una operación de copia en su lugar.
Cantidad máxima de clonaciones y de instantáneas para una tabla base 1,000 instantáneas o clonaciones de tabla No puedes tener más de 1,000 instantáneas y clonaciones existentes combinadas de una tabla base determinada. Por ejemplo, si tienes 600 instantáneas y 400 clonaciones, alcanzas el límite.

Instantáneas de tablas

Se aplican los siguientes límites a las instantáneas de tabla de BigQuery:

Límite Predeterminada Notas
Cantidad máxima de trabajos de instantáneas de tablas simultáneas 100 trabajos Tu proyecto puede ejecutar hasta 100 trabajos de instantáneas de tabla simultáneos.
Cantidad máxima de trabajos de instantáneas de tablas por día 50,000 trabajos Tu proyecto puede ejecutar hasta 50,000 trabajos de instantáneas de tablas por día.
Cantidad máxima de trabajos de instantáneas de tablas por tabla por día 50 trabajos Tu proyecto puede ejecutar hasta 50 trabajos de instantáneas de tablas por tabla por día.
Cantidad máxima de actualizaciones de metadatos por instantánea de tabla cada 10 segundos. 5 actualizaciones Tu proyecto puede actualizar los metadatos de una instantánea de tabla hasta cinco veces cada 10 segundos.
Cantidad máxima de clonaciones y de instantáneas en una cadena 3 instantáneas o clonaciones de tabla Las clonaciones y las instantáneas combinadas están limitadas a una profundidad de 3. Cuando clonas o tomas instantáneas de una tabla base, puedes clonar o tomar instantáneas del resultado solo dos veces más; intentar clonar o tomar instantáneas del resultado por tercera vez genera un error. Por ejemplo, puedes crear la clonación A de la tabla base, crear la instantánea B de la clonación A y crear la clonación C de la instantánea B. Para hacer duplicados adicionales del clon o la instantánea de tercer nivel, usa una operación de copia en su lugar.
Cantidad máxima de clonaciones y de instantáneas para una tabla base 1,000 instantáneas o clonaciones de tabla No puedes tener más de 1,000 instantáneas y clonaciones existentes combinadas de una tabla base determinada. Por ejemplo, si tienes 600 instantáneas y 400 clonaciones, alcanzas el límite.

Vistas

Se aplican los siguientes límites y cuotas a las vistas y las vistas materializadas.

Vistas lógicas

Se aplican los siguientes límites a las vistas estándares de BigQuery.

Límite Predeterminada Notas
Cantidad máxima de niveles de vistas anidadas 16 niveles BigQuery admite un máximo de 16 niveles de vistas anidadas. Es posible crear vistas hasta este límite, pero las consultas se limitan a 15 niveles. Si se excede el límite, BigQuery muestra un error INVALID_INPUT.
Longitud máxima de una consulta de GoogleSQL que se usa para definir una vista 256,000 caracteres Una sola consulta de GoogleSQL que define una vista puede tener hasta 256,000 caracteres. Este límite se aplica a una sola consulta y no incluye la longitud de las vistas a las que se hace referencia en la consulta.
Cantidad máxima de vistas autorizadas por conjunto de datos Consulta Conjuntos de datos.
Longitud máxima de la descripción de una vista 16,384 caracteres Cuando agregas una descripción a una vista, el texto puede tener, como máximo, 16,384 caracteres.

Vistas materializadas

Se aplican los siguientes límites a las vistas materializadas de BigQuery:

Límite Predeterminada Notas
Referencias de tablas base (mismo conjunto de datos) 20 vistas materializadas Se puede hacer referencia a cada tabla base hasta por 20 vistas materializadas del mismo conjunto de datos.
Referencias de tablas base (mismo proyecto) 100 vistas materializadas Se puede hacer referencia a cada tabla base hasta por 100 vistas materializadas del mismo proyecto.
Referencias de tablas base (toda la organización) 500 vistas materializadas Se puede hacer referencia a cada tabla base hasta por 500 vistas materializadas de toda la organización.
Cantidad máxima de vistas autorizadas por conjunto de datos Consulta Conjuntos de datos.
Longitud máxima de la descripción de una vista materializada 16,384 caracteres Cuando agregas una descripción a una vista materializada, el texto puede tener, como máximo, 16,384 caracteres.

Índices de búsqueda

Se aplican los siguientes límites a los índices de búsqueda de BigQuery:

Límite Predeterminada Notas
Cantidad de declaraciones DDL CREATE INDEX por proyecto, por región y por día 500 operaciones Tu proyecto puede emitir hasta 500 operaciones DDL CREATE INDEX todos los días dentro de una región.
La cantidad de declaraciones DDL del índice de búsqueda por tabla y por día 20 operaciones Tu proyecto puede emitir hasta 20 operaciones DDL CREATE INDEX o DROP INDEX por tabla y por día.
Tamaño total máximo de los datos de la tabla por organización permitidos para la creación de índices de búsqueda que no se ejecutan en una reserva 100 TB en multirregiones; 20 TB en todas las otras regiones Puedes crear un índice de búsqueda para una tabla si el tamaño general de las tablas con índices en tu organización está por debajo del límite de tu región: 100 TB para las multirregiones US y EU, y 20 TB para todas las demás regiones. Si tus trabajos de administración de índices se ejecutan en tu propia reserva, este límite no se aplica.

Índices vectoriales

Se aplican los siguientes límites a los índices vectoriales de BigQuery:

Límite Predeterminada Notas
Cantidad mínima de filas de la tabla base 5,000 filas Una tabla debe tener al menos 5,000 filas para crear un índice vectorial.
Cantidad máxima de filas de la tabla base 10,000,000,000 filas para el tipo de índice IVF

200,000,000 para el tipo de índice TREE_AH
Una tabla puede tener como máximo 10,000,000,000 filas para crear un índice vectorial de IVF y 200,000,000 filas para crear un índice vectorial de TREE_AH.
Tamaño máximo del array en la columna indexada 1,600 elementos La columna que se indexará puede tener como máximo 1,600 elementos en el array.
Tamaño mínimo de la tabla para la propagación del índice vectorial 10 MB Si creas un índice vectorial en una tabla de menos de 10 MB, el índice no se propaga. Del mismo modo, si borras datos de una tabla indexada por vectores de modo que el tamaño de la tabla sea inferior a 10 MB, el índice vectorial se inhabilitará de forma temporal. Esto sucede sin importar si usas tu propia reserva para los trabajos de administración de índices. Una vez que el tamaño de una tabla indexada por vectores vuelve a superar los 10 MB, su índice se propaga de forma automática.
Cantidad de declaraciones DDL CREATE VECTOR INDEX por proyecto, por región y por día 500 operaciones Para cada proyecto, puedes emitir hasta 500 operaciones CREATE VECTOR INDEX por día en cada región.
La cantidad de declaraciones DDL del índice vectorial por tabla y por día 10 operaciones Puedes emitir hasta 10 operaciones CREATE VECTOR INDEX o DROP VECTOR INDEX por tabla y por día.
Tamaño total máximo de los datos de la tabla por organización permitidos para la creación de índices vectoriales que no se ejecutan en una reserva 6 TB Puedes crear un índice vectorial para una tabla si el tamaño total de las tablas con índices en tu organización es inferior a 6 TB. Si tus trabajos de administración de índices se ejecutan en tu propia reserva, este límite no se aplica.

Rutinas

Se aplican los siguientes límites y cuotas a las rutinas.

Funciones definidas por el usuario

Se aplican los siguientes límites a las funciones definidas por el usuario (UDF), tanto temporales como persistentes, en las consultas de GoogleSQL.

Límite Predeterminada Notas
Resultado máximo por fila 5 MB La cantidad máxima de datos que tu UDF de JavaScript puede generar cuando procesa una única fila es de alrededor de 5 MB.
Cantidad máxima de consultas simultáneas de SQL heredado con UDF de JavaScript 6 consultas Tu proyecto puede tener hasta seis consultas de SQL heredado simultáneas que contengan UDF en JavaScript. Este límite incluye consultas tanto interactivas como por lotes. Este límite no se aplica a consultas de GoogleSQL.
Recursos máximos de UDF de JavaScript por consulta 50 recursos Un trabajo de consulta puede tener hasta 50 recursos de UDF de JavaScript, como archivos externos o BLOB de código intercalados.
Tamaño máximo del BLOB de código intercalado 32 KB Un BLOB de código intercalado en una UDF puede tener un tamaño de hasta 32 KB.
Tamaño máximo de cada recurso de código externo 1 MB El tamaño máximo de cada recurso de código JavaScript es de 1 MB.

Se aplican los siguientes límites a las UDF persistentes:

Límite Predeterminada Notas
Longitud máxima de un nombre de UDF 256 caracteres Los nombres de las UDF pueden tener hasta 256 caracteres.
Cantidad máxima de argumentos 256 argumentos Una UDF puede tener hasta 256 argumentos.
Longitud máxima de un nombre de argumento 128 caracteres Los nombres de los argumentos de las UDF pueden tener hasta 128 caracteres.
Profundidad máxima de una cadena de referencia de UDF 16 referencias Una cadena de referencia de UDF puede tener hasta 16 referencias de profundidad.
Profundidad máxima de un argumento o resultado de tipo STRUCT 15 niveles Un argumento o resultado de UDF de tipo STRUCT puede tener hasta 15 niveles de profundidad.
Cantidad máxima de campos en los argumentos o resultados de tipo STRUCT por UDF 1,024 campos Una UDF puede tener hasta 1,024 campos en los argumentos y resultados de tipo STRUCT.
Cantidad máxima de bibliotecas JavaScript en una declaración CREATE FUNCTION 50 bibliotecas Una declaración CREATE FUNCTION puede tener hasta 50 bibliotecas de JavaScript.
Longitud máxima de las rutas de acceso a bibliotecas JavaScript incluidas 5,000 caracteres La ruta de acceso a una biblioteca de JavaScript incluida en una UDF puede tener hasta 5,000 caracteres.
Frecuencia de actualización máxima por UDF cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar una UDF hasta cinco veces cada 10 segundos.
Cantidad máxima de UDF autorizados por conjunto de datos Consulta Conjuntos de datos.

Funciones remotas

Se aplican los siguientes límites a las funciones remotas en BigQuery.

Límite Predeterminada Notas
Cantidad máxima de consultas simultáneas que contienen funciones remotas 10 consultas Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto.
Tamaño máximo de entrada 5 MB El tamaño total máximo de todos los argumentos de entrada de una sola fila es de 5 MB.
Límite de tamaño de respuesta HTTP (Cloud Run Functions de 1ª gen.) 10 MB El cuerpo de la respuesta HTTP de tu Cloud Run Function de 1ª gen. es de hasta 10 MB. Si superas este valor, se generarán errores en la consulta.
Límite de tamaño de respuesta HTTP (Cloud Run Functions de 2ª gen. o Cloud Run) 15 MB El cuerpo de la respuesta HTTP de tu Cloud Run Function de 2ª gen. o Cloud Run es de hasta 15 MB. Si superas este valor, se generan fallas en la consulta.
Límite máximo de tiempo de invocación HTTP (Cloud Run Functions de 1ª gen.) 9 minutos Puedes configurar tu propio límite de tiempo para tu Cloud Run Function de 1ª gen. para una invocación HTTP individual, pero el límite de tiempo máx. es de 9 minutos. Superar el límite de tiempo establecido para tu Cloud Run Function de 1ª gen. puede causar fallas en la invocación de HTTP y en las consultas.
Límite de tiempo de invocación HTTP (Cloud Run Functions de 2ª gen. o Cloud Run) 20 minutos El límite de tiempo de una invocación HTTP individual a tu Cloud Run Function de 2ª gen. o Cloud Run. Superar este valor puede causar fallas en la invocación HTTP y en la consulta.
Cantidad máxima de reintentos de invocación HTTP 20 La cantidad máxima de reintentos para una invocación HTTP individual a tu Cloud Run Function de 1ª gen., 2ª gen. o Cloud Run. Superar este valor puede causar fallas en la invocación HTTP y en la consulta.

Funciones de tabla

Se aplican los siguientes límites a las funciones de tabla de BigQuery:

Límite Predeterminada Notas
Longitud máxima de un nombre de función de tabla 256 caracteres El nombre de una función de tabla puede tener hasta 256 caracteres.
Longitud máxima de un nombre de argumento 128 caracteres El nombre de un argumento de función de tabla puede tener hasta 128 caracteres de longitud.
Cantidad máxima de argumentos 256 argumentos Una función de tabla puede tener hasta 256 argumentos.
Profundidad máxima de una cadena de referencia de función de tabla 16 referencias Una cadena de referencia de función de tabla puede tener hasta 16 referencias de profundidad.
Profundidad máxima del argumento o resultado de tipo STRUCT: 15 niveles Un argumento STRUCT para una función de tabla puede tener hasta 15 niveles de profundidad. De modo similar, un registro STRUCT en el resultado de una función de tabla puede tener hasta 15 niveles de profundidad.
Cantidad máxima de campos en un argumento o tabla de muestra de tipo STRUCT por función de tabla 1,024 campos Un argumento STRUCT para una función de tabla puede tener hasta 1,024 campos. De manera similar, un registro STRUCT en el resultado de una función de tabla puede tener hasta 1,024 campos.
Cantidad máxima de columnas en la tabla de retorno 1,024 columnas Una tabla que muestra una función de tabla puede tener hasta 1,024 columnas.
Longitud máxima de los nombres de las columnas de la tabla de retorno 128 caracteres Los nombres de las columnas en las tablas que se muestran pueden tener hasta 128 caracteres.
Cantidad máxima de actualizaciones por función de tabla cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar una función de tabla hasta cinco veces cada 10 segundos.

Procedimientos almacenados para Apache Spark

Se aplican los siguientes límites a los procedimientos almacenados de BigQuery para Apache Spark:

Límite Predeterminada Notas
Cantidad máxima de consultas simultáneas de procedimientos almacenados 50 Puedes ejecutar hasta 50 consultas de procedimiento almacenadas simultáneas para cada proyecto.
Cantidad máxima de CPU en uso 12,000 Puedes usar hasta 12,000 CPU para cada proyecto. Las consultas que ya se procesaron no consumen este límite.

Puedes usar hasta 2,400 CPU para cada ubicación en cada proyecto, excepto en las siguientes ubicaciones:

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

En estas ubicaciones, puedes usar hasta 500 CPU por cada ubicación para cada proyecto.

Si ejecutas consultas simultáneas en una ubicación multirregional y una ubicación de una sola región que se encuentra en la misma área geográfica, tus consultas pueden consumir la misma cuota de CPU simultánea.

Tamaño total máximo de discos persistentes estándar en uso 204.8 TB

Puedes usar discos persistentes estándar de hasta 204.8 TB para cada ubicación y proyecto. Las consultas que ya se procesaron no consumen este límite.

Si ejecutas consultas simultáneas en una ubicación multirregional y una ubicación de una sola región que se encuentra en la misma área geográfica, tus consultas pueden consumir la misma cuota de disco persistente estándar.

Notebooks

Todas las cuotas y límites de Dataform y las cuotas y límites de Colab Enterprise se aplican a notebooks en BigQuery. También se aplican los siguientes límites:

Límite Predeterminada Notas
Tamaño máximo del notebook 20 MB

El tamaño de un notebook es el total de su contenido, sus metadatos y su sobrecarga de codificación.

Para ver el tamaño del contenido del notebook, expande el encabezado del notebook, haz clic en Ver y, luego, en Información del notebook.

Cantidad máxima de solicitudes por segundo a Dataform 100 Los notebooks se crean y administran a través de Dataform. Cualquier acción que cree o modifique un notebook se descuenta de esta cuota. Esta cuota se comparte con las consultas guardadas. Por ejemplo, si realizas 50 cambios en los notebooks y 50 cambios en las consultas guardadas en 1 segundo, alcanzas la cuota.

Consultas guardadas

Todas las cuotas y límites de Dataform se aplican a las consultas guardadas. También se aplican los siguientes límites:

Límite Predeterminada Notas
Tamaño máximo de consultas guardadas 10 MB
Cantidad máxima de solicitudes por segundo a Dataform 100 Las consultas guardadas se crean y administran a través de Dataform. Cualquier acción que cree o modifique una consulta guardada se considera en esta cuota. Esta cuota se comparte con los notebooks. Por ejemplo, si realizas 50 cambios en los notebooks y 50 cambios en las consultas guardadas en 1 segundo, alcanzas la cuota.

Lenguaje de manipulación de datos

Los siguientes límites se aplican a las declaraciones de lenguaje de manipulación de datos (DML) de BigQuery:

Límite Predeterminada Notas
Declaraciones DML por día Ilimitado La cantidad de declaraciones DML que tu proyecto puede ejecutar por día es ilimitada.

Las declaraciones DML no se toman en cuenta en la cantidad de modificaciones de tablas por día (o la cantidad de modificaciones de tablas particionadas por día para tablas particionadas).

Las declaraciones DML tienen las siguientes limitaciones que se deben tener en cuenta.
Declaraciones DML INSERT simultáneas por tabla por día 1,500 declaraciones Las primeras 1,500 declaraciones INSERT se ejecutan de inmediato después de enviarse. Una vez que se alcanza este límite, la simultaneidad de las declaraciones INSERT que se escriben en una tabla se limita a 10. Se agregan declaraciones INSERT adicionales a una cola PENDING. Se pueden poner en cola hasta 100 declaraciones INSERT en una tabla, en cualquier momento. Cuando se completa una declaración INSERT, la siguiente declaración INSERT se quita de la cola y se ejecuta.

Si debes ejecutar declaraciones INSERT DML con mayor frecuencia, considera transmitir datos a tu tabla a través de la API de Storage Write.
Declaraciones DML de mutación simultáneas por tabla 2 declaraciones BigQuery ejecuta hasta dos declaraciones DML de mutación simultáneas (UPDATE, DELETE y MERGE) para cada tabla. Las declaraciones DML adicionales de mutación para una tabla están en cola.
Declaraciones DML de mutación en cola por tabla 20 declaraciones Una tabla puede tener hasta 20 declaraciones DML de mutación en cola para su ejecución. Si envías declaraciones DML de mutación adicionales para la tabla, estas fallarán.
Tiempo máximo en cola para la declaración DML 6 horas Una declaración DML interactiva de prioridad puede esperar en la cola hasta por 6 horas. Si la declaración no se ejecuta después de seis horas, fallará.
Tasa máxima de declaraciones DML para cada tabla 25 declaraciones cada 10 segundos Tu proyecto puede ejecutar hasta 25 declaraciones DML cada 10 segundos para cada tabla. Tanto INSERT como las declaraciones DML mutables contribuyen a este límite.

Para obtener más información sobre las mutaciones de declaraciones DML, consulta Simultaneidad de DML INSERT y simultaneidad de DML UPDATE, DELETE, MERGE.

Consultas de varias declaraciones

Se aplican los siguientes límites a las consultas de varias declaraciones en BigQuery.

Límite Predeterminada Notas
Cantidad máxima de consultas simultáneas de varias declaraciones 1,000 consultas de varias declaraciones Tu proyecto puede ejecutar hasta 1,000 consultas de varias sentencias simultáneas.
Límite de tiempo acumulado 24 horas El límite de tiempo acumulativo para una consulta de varias declaraciones es de 24 horas.
Límite de tiempo de la declaración 6 horas El límite de tiempo para una declaración individual en una consulta de varias declaraciones es de 6 horas.

CTE recurrentes en las consultas

Se aplican los siguientes límites a las expresiones de tabla comunes (CTE) recurrentes en BigQuery.

Límite Predeterminada Notas
Límite de iteración 500 iteraciones La CTE recurrente puede ejecutar esta cantidad de iteraciones. Si se excede este límite, se produce un error. Para solucionar los límites de iteración, consulta Soluciona errores de límite de iteración.

Seguridad a nivel de la fila

Se aplican los siguientes límites a las políticas de acceso a nivel de fila de BigQuery:

Límite Predeterminada Notas
Cantidad máxima de políticas de acceso de fila por tabla. 400 políticas Una tabla puede tener hasta 400 políticas de acceso de fila.
Cantidad máxima de políticas de acceso de fila por consulta. 6000 políticas Una consulta puede acceder hasta un total de 6000 políticas de acceso de fila.
Cantidad máxima de declaraciones DDL CREATE / DROP por política cada 10 segundos 5 declaraciones Tu proyecto puede realizar hasta cinco declaraciones CREATE o DROP por recurso de política de acceso de fila cada 10 segundos.
Declaraciones DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos 5 declaraciones Tu proyecto puede realizar hasta cinco declaraciones DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos.

Políticas de datos

Se aplican los siguientes límites al enmascaramiento de datos dinámicos a nivel de la columna:

Límite Predeterminada Notas
Cantidad máxima de políticas de datos por etiqueta de política 8 políticas por etiqueta de política Hasta ocho políticas de datos por etiqueta de política. Una de estas políticas se puede usar para los controles de acceso a nivel de columna. No se admiten expresiones de enmascaramiento duplicadas.

BigQuery ML

Se aplican los siguientes límites a BigQuery ML.

Trabajos de consulta

Todas las cuotas y límites de trabajo de consulta se aplican a los trabajos de consulta de GoogleSQL que usan declaraciones y funciones de BigQuery ML.

Declaraciones CREATE MODEL

Se aplican los siguientes límites a trabajos CREATE MODEL:

Límite Predeterminada Notas
CREATE MODEL consultas de declaraciones por 48 horas para cada proyecto 20,000 consultas de declaraciones Algunos modelos se entrenan a través de servicios de Vertex AI, que tienen su propia administración de recursos y cuotas.
Límite de tiempo de ejecución 24 o 72 horas El tiempo de espera de trabajo de CREATE MODEL es de 24 horas de forma predeterminada, excepto para las series temporales, AutoML y los trabajos de ajuste de hiperparámetros que tienen un tiempo de espera de 72 horas.

Funciones del servicio de Vertex AI y Cloud AI

Los siguientes límites se aplican a las funciones que usan modelos de lenguaje grandes (LLM) de Vertex AI y los servicios de Cloud AI:

Función Solicitudes por minuto Filas por trabajo Cantidad de trabajos que se ejecutan de manera simultánea
ML.GENERATE_TEXT cuando uses un modelo remoto sobre un modelo gemini-1.5-pro 60 21,600 5
ML.GENERATE_TEXT cuando uses un modelo remoto sobre un modelo gemini-1.5-flash 200 72,000 5
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre el modelo gemini-1.0-pro-vision en la región us-central1 100 20,000 1
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre el modelo gemini-1.0-pro-vision en regiones que no sean us-central1 10 3,600 1
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un gemini-1.0-pro en la región us-central1 300 108,000 5
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un gemini-1.0-pro en regiones que no sean us-central1 10 3,600 5
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un modelo Anthropic Claude 30 10,800 5
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un modelo text-bison 1,600 576,000 5
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un modelo text-bison-32 300 108,000 5
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos multimodalembedding de Vertex AI en regiones únicas europeas compatibles 120 14,000 5
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos multimodalembedding de Vertex AI en regiones que no sean regiones únicas europeas compatibles 600 25,000 5
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos text-embedding y text-multilingual-embedding de Vertex AI en la región us-central1 1,500 2,700,000 1
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos text-embedding y text-multilingual-embedding de Vertex AI en regiones que no sean us-central1 100 324,000 1
ML.PROCESS_DOCUMENT con documentos de una página en promedio 600 150,000 5
ML.PROCESS_DOCUMENT con documentos de un promedio de diez páginas 600 100,000 5
ML.PROCESS_DOCUMENT con documentos de un promedio de cincuenta páginas 600 15,000 5
ML.TRANSCRIBE 200 10,000 5
ML.ANNOTATE_IMAGE 1,800 648,000 5
ML.TRANSLATE 6,000 2,160,000 5
ML.UNDERSTAND_TEXT 600 21,600 5

Para obtener más información sobre la cuota de los LLM de Vertex AI y las APIs de servicio de Cloud AI, consulta los siguientes documentos:

La cuota de filas por trabajo representa la cantidad teórica más alta de filas que el sistema puede controlar en un período de 6 horas. La cantidad real de filas procesadas depende de muchos otros factores, como el tamaño de entrada y la condición de la red. Por ejemplo, ML.TRANSCRIBE puede procesar más audios cortos que audios largos.

Para solicitar más cuota para las funciones de BigQuery ML, ajusta la cuota del servicio de LLM de Vertex AI o Cloud AI asociado primero y, luego, envía un correo electrónico a bqml-feedback@google.com e incluye información sobre la cuota de servicio de LLM o Cloud AI ajustada. Si deseas obtener más información para solicitar más cuota para estos servicios, consulta Solicita una cuota más alta.

Definiciones de cuotas

En la siguiente lista, se describen las cuotas que se aplican a las funciones de servicio de Vertex AI y Cloud AI:

  • Las funciones que llaman a un modelo de base de Vertex AI usan una cuota de Vertex AI, que son consultas por minuto (QPM). En este contexto, las consultas son llamadas de solicitud de la función a la API del modelo de Vertex AI. La cuota de QPM se aplica a un modelo base y a todas las versiones, identificadores y versiones ajustadas de ese modelo. Para obtener más información sobre las cuotas del modelo de base de Vertex AI, consulta Cuotas por región y modelo.
  • Las funciones que llaman a un servicio de Cloud AI usan las cuotas de solicitud del servicio de destino. Consulta la referencia de cuota del servicio de Cloud AI determinado para obtener más detalles.
  • BigQuery ML usa tres cuotas:

    • Solicitudes por minuto. Esta cuota es el límite en la cantidad de llamadas de solicitudes por minuto que las funciones pueden realizar al modelo de Vertex AI o a la API del servicio de Cloud AI. Este límite se aplica a cada proyecto.

      Para las funciones que llaman a un modelo de base de Vertex AI, la cantidad de llamadas a solicitudes por minuto varía según el extremo, la versión y la región del modelo de Vertex AI. Esta cuota es conceptualmente igual a la cuota de QPM que usa Vertex AI, pero puede tener un valor menor que la cuota de QPM para un modelo correspondiente.

    • Filas por trabajo. Esta cuota es el límite en la cantidad de filas permitidas para cada trabajo de consulta.

    • Cantidad de trabajos que se ejecutan de manera simultánea. Esta cuota es el límite por proyecto en la cantidad de consultas de SQL que se pueden ejecutar al mismo tiempo para la función determinada.

En los siguientes ejemplos, se muestra cómo interpretar las limitaciones de cuota en situaciones típicas:

  • Tengo una cuota de 1,000 QPM en Vertex AI, por lo que una consulta con 100,000 filas debería tardar alrededor de 100 minutos. ¿Por qué el trabajo se ejecuta por más tiempo?

    Los entornos de ejecución de trabajos pueden variar incluso para los mismos datos de entrada. En Vertex AI, las llamadas de procedimiento remoto (RPC) tienen diferentes prioridades para evitar que se agoten las cuotas. Cuando no hay suficiente cuota, las RPC con prioridades más bajas esperan y, tal vez, fallan si tardan demasiado en procesarlas.

  • ¿Cómo debo interpretar las filas por cuota de trabajo?

    En BigQuery, una consulta puede ejecutarse durante un máximo de seis horas. La cantidad máxima de filas admitidas es una función de este cronograma y tu cuota de QPM de Vertex AI, a fin de garantizar que BigQuery pueda completar el procesamiento de consultas en seis horas. Dado que, por lo general, una consulta no puede usar toda la cuota, este es un número menor que tu cuota de QPM multiplicado por 360.

  • ¿Qué sucede si ejecuto un trabajo de inferencia por lotes en una tabla con más filas que la cuota de filas por trabajo, por ejemplo, 10,000,000 filas?

    BigQuery solo procesa la cantidad de filas especificadas por la cuota de filas por trabajo. Solo se te cobrará por las llamadas a la API correctas por esa cantidad de filas, en lugar de las 10,000,000 de filas completas de tu tabla. Para el resto de las filas, BigQuery responde a la solicitud con un error A retryable error occurred: the maximum size quota per query has reached, que se muestra en la columna status del resultado. Puedes usar este conjunto de secuencias de comandos de SQL o este paquete de Dataform para iterar a través de llamadas de inferencia hasta que todas las filas se procesen de forma correcta.

  • Tengo muchas más filas para procesar que las filas por cuota de trabajo. ¿Dividir mis filas en varias consultas y ejecutarlas de manera simultánea será de ayuda?

    No, porque estas consultas consumen las mismas solicitudes por minuto de BigQuery ML y QPM de Vertex AI. Si hay varias consultas que permanecen dentro de las filas por cuota de trabajo y de la cantidad de cuotas de trabajos que se ejecutan simultáneamente, el procesamiento acumulativo agota la cuota de solicitudes por minuto.

BI Engine

Se aplican los siguientes límites a BigQuery BI Engine.

Límite Predeterminada Notas
Tamaño máximo de la reserva por proyecto y por ubicación (interfaz de SQL) 250 GiB Se aplica cuando se usa BI Engine con BigQuery. Se aplica en todos los casos, excepto Looker Studio sin integración nativa.

Puedes solicitar un aumento de la capacidad máxima de la reserva para tus proyectos. Los aumentos de reserva están disponibles en la mayoría de las regiones y pueden tardar de 3 días a una semana en procesarse.
Cantidad máxima de filas por consulta 7,000 millones Es la cantidad máxima de filas por consulta.

Analytics Hub

Se aplican los siguientes límites a Analytics Hub:

Límite Predeterminada Notas
Cantidad máxima de intercambios de datos por proyecto 500 intercambios Puedes crear hasta 500 intercambios de datos en un proyecto.
Cantidad máxima de fichas por intercambio de datos 1,000 listas Puedes crear hasta 1,000 fichas en un intercambio de datos.
Cantidad máxima de conjuntos de datos vinculados por conjunto de datos compartidos 1,000 conjuntos de datos vinculados Todos los suscriptores de Analytics Hub, combinados, pueden tener un máximo de 1,000 conjuntos de datos vinculados por conjunto de datos compartidos.

Cuotas y límites de la API

Estas cuotas y límites se aplican a las solicitudes a la API de BigQuery.

API de BigQuery

Se aplican las siguientes cuotas a las solicitudes a la API de BigQuery (núcleo):

Cuota Predeterminada Notas
Solicitudes por día Sin límite Tu proyecto puede realizar una cantidad ilimitada de solicitudes a la API de BigQuery por día.
Ver la cuota en la consola de Google Cloud
Máximo de tabledata.list bytes por minuto 7.5 GB en multirregiones; 3.7 GB en todas las demás regiones Tu proyecto puede mostrar un máximo de 7.5 GB de datos de filas de tabla por minuto a través de tabledata.list en las multirregiones us y eu, y 3.7 GB de datos de filas de tabla por minuto en todas las demás regiones. Esta cuota se aplica al proyecto que contiene la tabla que se lee. Otras APIs, incluida jobs.getQueryResults y recuperar resultados de jobs.query y jobs.insert también pueden consumir esta cuota.
Ver la cuota en la consola de Google Cloud

La API de lectura de almacenamiento de BigQuery puede mantener una capacidad de procesamiento considerablemente mayor que tabledata.list. Si necesitas una mayor capacidad de procesamiento de la permitida en esta cuota, considera usar la API de BigQuery Storage Read.

Se aplican los siguientes límites a las solicitudes a la API de BigQuery (núcleo):

Límite Predeterminada Notas
Cantidad máxima de solicitudes a la API por segundo, por usuario y por método 100 solicitudes Un usuario puede realizar hasta 100 solicitudes a la API por segundo a un método de API. Si un usuario realiza más de 100 solicitudes por segundo a un método, es posible que se les aplique un límite. No se aplica este límite a las inserciones de transmisión.
Cantidad máxima de solicitudes simultáneas a la API por usuario 300 solicitudes Si un usuario realiza más de 300 solicitudes simultáneas, es posible que se aplique un límite. Este límite no se aplica a inserciones de transmisión.
Tamaño máximo del encabezado de la solicitud 16 KiB Tu solicitud a la API de BigQuery puede ser de hasta 16 KiB, incluida la URL de la solicitud y todos los encabezados. Este límite no se aplica al cuerpo de la solicitud, por ejemplo, en una solicitud POST.
Cantidad máxima de solicitudes jobs.get por segundo 1,000 solicitudes Tu proyecto puede realizar hasta 1,000 solicitudes jobs.get por segundo.
Tamaño máximo de la respuesta jobs.query 20 MB De forma predeterminada, no hay un recuento de filas máximo para la cantidad de filas de datos que se muestran en jobs.query por cada página de resultados. Sin embargo, estás limitado a un tamaño máximo de respuesta de 20 MB. Puedes modificar la cantidad de filas que se muestran a través de el parámetro maxResults.
Tamaño máximo de la fila jobs.getQueryResults 20 MB El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. El límite se aplica durante la transcodificación.
Cantidad máxima de solicitudes projects.list por segundo 2 solicitudes Tu proyecto puede realizar hasta dos solicitudes projects.list por segundo.
Cantidad máxima de solicitudes tabledata.list por segundo 1,000 solicitudes Tu proyecto puede realizar hasta 1,000 solicitudes tabledata.list por segundo.
Cantidad máxima de filas por respuesta de tabledata.list 100,000 filas Una llamada a tabledata.list puede mostrar hasta 100,000 filas de tabla. Para obtener más información, consulta Desplázate por los resultados a través de la API.
Tamaño máximo de la fila tabledata.list 100 MB El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. El límite se aplica durante la transcodificación.
Cantidad máxima de solicitudes tables.insert por segundo 10 solicitudes Tu proyecto puede realizar hasta 10 solicitudes tables.insert por segundo. Con el método tables.insert, se crea una nueva tabla vacía dentro del conjunto de datos. Este límite incluye las instrucciones de SQL que crean tablas, como CREATE TABLE y las consultas con las que se escriben resultados en tablas de destino.

API de BigQuery Connection

Se aplican las siguientes cuotas a las llamadas a la API de conexión de BigQuery:

Cuota Predeterminada Notas
Solicitudes de lectura por minuto 1,000 solicitudes por minuto Tu proyecto puede realizar hasta 1,000 solicitudes por minuto a los métodos de la API de conexión de BigQuery que leen datos de conexión.
Ver la cuota en la consola de Google Cloud
Solicitudes de escritura por minuto 100 solicitudes por minuto Tu proyecto puede realizar hasta 100 solicitudes por minuto a los métodos de la API de conexión de BigQuery que crean o actualizan conexiones.
Ver la cuota en la consola de Google Cloud
Conexiones de BigQuery Omni creadas por minuto 10 conexiones creadas por minuto Tu proyecto puede crear hasta 10 conexiones de BigQuery Omni en total en AWS y Azure por minuto.
Usos de la conexión de BigQuery Omni 100 usos de conexión por minuto Tu proyecto puede usar una conexión de BigQuery Omni hasta 100 veces por minuto. Esto se aplica a las operaciones que usan tu conexión para acceder a tu cuenta de AWS, como cuando se consulta una tabla.

API de BigQuery Migration

Se aplican los siguientes límites a la API de BigQuery Migration:

Límite Predeterminada Notas
Tamaño de archivo individual para la traducción de SQL por lotes 10 MB Cada archivo individual de origen y metadatos puede tener hasta 10 MB. No se aplica este límite al archivo ZIP de metadatos que genera la herramienta de extracción de línea de comandos de dwh-migration-dumper.
Tamaño total de los archivos de origen para la traducción de SQL por lotes 1 GB El tamaño total de todos los archivos de entrada subidos a Cloud Storage puede ser de hasta 1 GB. Esto incluye todos los archivos fuente y los archivos de metadatos si eliges incluirlos.
Tamaño de la string de entrada para la traducción de SQL interactiva 1 MB La string que ingreses para la traducción de SQL interactiva no debe superar el 1 MB. Cuando se ejecutan traducciones interactivas con la API de Translation, este límite se aplica al tamaño total de todas las entradas de cadenas.
Tamaño máximo del archivo de configuración para la traducción de SQL interactiva 50 MB Los archivos de metadatos individuales (comprimidos) y los archivos de configuración YAML en Cloud Storage no deben exceder los 50 MB. Si el tamaño del archivo supera los 50 MB, el traductor interactivo omite ese archivo de configuración durante la traducción y produce un mensaje de error. Un método para reducir el tamaño del archivo de los metadatos es usar las marcas —database o –schema para filtrar las bases de datos cuando generas los metadatos.

Se aplican las siguientes cuotas a la API de BigQuery Migration. Los siguientes valores predeterminados se aplican en la mayoría de los casos. Los valores predeterminados de tu proyecto pueden ser diferentes:

Cuota Predeterminada Notas

Solicitudes de listas de servicios de EDWMigration por minuto

Solicitudes de listas de servicios de EDWMigration por minuto y por usuario

12,000 solicitudes

2,500 solicitudes

Tu proyecto puede realizar hasta 12,000 solicitudes de la lista de la API de migración por minuto.

Cada usuario puede realizar hasta 2,500 solicitudes de lista de la API de migración por minuto.

Ver cuotas en la consola de Google Cloud

Solicitudes Get de servicios de EDWMigration por minuto

Solicitudes Get de servicio de EDWMigration por minuto y por usuario

25,000 solicitudes

2,500 solicitudes

Tu proyecto puede realizar hasta 25,000 solicitudes de obtención de la API de migración por minuto.

Cada usuario puede realizar hasta 2,500 solicitudes Get de la API de migración por minuto.

Ver cuotas en la consola de Google Cloud

Otras solicitudes de servicio de EDWMigration por minuto

Otras solicitudes de servicio de EDWMigration por minuto y por usuario

25 solicitudes

5 solicitudes

Tu proyecto puede realizar hasta 25 solicitudes a la API de migración más por minuto.

Cada usuario puede realizar hasta 5 solicitudes a la API de migración más por minuto.

Ver cuotas en la consola de Google Cloud

Solicitudes de traducción de SQL interactivas por minuto

Solicitudes interactivas de traducción de SQL por minuto y por usuario

200 solicitudes

50 solicitudes

Tu proyecto puede realizar hasta 200 solicitudes de servicio de traducción de SQL por minuto.

Cada usuario puede realizar hasta 50 solicitudes de servicio de traducción de SQL más por minuto.

Ver cuotas en la consola de Google Cloud

API de BigQuery Reservation

Las siguientes cuotas se aplican a las solicitudes a la API de BigQuery Reservation:

Cuota Predeterminada Notas
Solicitudes por minuto, por región 100 solicitudes Tu proyecto puede realizar un total de hasta 100 llamadas a los métodos de la API de reservación de BigQuery por minuto y por región.
Ver cuotas en la consola de Google Cloud
Cantidad de llamadas por minuto a la región SearchAllAssignments 100 solicitudes Tu proyecto puede realizar hasta 100 llamadas al método SearchAllAssignments por minuto y por región.
Ver cuotas en la consola de Google Cloud
Solicitudes de SearchAllAssignments por minuto, por región y por usuario 10 solicitudes Cada usuario puede realizar hasta 10 llamadas al método SearchAllAssignments por minuto y por región.
Visualiza las cuotas en la consola de Google Cloud
(En los resultados de la búsqueda de la consola de Google Cloud, busca lo siguiente: por usuario).

API de políticas de datos de BigQuery

Se aplican los siguientes límites a la API de políticas de datos (vista previa):

Límite Predeterminada Notas
Cantidad máxima de llamadas a dataPolicies.list. 400 solicitudes por minuto por proyecto

600 solicitudes por minuto por organización
Cantidad máxima de llamadas a dataPolicies.testIamPermissions. 400 solicitudes por minuto por proyecto

600 solicitudes por minuto por organización
Cantidad máxima de solicitudes de lectura. 1,200 solicitudes por minuto por proyecto

1,800 solicitudes por minuto por organización
Esto incluye las llamadas a dataPolicies.get y dataPolicies.getIamPolicy.
Cantidad máxima de solicitudes de escritura. 600 solicitudes por minuto por proyecto

900 solicitudes por minuto por organización

Esto incluye llamadas a:

API de IAM

Se aplican las siguientes cuotas cuando usas la funcionalidad de Identity and Access Management en BigQuery para recuperar y establecer políticas de IAM, y probar los permisos de IAM. Las declaraciones del lenguaje de control de datos (DCL) se toman en cuenta en la cuota de SetIAMPolicy.

Cuota Predeterminada Notas
Solicitudes IamPolicy por minuto por usuario 1,500 solicitudes por minuto por usuario Cada usuario puede realizar hasta 1,500 solicitudes por minuto por proyecto.
Ver la cuota en la consola de Google Cloud
IamPolicy solicitudes por minuto por proyecto 3,000 solicitudes por minuto por proyecto Tu proyecto puede realizar hasta 3,000 solicitudes por minuto.
Ver la cuota en la consola de Google Cloud
Solicitudes de una sola región SetIAMPolicy por minuto por proyecto 1,000 solicitudes por minuto por proyecto Tu proyecto de una sola región puede realizar hasta 1,000 solicitudes por minuto.
Ver la cuota en la consola de Google Cloud
Solicitudes multirregionales SetIAMPolicy por minuto por proyecto 2,000 solicitudes por minuto por proyecto Tu proyecto multirregional puede realizar hasta 2,000 solicitudes por minuto.
Ver la cuota en la consola de Google Cloud
Solicitudes regionales de varios canales SetIAMPolicy por minuto por proyecto 200 solicitudes por minuto por proyecto Tu proyecto regional de varios canales puede realizar hasta 200 solicitudes por minuto.
Ver la cuota en la consola de Google Cloud

API de Storage Read

Las siguientes cuotas se aplican a las solicitudes a la API de BigQuery Storage Read.:

Cuota Predeterminada Notas
Solicitudes de lectura de plano de datos por minuto y por usuario 25,000 solicitudes Cada usuario puede realizar hasta 25,000 llamadas ReadRows por minuto y por proyecto.
Ver la cuota en la consola de Google Cloud
Solicitudes del plano de control de lectura por minuto y por usuario 5,000 solicitudes Cada usuario puede realizar hasta 5,000 llamadas de operaciones de metadatos de la API de Storage Read por minuto y por proyecto. Las llamadas de metadatos incluyen los métodos CreateReadSession y SplitReadStream.
Ver la cuota en la consola de Google Cloud

Los siguientes límites se aplican a las solicitudes a la API de BigQuery Storage Read:

Límite Predeterminada Notas
Longitud máxima del filtro o fila 1 MB Cuando usas la llamada CreateReadSession de la API de lectura de almacenamiento, tienes un límite de longitud de 1 MB para cada fila o filtro.
Tamaño máximo de datos serializados 128 MB Cuando usas la llamada ReadRows de la API de Storage Read, la representación serializada de los datos en un mensaje ReadRowsResponse individual no puede superar los 128 MB.
Cantidad máxima de conexiones simultáneas 2,000 en multirregiones; 400 en regiones Puedes abrir un máximo de 2,000 conexiones ReadRows simultáneas por proyecto en las multirregiones us y eu, y 400 conexiones ReadRows simultáneas en otras regiones. En algunos casos, puedes estar limitado a una cantidad menor de conexiones simultáneas que las de este límite.
Uso máximo de memoria por transmisión 1.5 GB La memoria máxima por transmisión es aproximada, ya que el límite se basa en la representación interna de los datos de la fila. Las transmisiones que usan más de 1.5 GB de memoria en una sola fila pueden fallar. Para obtener más información, consulta Soluciona problemas de recursos excedidos.

API de Storage Write

Las siguientes cuotas se aplican a las solicitudes a la API de Storage Write: Las siguientes cuotas se pueden aplicar a nivel de carpeta. Luego, estas cuotas se agregan y se comparten en todos los proyectos secundarios. Para habilitar esta configuración, comunícate con Atención al cliente de Cloud.

Si planeas solicitar un límite de cuota más alto, incluye el mensaje de error de cuota en tu solicitud para acelerar el procesamiento.

Cuota Predeterminada Notas
Conexiones simultáneas 1,000 en una región; 10,000 en una multirregión

La cuota de conexiones simultáneas se basa en el proyecto cliente que inicia la solicitud de la API de Storage Write, no en el proyecto que contiene el recurso de conjunto de datos de BigQuery. El proyecto de inicio es el proyecto asociado con la clave de API o la cuenta de servicio.

Tu proyecto puede operar con 1,000 conexiones simultáneas en una región o 10,000 conexiones simultáneas en las multirregiones US y EU.

Cuando usas la transmisión predeterminada en Java o Go, te recomendamos usar la multiplexación de la API de Storage Write para escribir en varias tablas de destino con conexiones compartidas para reducir la cantidad de conexiones generales necesarias. Si usas el conector de Beam con semántica de al menos una vez, puedes configurar UseStorageApiConnectionPool como TRUE para habilitar la multiplexación.

Ver la cuota en la consola de Google Cloud

Puedes ver las cuotas de uso y limitar las métricas de tus proyectos en Cloud Monitoring. Selecciona el nombre del límite de conexiones simultáneas en función de tu región. Las opciones son ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU y ConcurrentWriteConnectionsPerProjectRegion para us, eu y otras regiones, respectivamente.

Recomendamos que configures alertas para supervisar el uso de la cuota y los límites. Además, si sus patrones de tráfico experimentan aumentos repentinos o crecimiento orgánico regular, podría ser beneficioso considerar el aprovisionamiento excesivo de su cuota entre un 25% y un 50% para manejar la demanda inesperada.

Capacidad de procesamiento 3 GB de capacidad de procesamiento por segundo en multirregiones; 300 MB por segundo en regiones Puedes transmitir hasta 3 GBps en las multirregiones us y eu, y 300 MBps en otras regiones por proyecto.
Ver la cuota en la consola de Google Cloud

Puedes ver las cuotas de uso y limitar las métricas de tus proyectos en Cloud Monitoring. Selecciona el nombre del límite de la capacidad de procesamiento en función de tu región. Las opciones son AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU y AppendBytesThroughputPerProjectRegion para us, eu y otras regiones, respectivamente. La cuota de capacidad de procesamiento de escritura se mide en función del proyecto en el que reside el conjunto de datos de destino, no el proyecto del cliente.

Recomendamos que configures alertas para supervisar el uso de la cuota y los límites. Además, si sus patrones de tráfico experimentan aumentos repentinos o crecimiento orgánico regular, podría ser beneficioso considerar el aprovisionamiento excesivo de su cuota entre un 25% y un 50% para manejar la demanda inesperada.


Solicitudes CreateWriteStream 10,000 transmisiones cada hora, por proyecto y por región Puedes llamar a CreateWriteStream hasta 10,000 veces por hora, por proyecto y por región. Considera usar la transmisión predeterminada si en verdad no necesitas una semántica única. Esta cuota es por hora, pero la métrica que se muestra en la consola de Google Cloud es por minuto.
Bytes de transmisión pendientes 10 TB en multirregiones; 1 TB en regiones Por cada confirmación que actives, puedes confirmar hasta 10 TB en las multiregiones us y eu, y 1 TB en otras regiones. No hay informes de cuotas sobre esta cuota.

Se aplican los siguientes límites a las solicitudes a la API de Storage Write:

Límite Predeterminada Notas
Confirmaciones Batch 10,000 transmisiones por tabla Puedes confirmar hasta 10,000 transmisiones en cada llamada BatchCommitWriteStream.
AppendRows tamaño de la solicitud 10 MB El tamaño máximo solicitado es de 10 MB.

Inserciones de transmisión

Se aplican los siguientes límites y cuotas cuando transmites datos a BigQuery a través de la API de transmisión heredada. Si quieres obtener información sobre las estrategias para no superar estos límites, consulta Soluciona problemas de errores de cuota. Si excedes estas cuotas, recibirás errores de quotaExceeded.

Límite Predeterminada Notas
Cantidad máxima de bytes por segundo y por proyecto en las multirregiones us y eu 1 GB por segundo

Tu proyecto puede transmitir hasta 1 GB por segundo. Esta cuota es acumulativa en una multirregión determinada. Es decir, el límite de 1 GB se suma a la suma de bytes por segundo que se transmiten a todas las tablas de un proyecto determinado en una multirregión.

Si superas este límite, se generan errores quotaExceeded.

Si es necesario, puedes solicitar un aumento de cuota si te comunicas con Atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de cuota lleva tiempo en estar disponible, en especial en el caso de un aumento significativo.

Cantidad máxima de bytes por segundo y por proyecto en todas las demás ubicaciones 300 MB por segundo

Tu proyecto puede transmitir hasta 300 MB por segundo en todas las ubicaciones, excepto en las multirregiones us y eu. Esta cuota es acumulativa en una multirregión determinada. Es decir, el límite de 300 MB se aplica a la suma de bytes por segundo que se transmiten a todas las tablas de un proyecto determinado en una región.

Si superas este límite, se generan errores quotaExceeded.

Si es necesario, puedes solicitar un aumento de cuota si te comunicas con Atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de cuota lleva tiempo en estar disponible, en especial en el caso de un aumento significativo.

Tamaño máximo de fila 10 MB Si superas este valor, se generarán errores invalid.
Límite de tamaño de la solicitud HTTP 10 MB

Si superas este valor, se generarán errores invalid.

La solicitud se traduce de manera interna de HTTP JSON a una estructura de datos propia. La estructura de datos traducida tiene su propio límite de tamaño aplicado. Es difícil predecir el tamaño de la estructura de datos interna que se generará, pero si mantienes las solicitudes HTTP en 10 MB o menos, las probabilidades de alcanzar el límite interno serán bajas.

Máximo de filas por solicitud 50,000 filas Se recomienda una cantidad máxima de 500 filas. La agrupación en lotes puede aumentar el rendimiento y la capacidad de procesamiento hasta cierto punto, pero en detrimento de la latencia por solicitud. Una baja cantidad de filas por solicitud y la sobrecarga de cada solicitud pueden llevar a que la transferencia sea ineficiente. Si una solicitud abarca demasiadas filas, puedes observar una disminución en la capacidad de procesamiento. Experimenta con datos representativos (esquema y tamaño de datos) para determinar el tamaño de lote ideal para tus datos.
Longitud del campo insertId 128 caracteres Si superas este valor, se generarán errores invalid.

Si deseas obtener una cuota de transmisión adicional, consulta Solicita un aumento de la cuota.

Ancho de banda

Las siguientes cuotas se aplican al ancho de banda de replicación:

Cuota Predeterminada Notas
Ancho de banda máximo de replicación de reabastecimiento inicial para cada región que tiene salida de datos entre regiones de la réplica principal a las réplicas secundarias. Cuota de 10 GiBps físicos por región para la mayoría de los proyectos
Ancho de banda máximo de replicación en curso para cada región que tiene salida de datos entre regiones de la réplica principal a las réplicas secundarias. Cuota de 5 GiBps físicos por región para la mayoría de los proyectos
Ancho de banda máximo de la replicación turbo para cada región que tiene salida de datos entre regiones de la réplica principal a las réplicas secundarias. Cuota predeterminada de 5 GiBps físicos por región para la mayoría de los proyectos La cuota de ancho de banda de replicación turbo no se aplica a la operación de reabastecimiento inicial.

Cuando el ancho de banda de replicación de un proyecto excede una cuota determinada, es posible que la replicación de los proyectos afectados se detenga con el error rateLimitExceeded que incluye detalles de la cuota excedida.