Cuotas y límites
En este documento, se enumeran las cuotas y los límites del sistema que se aplican a BigQuery.
- Las cuotas especifican la cantidad de un recurso compartido contable que puedes usar. Las cuotas se definen según los servicios de Google Cloud, como BigQuery.
- Los límites del sistema son valores fijos que no se pueden cambiar.
Google Cloud usa cuotas para garantizar la equidad y reducir los aumentos repentinos en el uso y la disponibilidad de los recursos. Una cuota restringe la cantidad de un recurso de Google Cloud que puede usar tu proyecto de Google Cloud. Las cuotas se aplican a una variedad de tipos de recursos, incluidos los componentes de hardware, software y red. Por ejemplo, las cuotas pueden restringir la cantidad de llamadas a la API para un servicio, la cantidad de balanceadores de cargas que se usan en simultáneo en tu proyecto o la cantidad de proyectos que puedes crear. Las cuotas protegen a la comunidad de usuarios de Google Cloud mediante la prevención de la sobrecarga de los servicios. También te ayudan a administrar tus propios recursos de Google Cloud.
El sistema de cuotas Cloud realiza las siguientes acciones:
- Supervisa el consumo de productos y servicios de Google Cloud.
- Restringe el consumo de esos recursos.
- Proporciona un medio para solicitar cambios en el valor de la cuota.
En la mayoría de los casos, cuando intentas consumir más de lo que permite la cuota de un recurso, el sistema bloquea el acceso al recurso, y la tarea que intentas realizar falla.
Por lo general, las cuotas se aplican a nivel del proyecto de Google Cloud. El uso de un recurso en un proyecto no afecta tu cuota disponible en otro proyecto. Dentro de un proyecto de Google Cloud, las cuotas se comparten entre todas las aplicaciones y direcciones IP.
También existen límites del sistema para los recursos de BigQuery. Los límites del sistema no se pueden cambiar.
De forma predeterminada, las cuotas y los límites de BigQuery se aplican por proyecto. Las cuotas y los límites que se aplican con criterios diferentes se indican según corresponda, por ejemplo, la cantidad máxima de columnas por tabla o la cantidad máxima de solicitudes a la API simultáneas por usuario. Las políticas específicas varían según la disponibilidad de los recursos, el perfil del usuario, el historial de Service Usage y otros factores, y están sujetas a cambios sin previo aviso.
Restablecimiento de cuotas
Las cuotas diarias se restablecen en intervalos regulares durante el día para reflejar su propósito de orientar comportamientos que limiten las frecuencias. También se realizan actualizaciones intermitentes para evitar interrupciones prolongadas cuando una cuota se agota. Por lo general, se habilita más capacidad de la cuota en unos minutos en lugar de restablecerla por completo una vez al día.
Solicitar un aumento de cuota
Para ajustar la mayoría de las cuotas, usa la consola de Google Cloud. Para obtener más información, consulta Solicita un ajuste de cuota.
Si deseas obtener una guía paso a paso durante el proceso de solicitud de aumento de cuota en la consola de Google Cloud, haz clic en Guíame:
Limita el uso de cuota
Si deseas obtener información para limitar el uso de un recurso en particular a través de la creación de una anulación de cuota, consulta Crea una anulación de cuota.
Permisos necesarios
Para ver y actualizar tus cuotas de BigQuery en la consola de Google Cloud, necesitas los mismos permisos que cualquier cuota de Google Cloud. Para obtener más información, consulta los permisos de cuota de Google Cloud.
Solucionar problemas
Si deseas obtener más información para solucionar errores relacionados con las cuotas y los límites, consulta Soluciona problemas de errores de cuota de BigQuery.
Trabajos
Las cuotas y los límites se aplican a los trabajos que BigQuery ejecuta por ti, ya sea que se ejecuten a través de la consola de Google Cloud, la herramienta de línea de comandos de bq o de manera programática a través de la API de REST o las bibliotecas cliente.
Trabajos de consulta
Se aplican los siguientes límites a trabajos de consulta creados automáticamente a través de la ejecución de consultas interactivas y programadas, y trabajos enviados a través de jobs.query
y métodos de API de consulta jobs.insert
:
Cuota | Predeterminada | Notas |
---|---|---|
Uso de consultas por día | Ilimitado | No hay límite para la cantidad de bytes que pueden procesarse en las consultas de un proyecto. Ver la cuota en la consola de Google Cloud |
Uso de consultas por día por usuario | Ilimitado | No hay límite para la cantidad de bytes que las consultas de un usuario pueden procesar cada día. Ver la cuota en la consola de Google Cloud |
Bytes entre regiones de consultas federadas de Cloud SQL por día | 1 TB | Si la ubicación de procesamiento de consultas de BigQuery y la ubicación de la instancia de Cloud SQL son distintas, la consulta es entre regiones. Tu proyecto puede ejecutar hasta 1 TB en consultas entre regiones por día. Revisa Consultas federadas de Cloud SQL. Ver la cuota en la consola de Google Cloud |
Bytes transferidos entre nubes por día | 1 TB |
Puedes transferir hasta 1 TB de datos por día desde un bucket de Amazon S3 o desde Azure Blob Storage. Para obtener más información, consulta Transferencia entre nubes de Amazon S3 y Azure.
Ver la cuota en la consola de Google Cloud |
Se aplican los siguientes límites a trabajos de consulta creados automáticamente a través de la ejecución de consultas interactivas y programadas, y trabajos enviados a través de jobs.query
y métodos de tipo de consulta de la API jobs.insert
:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de consultas interactivas en cola | 1,000 consultas | Tu proyecto puede poner en cola hasta 1,000 consultas interactivas. Las consultas interactivas adicionales que superan este límite muestran un error de cuota. |
Cantidad máxima de consultas por lotes en cola | 20,000 consultas | Tu proyecto puede poner en cola hasta 20,000 consultas por lotes. Las consultas por lotes adicionales que superan este límite muestran un error de cuota. |
Cantidad máxima de consultas interactivas simultáneas en fuentes externas de datos de Bigtable | 16 consultas | Tu proyecto puede ejecutar hasta dieciséis consultas simultáneas en una fuente de datos externa de Bigtable. |
Cantidad máxima de consultas simultáneas que contienen funciones remotas | 10 consultas | Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto. |
Cantidad máxima de consultas simultáneas de varias declaraciones | 1,000 consultas de varias declaraciones | Tu proyecto puede ejecutar hasta 1,000 consultas de varias declaraciones simultáneas. Para conocer otras cuotas y límites relacionados con las consultas de varias sentencias, ve a Consultas de varias sentencias. |
Cantidad máxima de consultas heredadas en SQL simultáneas que contienen UDF | 6 consultas | Tu proyecto puede ejecutar hasta seis consultas de SQL heredado simultáneas con funciones definidas por el usuario (UDF). Este límite incluye consultas interactivas y por lotes. También se toman en cuenta las consultas interactivas que contienen UDF en el límite de simultaneidad de las consultas interactivas. Este límite no se aplica a consultas de GoogleSQL. |
Límite diario de tamaño de las consultas | Ilimitado | De forma predeterminada, no hay un límite de tamaño de consulta diario. Sin embargo, puedes establecer límites para la cantidad de datos que los usuarios pueden consultar a través de la creación de cuotas personalizadas para controlar el uso de consultas por día o el uso de consultas por día por usuario. |
Límite diario de actualización de tablas de destino | Consulta Cantidad máxima de operaciones en tablas por día. |
Las actualizaciones de las tablas de destino en un trabajo de consulta se tienen en cuenta para el límite en la cantidad máxima de operaciones en tabla por día para las tablas de destino. Las actualizaciones de tablas de destino incluyen operaciones que agregan y reemplazan datos, las cuales se realizan a través de consultas que se ejecutan con la consola de Google Cloud, la herramienta de línea de comandos de bq o a través de una llamada a los métodos de API jobs.query y de tipo de consulta jobs.insert .
|
Límite de tiempo de ejecución de las consultas o consultas de varias declaraciones | 6 horas |
Una consulta o una consulta de varias declaraciones puede ejecutarse hasta por 6 horas. Luego de ese tiempo, fallará. Sin embargo, a veces se reintentan las consultas. Una consulta se puede probar hasta tres veces, y cada intento se puede ejecutar hasta por 6 horas. Como resultado, es posible que una consulta tenga un entorno de ejecución total superior a 6 horas. El tiempo de espera de trabajo de |
Cantidad máxima de recursos referenciados por consulta | 1,000 recursos |
Una consulta puede hacer referencia hasta un total de 1,000 tablas únicas, vistas únicas, funciones definidas por el usuario (UDF) únicas, y funciones de tabla únicas después de una expansión completa. Este límite incluye lo siguiente:
|
Longitud máxima de caracteres para consultas de SQL | 1,024 KB en caracteres |
Una consulta de SQL puede tener hasta 1,024 KB en caracteres. Este límite incluye
comentarios y espacios en blanco. Si tu consulta es más larga, recibirás
el siguiente error: The query is too large. Para permanecer dentro de este
límite, te recomendamos reemplazar arrays o listas grandes con parámetros de consulta y dividir
una consulta larga en varias consultas en la sesión.
|
Longitud máxima de consultas de SQL heredado sin resolver | 256 KB |
Una consulta de SQL heredado sin resolver puede tener hasta 256 KB. Si tu consulta es más larga, recibes el siguiente error: The query
is too large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes por parámetros de consulta.
|
Longitud máxima de consultas de GoogleSQL sin resolver | 1 MB |
Una consulta de GoogleSQL sin resolver puede tener hasta 1 MB de longitud. Si tu consulta es más larga, recibes el siguiente error: The query is too
large. Para permanecer dentro de este límite, te recomendamos reemplazar arrays o listas grandes con parámetros de consulta.
|
Longitud máxima de consulta de GoogleSQL heredada y resuelta | 12 MB | El límite de la longitud de las consultas resueltas incluye la longitud de todas las vistas y tablas de comodines a las que se hace referencia en la consulta. |
Cantidad máxima de parámetros de consulta de GoogleSQL | 10,000 parámetros | Una consulta de GoogleSQL puede tener hasta 10,000 parámetros. |
Tamaño máximo de la solicitud | 10 MB | El tamaño de la solicitud puede ser de hasta 10 MB, incluidas las propiedades adicionales, como los parámetros de consulta. |
Tamaño máximo de la respuesta | 10 GB comprimidos | Los tamaños varían según el índice de compresión de los datos. El tamaño real de respuesta puede ser mucho mayor que 10 GB. El tamaño máximo de respuesta es ilimitado cuando se escriben los resultados de una consulta grande en una tabla de destino. |
Tamaño máximo de fila | 100 MB | El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. Este se aplica durante ciertas etapas de la ejecución del trabajo de consulta. |
Cantidad máxima de columnas en una tabla, resultado de consulta o definición de la vista | 10,000 columnas | Una definición de tabla, resultado de consulta o vista puede tener hasta 10,000 columnas. Esto incluye columnas anidadas y repetidas. |
Cantidad máxima de ranuras simultáneas para precios según demanda |
2,000 ranuras por proyecto 20,000 ranuras por organización |
Con los precios según demanda, tu proyecto puede tener hasta 2,000 ranuras simultáneas. También hay un límite de 20,000 ranuras simultáneas a nivel de la organización. BigQuery intenta asignar ranuras de manera equitativa entre los proyectos dentro de una organización si su demanda total es superior a 20,000 ranuras. Las ranuras de BigQuery se comparten entre todas las consultas de un mismo proyecto. BigQuery podría sobrepasar este límite en aumentos repentinos de actividad para acelerar las consultas. Para verificar la cantidad de ranuras que usas, consulta Supervisa BigQuery a través de Cloud Monitoring. |
Uso máximo de CPU por datos analizados para los precios según demanda | 256 segundos de CPU por MiB analizado |
Con los precios según demanda, tu consulta puede usar hasta 256 segundos de CPU por cada MiB de datos analizados. Si tu consulta requiere demasiado CPU para la cantidad de datos que se procesan, la consulta fallará con un error billingTierLimitExceeded .
Para obtener más información, consulta billingTierLimitExceeded.
|
Mutaciones de las tablas de transacciones de varias declaraciones | 100 tablas | Una transacción puede mutar datos en un máximo de 100 tablas. |
Modificaciones de particiones de transacciones de varias declaraciones | 100,000 modificaciones de particiones | Una transacción puede realizar como máximo 100,000 modificaciones de particiones. |
Tamaño máximo de resultados de consulta de BigQuery Omni | 20 GiB sin comprimir | El tamaño máximo de resultado es de 20 GiB de bytes lógicos cuando se consultan datos de Azure o AWS. Si el resultado de tu consulta es mayor a 20 GiB, considera exportar los resultados a Amazon S3 o Blob Storage. Para obtener más información, consulta las limitaciones de BigQuery Omni. |
Tamaño total de resultados de consultas de BigQuery Omni por día | 1 TB | Los tamaños totales de los resultados de las consultas de un proyecto son de 1 TB por día.
Para obtener más información, consulta las limitaciones de BigQuery Omni. |
Tamaño máximo de fila de BigQuery Omni | 10 MiB | El tamaño máximo de fila es de 10 MiB cuando se consultan datos de Azure o AWS. Para obtener más información, consulta las limitaciones de BigQuery Omni. |
A pesar de que en las consultas programadas se usa el Servicio de transferencia de datos de BigQuery, estas no se transfieren y no están sujetas a límites de trabajo de carga.
Trabajos de exportación
Se aplican los siguientes límites a los trabajos que exportan datos desde BigQuery a través de la herramienta de línea de comandos de bq, la consola de Google Cloud o el método de API de exportación jobs.insert
.
Límite | Predeterminada | Notas |
---|---|---|
La cantidad máxima de bytes exportados por día | 50 TiB |
Puedes exportar hasta 50 TiB (Tebibytes) de datos por día desde un proyecto sin costo mediante el grupo de ranuras compartidas. Puedes configurar una política de alertas de Cloud Monitoring que proporcione una notificación de la cantidad de bytes exportados.
Si deseas exportar más de 50 TiB (Tebibytes) de datos al día, realiza una de las siguientes acciones:
|
Cantidad máxima de trabajos de exportación por día | 100,000 exportaciones |
Puedes ejecutar hasta 100,000 exportaciones por día en un proyecto.
Para ejecutar más de 100,000 exportaciones por día, realiza una de las siguientes acciones:
|
Tamaño máximo de la tabla exportada a un solo archivo | 1 GB | Puedes exportar hasta 1 GB de datos de tablas a un solo archivo. Si necesitas exportar más de 1 GB de datos, usa un comodín para exportar los datos a varios archivos. Cuando exportas datos a varios archivos, el tamaño de estos puede variar. En algunos casos, el tamaño de los archivos de salida es de más de 1 GB. |
URI comodín por exportación | 500 URI | Una exportación puede tener hasta 500 URI comodines. |
Para obtener más información sobre cómo ver el uso actual de tu trabajo de exportación, consulta Visualiza el uso actual de la cuota.
Trabajos de carga
Se aplican los siguientes límites cuando cargas datos en BigQuery a través de la consola de Google Cloud, la herramienta de línea de comandos de bq o el tipo de carga del método jobs.insert
de la API.
Límite | Predeterminada | Notas |
---|---|---|
Trabajos de carga por tabla por día | 1,500 trabajos | Los trabajos de carga, incluidos los trabajos de carga con errores, se tienen en cuenta en la cantidad máxima de operaciones de tabla por día para la tabla de destino. Si deseas obtener información sobre los límites de cantidad de operaciones de tablas por día para tablas estándar y particionadas, consulta Tablas. |
Trabajos de carga por día | 100,000 trabajos | Tu proyecto se reabastece con un máximo de 100,000 cuotas de trabajos de carga cada 24 horas. Los trabajos de carga con errores se consideran en este límite. En algunos casos, es posible ejecutar más de 100,000 trabajos de carga en 24 horas si la cuota de un día anterior no se usa por completo. |
Cantidad máxima de columnas por tabla: | 10,000 columnas | Una tabla puede tener hasta 10,000 columnas. Esto incluye columnas anidadas y repetidas. |
Tamaño máximo por trabajo de carga | 15 TB | El tamaño total de todos los archivos de entrada CSV, JSON, Avro, ORC y Parquet puede ser de hasta 15 TB. |
Cantidad máxima de URI de origen en la configuración del trabajo | 10,000 URI | Una configuración de trabajo puede tener hasta 10,000 URI de origen. |
Cantidad máxima de archivos por trabajo de carga | 10,000,000 de archivos | Un trabajo de carga puede tener hasta 10 millones de archivos en total, incluidos todos los archivos que coincidan con todos los URI comodín. |
Cantidad máxima de archivos en el bucket de origen de Cloud Storage | Un aproximado de 60,000,000 archivos | Un trabajo de carga puede leer desde un bucket de Cloud Storage que contiene hasta 60,000,000 archivos. |
Límite de tiempo de ejecución del trabajo de carga | 6 horas | Un trabajo de carga falla si se ejecuta durante más de seis horas. |
Avro: tamaño máximo de los bloques de datos del archivo | 16 MB | El límite de tamaño de los bloques de datos del archivo de Avro es de 16 MB. |
CSV: Tamaño máximo de celdas | 100 MB | Las celdas de CSV pueden tener un tamaño de hasta 100 MB. |
CSV: tamaño máximo de fila | 100 MB | Las filas de CSV pueden tener un tamaño de hasta 100 MB. |
CSV: Tamaño máximo del archivo comprimido | 4 GB | El límite de tamaño para un archivo CSV comprimido es de 4 GB. |
CSV: Tamaño máximo del archivo sin comprimir | 5 TB | El límite de tamaño para un archivo CSV sin comprimir es de 5 TB. |
JSON delimitado por saltos de línea (ndJSON): Tamaño máximo de fila | 100 MB | Las filas de ndJSON pueden tener un tamaño de hasta 100 MB. |
ndJSON: Tamaño máximo del archivo comprimido | 4 GB | El límite de tamaño de un archivo ndJSON comprimido es de 4 GB. |
ndJSON: Tamaño máximo del archivo sin comprimir | 5 TB | El límite de tamaño para un archivo ndJSON sin comprimir es de 5 TB. |
Si superas los límites del trabajo de carga con regularidad debido a las actualizaciones frecuentes, considera transmitir datos a BigQuery en su lugar.
Para obtener información sobre cómo ver tu uso actual de trabajos de carga, consulta Visualiza el uso actual de la cuota.
Consideraciones sobre las cuotas del trabajo de carga del Servicio de transferencia de datos de BigQuery
Los trabajos de carga creados por las transferencias del Servicio de transferencia de datos de BigQuery se incluyen en las cuotas de BigQuery para los trabajos de carga. Es importante tener en cuenta la cantidad de transferencias que habilitas en cada proyecto para evitar que las transferencias y otros trabajos de carga produzcan errores de quotaExceeded
.
Puedes usar la siguiente ecuación para estimar cuántos trabajos de carga requieren tus transferencias:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
En el ejemplo anterior, se ilustra lo siguiente:
Number of transfers
es la cantidad de opciones de configuración de transferencia que habilitas en tu proyecto.Number of tables
es la cantidad de tablas creadas por cada tipo de transferencia específico. La cantidad de tablas varía según el tipo de transferencia:- Las transferencias de Campaign Manager crean aproximadamente 25 tablas.
- Las transferencias de Google Ads crean aproximadamente 60 tablas.
- Las transferencias de Google Ad Manager crean aproximadamente 40 tablas.
- Las transferencias de Google Play crean alrededor de 25 tablas.
- Las transferencias de Search Ads 360 crean alrededor de 50 tablas.
- Las transferencias de YouTube crean alrededor de 50 tablas.
Schedule frequency
describe la frecuencia con la que se ejecuta la transferencia. Se proporcionan los programas de ejecución de las transferencias para cada tipo de transferencia:Refresh window
es la cantidad de días que se deben incluir en la transferencia de datos. Si ingresas 1, no se realiza un reabastecimiento diario.
Trabajos de copia
Se aplican los siguientes límites a los trabajos de BigQuery para copiar tablas, incluidos los trabajos que crean una copia, una clonación o una instantánea de una tabla estándar, una clonación de tabla o una instantánea de tabla.
Los límites se aplican a los trabajos creados a través de la consola de Google Cloud, la herramienta de línea de comandos de bq o el método jobs.insert
que especifica el campo copy
en la configuración del trabajo.
Los trabajos de copia se tienen en cuenta en estos límites, ya sea que se completen de forma correcta o fallen.
Límite | Predeterminada | Notas |
---|---|---|
Trabajos de copia diarios por tabla de destino | Consulta Operaciones de tabla por día. | |
Trabajos de copia por día | 100,000 trabajos | Tu proyecto puede ejecutar hasta 100,000 trabajos de copia por día. |
Trabajos de copia entre regiones por tabla de destino por día | 100 trabajos | Tu proyecto puede ejecutar hasta 100 trabajos de copia entre regiones por tabla de destino por día. |
Trabajos de copia entre regiones por día | 2,000 trabajos | Tu proyecto puede ejecutar hasta 2,000 trabajos de copia entre regiones por día. |
Cantidad de tablas de origen para copiar | 1,200 tablas de origen | Puedes copiar hasta 1,200 tablas de origen por trabajo de copia. |
Para obtener información sobre cómo ver tu uso actual de trabajos de copia, consulta Trabajos de copia: Visualiza el uso actual de la cuota.
Se aplican los siguientes límites a la copia de conjuntos de datos:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de tablas en el conjunto de datos de origen | 25,000 tablas | Un conjunto de datos de origen puede tener hasta 25,000 tablas. |
Cantidad máxima de tablas que se pueden copiar por ejecución en un conjunto de datos de destino en la misma región | 20,000 tablas | Tu proyecto puede copiar un máximo de 20,000 tablas por ejecución a un conjunto de datos de destino dentro de la misma región. Si un conjunto de datos de origen contiene más de 20,000 tablas, el Servicio de transferencia de datos de BigQuery programa ejecuciones secuenciales, cada una de las cuales copia hasta 20,000 tablas, hasta que se copian todas. Estas ejecuciones se separan por un intervalo predeterminado de 24 horas, que los usuarios pueden personalizar hasta un mínimo de 12 horas. |
Cantidad máxima de tablas que se pueden copiar por ejecución en un conjunto de datos de destino ubicado en una región diferente | 1,000 tablas | Tu proyecto puede copiar un máximo de 1,000 tablas por ejecución a un conjunto de datos de destino que se encuentre en una región diferente. Si un conjunto de datos de origen contiene más de 1,000 tablas, el Servicio de transferencia de datos de BigQuery programa ejecuciones secuenciales, cada una de las cuales copia hasta 1,000 tablas, hasta que se copien todas. Estas ejecuciones se separan por un intervalo predeterminado de 24 horas, que los usuarios pueden personalizar hasta un mínimo de 12 horas. |
Reservas
Las siguientes cuotas se aplican a las reservas:
Cuota | Predeterminada | Notas |
---|---|---|
Cantidad total de ranuras para la región de la UE | 5,000 ranuras |
Cantidad máxima de ranuras de BigQuery que puedes comprar en la multirregión de la UE a través de la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Cantidad total de ranuras para la región de EE.UU. | 10,000 ranuras |
Cantidad máxima de ranuras de BigQuery que puedes comprar en la multirregión de EE.UU. con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Cantidad total de ranuras para la región us-east1 .
|
4,000 ranuras |
Cantidad máxima de ranuras de BigQuery que puedes comprar en la región especificada a través de la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Cantidad total de ranuras para las siguientes regiones:
|
2,000 ranuras |
La cantidad máxima de ranuras de BigQuery que puedes comprar en cada una de las regiones enumeradas con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Cantidad total de ranuras para las siguientes regiones:
|
1,000 ranuras |
La cantidad máxima de ranuras de BigQuery que puedes comprar en cada una de las regiones enumeradas con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Cantidad total de ranuras para regiones de BigQuery Omni | 100 ranuras |
La cantidad máxima de ranuras de BigQuery que puedes comprar en las regiones de BigQuery Omni a través de la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Cantidad total de ranuras para todas las demás regiones | 500 ranuras |
La cantidad máxima de ranuras de BigQuery que puedes comprar en cada región con la consola de Google Cloud.
Ver cuotas en la consola de Google Cloud |
Se aplican los siguientes límites a las reservas:
Límite | Valor | Notas |
---|---|---|
Cantidad de proyectos de administración para reservas de ranuras | 5 proyectos por organización | El número máximo de proyectos dentro de una organización que pueden contener una reserva o un compromiso activo para ranuras para una ubicación o región determinada. |
Cantidad máxima de reservas de la edición estándar | 10 reservas por proyecto | La cantidad máxima de reservas de la edición estándar por proyecto de administración dentro de una organización para una ubicación o región determinada. |
Cantidad máxima de reservas de la edición Enterprise o Enterprise Plus | 200 reservas por proyecto | La cantidad máxima de reservas por proyecto de administración de la edición Enterprise o Enterprise Plus dentro de una organización para una ubicación o región determinada. |
Es la cantidad máxima de ranuras en una reserva que está asociada con una asignación de reserva con un tipo de trabajo CONTINUOUS .
|
500 ranuras |
Cuando quieras crear una asignación de reserva que tenga un tipo de trabajo CONTINUOUS , la reserva asociada no puede tener más de 500 ranuras.
|
Conjuntos de datos
Se aplican los siguientes límites a los conjunto de datos de BigQuery.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de conjuntos de datos | Ilimitado | No hay límite para la cantidad de conjuntos de datos que puede tener un proyecto. |
Cantidad de tablas por conjunto de datos | Ilimitado | Cuando usas una llamada a la API, se ralentiza el rendimiento de la enumeración a medida que te acercas a las 50,000 tablas por conjunto de datos. La consola de Google Cloud puede mostrar hasta 50,000 tablas por cada conjunto de datos. |
Cantidad de recursos autorizados en la lista de control de acceso de un conjunto de datos | 2,500 recursos | La lista de control de acceso de un conjunto de datos puede tener hasta 2,500 recursos autorizados en total, incluidas las vistas autorizadas, los conjuntos de datos autorizados y las funciones autorizadas. Si superas este límite debido a una gran cantidad de vistas autorizadas, considera agrupar las vistas en conjuntos de datos autorizados. |
Cantidad de operaciones de actualización de conjuntos de datos por conjunto de datos cada 10 segundos | 5 operaciones |
Tu proyecto puede realizar hasta cinco operaciones de actualización de conjuntos de datos cada 10 segundos.
El límite de actualización del conjunto de datos incluye todas las operaciones de actualización de metadatos que realizan los siguientes elementos:
|
Longitud máxima de la descripción de un conjunto de datos | 16,384 caracteres | Cuando agregas una descripción a un conjunto de datos, el texto puede tener, como máximo, 16,384 caracteres. |
Tablas
Todas las tablas
Se aplican los siguientes límites a todas las tablas de BigQuery.
Límite | Predeterminada | Notas |
---|---|---|
Longitud máxima de un nombre de columna | 300 caracteres | El nombre de la columna puede tener 300 caracteres como máximo. |
Longitud máxima de la descripción de una columna | 1,024 caracteres | Cuando agregas una descripción a una columna, el texto puede tener 1,024 caracteres como máximo. |
Profundidad máxima de los registros anidados | 15 niveles |
Las columnas de tipo RECORD pueden contener tipos RECORD anidados, también llamados registros secundarios. El límite de profundidad de anidado máximo es de 15 niveles.
Este límite es independiente de si los registros son escalares o basados en arrays (repetidos).
|
Longitud máxima de la descripción de una tabla | 16,384 caracteres | Cuando agregas una descripción a una tabla, el texto puede tener, como máximo, 16,384 caracteres. |
Tablas estándar
Se aplican los siguientes límites a las tablas estándar de BigQuery (integradas):
Límite | Predeterminada | Notas |
---|---|---|
Modificaciones de la tabla por día | 1,500 modificaciones | Tu proyecto puede realizar hasta 1,500 modificaciones de tabla por día, ya sea que la modificación actualice los metadatos de la tabla, agregue o actualice datos, o trunque la tabla. Este límite no puede cambiarse y, además, incluye el total combinado de todos los trabajos de carga, trabajos de copia y trabajos de consulta que agregan datos a una tabla de destino o la reemplazan. Las declaraciones DML no se consideran en la cantidad de modificaciones de tablas por día. Los datos de transmisión no se consideran en la cantidad de modificaciones de tablas por día. |
Frecuencia máxima de operaciones de actualización de metadatos de tabla por tabla | 5 operaciones cada 10 segundos |
Tu proyecto puede realizar hasta cinco operaciones de actualización de metadatos de tablas cada 10 segundos por tabla. Este límite se aplica a todas las operaciones de actualización de metadatos de la tabla, realizadas por:
DELETE , INSERT , MERGE , TRUNCATE TABLE o UPDATE para escribir datos en una tabla. Ten en cuenta que, aunque las declaraciones DML se toman en cuenta en este límite, no están sujetas a ella si se alcanza. Las operaciones DML tienen límites de frecuencia dedicados.
Si excedes este límite, recibirás un mensaje de error como Para identificar las operaciones que se consideran en este límite, puedes inspeccionar tus registros. Consulta Soluciona problemas de errores de cuota para obtener información sobre cómo diagnosticar y resolver este error. |
Cantidad máxima de columnas por tabla | 10,000 columnas | Cada tabla, resultado de la consulta o definición de la vista puede tener hasta 10,000 columnas. Esto incluye columnas anidadas y repetidas. |
Tablas externas
Se aplican los siguientes límites a las tablas de BigQuery almacenadas en Cloud Storage en los formatos Parquet, ORC, Avro, CSV o JSON.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de URI de origen por tabla externa | 10,000 URI | Cada tabla externa puede tener hasta 10,000 URI de origen. |
Cantidad máxima de archivos por tabla externa | 10,000,000 de archivos | Una tabla externa puede tener hasta 10 millones de archivos, incluidos todos los archivos que coincidan con todos los URI comodines. |
Tamaño máximo de los datos almacenados en Cloud Storage por tabla externa | 600 TB | Una tabla externa puede tener hasta 600 terabytes en todos los archivos de entrada. Este límite se aplica a los tamaños de archivo según lo almacenado en Cloud Storage. Este tamaño no es el mismo que el tamaño que se usa en la fórmula para calcular los precios de las consultas. En el caso de las tablas particionadas de forma externa, se aplica el límite después de la reducción de particiones. |
Cantidad máxima de archivos en el bucket de origen de Cloud Storage | Un aproximado de 60,000,000 archivos | Una tabla externa puede hacer referencia a un bucket de Cloud Storage que contenga hasta 60,000,000 archivos. En el caso de las tablas particionadas de forma externa, se aplica este límite antes de la reducción de particiones. |
Tablas particionadas
Se aplican los siguientes límites a las tablas particionadas de BigQuery.
Los límites de partición se aplican al total combinado de todos los trabajos de carga, Trabajos de copia y Trabajos de consulta que agregan o reemplazan una partición de destino.
Un solo trabajo puede afectar a varias particiones. Por ejemplo, los trabajos de carga y de consulta pueden escribir en varias particiones.
BigQuery usa la cantidad de particiones que afecta un mismo trabajo para determinar qué cantidad de límite consume el trabajo. Las inserciones de transmisión no afectan a este límite.
Si deseas obtener información sobre las estrategias para permanecer dentro de los límites de las tablas particionadas, consulta Soluciona problemas de errores de cuota.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad de particiones por tabla particionada | 10,000 particiones | Cada tabla particionada puede tener hasta 10,000 particiones. Si superas este límite, considera usar el agrupamiento en clústeres además de la partición o en lugar de hacerlo. |
Cantidad máxima de particiones modificadas a través de un solo trabajo | 4,000 particiones | Cada operación de trabajo (de consulta o carga) puede afectar hasta 4,000 particiones. BigQuery rechaza cualquier trabajo de consulta o carga que intente modificar más de 4,000 particiones. |
Cantidad de modificaciones de particiones durante el tiempo de transferencia por tabla particionada por día | 11,000 modificaciones | Tu proyecto puede realizar hasta 11,000 modificaciones de particiones por día, ya sea que la modificación agregue datos, los actualice o trunque una tabla particionada por tiempo de transferencia. Las declaraciones DML no se toman en cuenta en la cantidad de modificaciones de partición por día. |
La cantidad de modificaciones de partición por tabla particionada por columna por día | 30,000 modificaciones | Tu proyecto puede realizar hasta 30,000 modificaciones de particiones por día en una tabla particionada por columnas. Las declaraciones DML no se toman en cuenta en la cantidad de modificaciones de partición por día. Los datos de transmisión no se consideran en la cantidad de modificaciones de partición por día. |
Frecuencia máxima de operaciones de actualización de metadatos de tabla por tabla particionada | 50 modificaciones cada 10 segundos |
Tu proyecto puede ejecutar hasta 50 modificaciones por tabla particionada cada 10 segundos. Este límite se aplica a todas las operaciones de actualización de metadatos de la tabla particionada, realizadas por:
DELETE , INSERT , MERGE , TRUNCATE TABLE o UPDATE para escribir datos en una tabla.
Si excedes este límite, recibirás un mensaje de error como Para identificar las operaciones que se consideran en este límite, puedes inspeccionar tus registros. |
Cantidad de rangos posibles para la partición por rangos | 10,000 rangos | Una tabla particionada por rango puede tener hasta 10,000 rangos posibles. Este límite se aplica a la especificación de la partición cuando creas la tabla. Después de crear la tabla, el límite también se aplica a la cantidad real de particiones. |
Clonaciones de tablas
Se aplican los siguientes límites a las clonaciones de tabla de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de clonaciones y de instantáneas en una cadena | 3 instantáneas o clonaciones de tabla | Las clonaciones y las instantáneas combinadas están limitadas a una profundidad de 3. Cuando clonas o tomas instantáneas de una tabla base, puedes clonar o tomar instantáneas del resultado solo dos veces más; intentar clonar o tomar instantáneas del resultado por tercera vez genera un error. Por ejemplo, puedes crear la clonación A de la tabla base, crear la instantánea B de la clonación A y crear la clonación C de la instantánea B. Para hacer duplicados adicionales del clon o la instantánea de tercer nivel, usa una operación de copia en su lugar. |
Cantidad máxima de clonaciones y de instantáneas para una tabla base | 1,000 instantáneas o clonaciones de tabla | No puedes tener más de 1,000 instantáneas y clonaciones existentes combinadas de una tabla base determinada. Por ejemplo, si tienes 600 instantáneas y 400 clonaciones, alcanzas el límite. |
Instantáneas de tablas
Se aplican los siguientes límites a las instantáneas de tabla de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de trabajos de instantáneas de tablas simultáneas | 100 trabajos | Tu proyecto puede ejecutar hasta 100 trabajos de instantáneas de tabla simultáneos. |
Cantidad máxima de trabajos de instantáneas de tablas por día | 50,000 trabajos | Tu proyecto puede ejecutar hasta 50,000 trabajos de instantáneas de tablas por día. |
Cantidad máxima de trabajos de instantáneas de tablas por tabla por día | 50 trabajos | Tu proyecto puede ejecutar hasta 50 trabajos de instantáneas de tablas por tabla por día. |
Cantidad máxima de actualizaciones de metadatos por instantánea de tabla cada 10 segundos. | 5 actualizaciones | Tu proyecto puede actualizar los metadatos de una instantánea de tabla hasta cinco veces cada 10 segundos. |
Cantidad máxima de clonaciones y de instantáneas en una cadena | 3 instantáneas o clonaciones de tabla | Las clonaciones y las instantáneas combinadas están limitadas a una profundidad de 3. Cuando clonas o tomas instantáneas de una tabla base, puedes clonar o tomar instantáneas del resultado solo dos veces más; intentar clonar o tomar instantáneas del resultado por tercera vez genera un error. Por ejemplo, puedes crear la clonación A de la tabla base, crear la instantánea B de la clonación A y crear la clonación C de la instantánea B. Para hacer duplicados adicionales del clon o la instantánea de tercer nivel, usa una operación de copia en su lugar. |
Cantidad máxima de clonaciones y de instantáneas para una tabla base | 1,000 instantáneas o clonaciones de tabla | No puedes tener más de 1,000 instantáneas y clonaciones existentes combinadas de una tabla base determinada. Por ejemplo, si tienes 600 instantáneas y 400 clonaciones, alcanzas el límite. |
Vistas
Se aplican los siguientes límites y cuotas a las vistas y las vistas materializadas.
Vistas lógicas
Se aplican los siguientes límites a las vistas estándares de BigQuery.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de niveles de vistas anidadas | 16 niveles |
BigQuery admite un máximo de 16 niveles de vistas anidadas.
Es posible crear vistas hasta este límite, pero las consultas se limitan a 15 niveles. Si se excede el límite, BigQuery muestra un error INVALID_INPUT .
|
Longitud máxima de una consulta de GoogleSQL que se usa para definir una vista | 256,000 caracteres | Una sola consulta de GoogleSQL que define una vista puede tener hasta 256,000 caracteres. Este límite se aplica a una sola consulta y no incluye la longitud de las vistas a las que se hace referencia en la consulta. |
Cantidad máxima de vistas autorizadas por conjunto de datos | Consulta Conjuntos de datos. | |
Longitud máxima de la descripción de una vista | 16,384 caracteres | Cuando agregas una descripción a una vista, el texto puede tener, como máximo, 16,384 caracteres. |
Vistas materializadas
Se aplican los siguientes límites a las vistas materializadas de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Referencias de tablas base (mismo conjunto de datos) | 20 vistas materializadas | Se puede hacer referencia a cada tabla base hasta por 20 vistas materializadas del mismo conjunto de datos. |
Referencias de tablas base (mismo proyecto) | 100 vistas materializadas | Se puede hacer referencia a cada tabla base hasta por 100 vistas materializadas del mismo proyecto. |
Referencias de tablas base (toda la organización) | 500 vistas materializadas | Se puede hacer referencia a cada tabla base hasta por 500 vistas materializadas de toda la organización. |
Cantidad máxima de vistas autorizadas por conjunto de datos | Consulta Conjuntos de datos. | |
Longitud máxima de la descripción de una vista materializada | 16,384 caracteres | Cuando agregas una descripción a una vista materializada, el texto puede tener, como máximo, 16,384 caracteres. |
Índices de búsqueda
Se aplican los siguientes límites a los índices de búsqueda de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad de declaraciones DDL CREATE INDEX por proyecto, por
región y por día
|
500 operaciones |
Tu proyecto puede emitir hasta 500 operaciones DDL
CREATE INDEX todos los días dentro de una región.
|
La cantidad de declaraciones DDL del índice de búsqueda por tabla y por día | 20 operaciones |
Tu proyecto puede emitir hasta 20 operaciones DDL
CREATE INDEX o DROP INDEX por tabla y por día.
|
Tamaño total máximo de los datos de la tabla por organización permitidos para la creación de índices de búsqueda que no se ejecutan en una reserva | 100 TB en multirregiones; 20 TB en todas las otras regiones |
Puedes crear un índice de búsqueda para una tabla si el tamaño general de
las tablas con índices en tu organización está por debajo del límite de tu región:
100 TB para las multirregiones US y EU , y
20 TB para todas las demás regiones. Si tus trabajos de administración de índices se ejecutan en
tu
propia reserva, este límite no se aplica.
|
Índices vectoriales
Se aplican los siguientes límites a los índices vectoriales de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad mínima de filas de la tabla base | 5,000 filas | Una tabla debe tener al menos 5,000 filas para crear un índice vectorial. |
Cantidad máxima de filas de la tabla base |
10,000,000,000 filas para el tipo de índice IVF 200,000,000 para el tipo de índice TREE_AH |
Una tabla puede tener como máximo 10,000,000,000 filas para crear un índice vectorial de IVF y 200,000,000 filas para crear un índice vectorial de TREE_AH. |
Tamaño máximo del array en la columna indexada | 1,600 elementos | La columna que se indexará puede tener como máximo 1,600 elementos en el array. |
Tamaño mínimo de la tabla para la propagación del índice vectorial | 10 MB | Si creas un índice vectorial en una tabla de menos de 10 MB, el índice no se propaga. Del mismo modo, si borras datos de una tabla indexada por vectores de modo que el tamaño de la tabla sea inferior a 10 MB, el índice vectorial se inhabilitará de forma temporal. Esto sucede sin importar si usas tu propia reserva para los trabajos de administración de índices. Una vez que el tamaño de una tabla indexada por vectores vuelve a superar los 10 MB, su índice se propaga de forma automática. |
Cantidad de declaraciones DDL CREATE VECTOR INDEX por proyecto,
por región y por día
|
500 operaciones |
Para cada proyecto, puedes emitir hasta 500
operaciones CREATE VECTOR INDEX por día en cada región.
|
La cantidad de declaraciones DDL del índice vectorial por tabla y por día | 10 operaciones |
Puedes emitir hasta 10 operaciones CREATE VECTOR INDEX o
DROP VECTOR INDEX por tabla y por día.
|
Tamaño total máximo de los datos de la tabla por organización permitidos para la creación de índices vectoriales que no se ejecutan en una reserva | 6 TB | Puedes crear un índice vectorial para una tabla si el tamaño total de las tablas con índices en tu organización es inferior a 6 TB. Si tus trabajos de administración de índices se ejecutan en tu propia reserva, este límite no se aplica. |
Rutinas
Se aplican los siguientes límites y cuotas a las rutinas.
Funciones definidas por el usuario
Se aplican los siguientes límites a las funciones definidas por el usuario (UDF), tanto temporales como persistentes, en las consultas de GoogleSQL.
Límite | Predeterminada | Notas |
---|---|---|
Resultado máximo por fila | 5 MB | La cantidad máxima de datos que tu UDF de JavaScript puede generar cuando procesa una única fila es de alrededor de 5 MB. |
Cantidad máxima de consultas simultáneas de SQL heredado con UDF de JavaScript | 6 consultas | Tu proyecto puede tener hasta seis consultas de SQL heredado simultáneas que contengan UDF en JavaScript. Este límite incluye consultas tanto interactivas como por lotes. Este límite no se aplica a consultas de GoogleSQL. |
Recursos máximos de UDF de JavaScript por consulta | 50 recursos | Un trabajo de consulta puede tener hasta 50 recursos de UDF de JavaScript, como archivos externos o BLOB de código intercalados. |
Tamaño máximo del BLOB de código intercalado | 32 KB | Un BLOB de código intercalado en una UDF puede tener un tamaño de hasta 32 KB. |
Tamaño máximo de cada recurso de código externo | 1 MB | El tamaño máximo de cada recurso de código JavaScript es de 1 MB. |
Se aplican los siguientes límites a las UDF persistentes:
Límite | Predeterminada | Notas |
---|---|---|
Longitud máxima de un nombre de UDF | 256 caracteres | Los nombres de las UDF pueden tener hasta 256 caracteres. |
Cantidad máxima de argumentos | 256 argumentos | Una UDF puede tener hasta 256 argumentos. |
Longitud máxima de un nombre de argumento | 128 caracteres | Los nombres de los argumentos de las UDF pueden tener hasta 128 caracteres. |
Profundidad máxima de una cadena de referencia de UDF | 16 referencias | Una cadena de referencia de UDF puede tener hasta 16 referencias de profundidad. |
Profundidad máxima de un argumento o resultado de tipo STRUCT
|
15 niveles |
Un argumento o resultado de UDF de tipo STRUCT puede tener hasta 15 niveles de profundidad.
|
Cantidad máxima de campos en los argumentos o resultados de tipo STRUCT por UDF
|
1,024 campos |
Una UDF puede tener hasta 1,024 campos en los argumentos y resultados de tipo STRUCT .
|
Cantidad máxima de bibliotecas JavaScript en una declaración CREATE FUNCTION
|
50 bibliotecas |
Una declaración CREATE FUNCTION puede tener hasta 50 bibliotecas de JavaScript.
|
Longitud máxima de las rutas de acceso a bibliotecas JavaScript incluidas | 5,000 caracteres | La ruta de acceso a una biblioteca de JavaScript incluida en una UDF puede tener hasta 5,000 caracteres. |
Frecuencia de actualización máxima por UDF cada 10 segundos | 5 actualizaciones | Tu proyecto puede actualizar una UDF hasta cinco veces cada 10 segundos. |
Cantidad máxima de UDF autorizados por conjunto de datos | Consulta Conjuntos de datos. |
Funciones remotas
Se aplican los siguientes límites a las funciones remotas en BigQuery.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de consultas simultáneas que contienen funciones remotas | 10 consultas | Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto. |
Tamaño máximo de entrada | 5 MB | El tamaño total máximo de todos los argumentos de entrada de una sola fila es de 5 MB. |
Límite de tamaño de respuesta HTTP (Cloud Run Functions de 1ª gen.) | 10 MB | El cuerpo de la respuesta HTTP de tu Cloud Run Function de 1ª gen. es de hasta 10 MB. Si superas este valor, se generarán errores en la consulta. |
Límite de tamaño de respuesta HTTP (Cloud Run Functions de 2ª gen. o Cloud Run) | 15 MB | El cuerpo de la respuesta HTTP de tu Cloud Run Function de 2ª gen. o Cloud Run es de hasta 15 MB. Si superas este valor, se generan fallas en la consulta. |
Límite máximo de tiempo de invocación HTTP (Cloud Run Functions de 1ª gen.) | 9 minutos | Puedes configurar tu propio límite de tiempo para tu Cloud Run Function de 1ª gen. para una invocación HTTP individual, pero el límite de tiempo máx. es de 9 minutos. Superar el límite de tiempo establecido para tu Cloud Run Function de 1ª gen. puede causar fallas en la invocación de HTTP y en las consultas. |
Límite de tiempo de invocación HTTP (Cloud Run Functions de 2ª gen. o Cloud Run) | 20 minutos | El límite de tiempo de una invocación HTTP individual a tu Cloud Run Function de 2ª gen. o Cloud Run. Superar este valor puede causar fallas en la invocación HTTP y en la consulta. |
Cantidad máxima de reintentos de invocación HTTP | 20 | La cantidad máxima de reintentos para una invocación HTTP individual a tu Cloud Run Function de 1ª gen., 2ª gen. o Cloud Run. Superar este valor puede causar fallas en la invocación HTTP y en la consulta. |
Funciones de tabla
Se aplican los siguientes límites a las funciones de tabla de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Longitud máxima de un nombre de función de tabla | 256 caracteres | El nombre de una función de tabla puede tener hasta 256 caracteres. |
Longitud máxima de un nombre de argumento | 128 caracteres | El nombre de un argumento de función de tabla puede tener hasta 128 caracteres de longitud. |
Cantidad máxima de argumentos | 256 argumentos | Una función de tabla puede tener hasta 256 argumentos. |
Profundidad máxima de una cadena de referencia de función de tabla | 16 referencias | Una cadena de referencia de función de tabla puede tener hasta 16 referencias de profundidad. |
Profundidad máxima del argumento o resultado de tipo STRUCT : |
15 niveles |
Un argumento STRUCT para una función de tabla puede tener hasta 15 niveles de profundidad. De modo similar, un registro STRUCT en el resultado de una función de tabla puede tener hasta 15 niveles de profundidad.
|
Cantidad máxima de campos en un argumento o tabla de muestra de tipo STRUCT por función de tabla |
1,024 campos |
Un argumento STRUCT para una función de tabla puede tener hasta 1,024 campos.
De manera similar, un registro STRUCT en el resultado de una función de tabla puede tener hasta 1,024 campos.
|
Cantidad máxima de columnas en la tabla de retorno | 1,024 columnas | Una tabla que muestra una función de tabla puede tener hasta 1,024 columnas. |
Longitud máxima de los nombres de las columnas de la tabla de retorno | 128 caracteres | Los nombres de las columnas en las tablas que se muestran pueden tener hasta 128 caracteres. |
Cantidad máxima de actualizaciones por función de tabla cada 10 segundos | 5 actualizaciones | Tu proyecto puede actualizar una función de tabla hasta cinco veces cada 10 segundos. |
Procedimientos almacenados para Apache Spark
Se aplican los siguientes límites a los procedimientos almacenados de BigQuery para Apache Spark:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de consultas simultáneas de procedimientos almacenados | 50 | Puedes ejecutar hasta 50 consultas de procedimiento almacenadas simultáneas para cada proyecto. |
Cantidad máxima de CPU en uso | 12,000 | Puedes usar hasta 12,000 CPU para cada proyecto. Las consultas que ya se procesaron no consumen este límite.
Puedes usar hasta 2,400 CPU para cada ubicación en cada proyecto, excepto en las siguientes ubicaciones:
En estas ubicaciones, puedes usar hasta 500 CPU por cada ubicación para cada proyecto. Si ejecutas consultas simultáneas en una ubicación multirregional y una ubicación de una sola región que se encuentra en la misma área geográfica, tus consultas pueden consumir la misma cuota de CPU simultánea. |
Tamaño total máximo de discos persistentes estándar en uso | 204.8 TB | Puedes usar discos persistentes estándar de hasta 204.8 TB para cada ubicación y proyecto. Las consultas que ya se procesaron no consumen este límite. Si ejecutas consultas simultáneas en una ubicación multirregional y una ubicación de una sola región que se encuentra en la misma área geográfica, tus consultas pueden consumir la misma cuota de disco persistente estándar. |
Notebooks
Todas las cuotas y límites de Dataform y las cuotas y límites de Colab Enterprise se aplican a notebooks en BigQuery. También se aplican los siguientes límites:
Límite | Predeterminada | Notas |
---|---|---|
Tamaño máximo del notebook | 20 MB |
El tamaño de un notebook es el total de su contenido, sus metadatos y su sobrecarga de codificación. Para ver el tamaño del contenido del notebook, expande el encabezado del notebook, haz clic en Ver y, luego, en Información del notebook. |
Cantidad máxima de solicitudes por segundo a Dataform | 100 | Los notebooks se crean y administran a través de Dataform. Cualquier acción que cree o modifique un notebook se descuenta de esta cuota. Esta cuota se comparte con las consultas guardadas. Por ejemplo, si realizas 50 cambios en los notebooks y 50 cambios en las consultas guardadas en 1 segundo, alcanzas la cuota. |
Consultas guardadas
Todas las cuotas y límites de Dataform se aplican a las consultas guardadas. También se aplican los siguientes límites:
Límite | Predeterminada | Notas |
---|---|---|
Tamaño máximo de consultas guardadas | 10 MB | |
Cantidad máxima de solicitudes por segundo a Dataform | 100 | Las consultas guardadas se crean y administran a través de Dataform. Cualquier acción que cree o modifique una consulta guardada se considera en esta cuota. Esta cuota se comparte con los notebooks. Por ejemplo, si realizas 50 cambios en los notebooks y 50 cambios en las consultas guardadas en 1 segundo, alcanzas la cuota. |
Lenguaje de manipulación de datos
Los siguientes límites se aplican a las declaraciones de lenguaje de manipulación de datos (DML) de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Declaraciones DML por día | Ilimitado |
La cantidad de declaraciones DML que tu proyecto puede ejecutar por día es ilimitada.
Las declaraciones DML no se toman en cuenta en la cantidad de modificaciones de tablas por día (o la cantidad de modificaciones de tablas particionadas por día para tablas particionadas). Las declaraciones DML tienen las siguientes limitaciones que se deben tener en cuenta. |
Declaraciones DML INSERT simultáneas por tabla por día
|
1,500 declaraciones |
Las primeras 1,500 declaraciones INSERT
se ejecutan de inmediato después de enviarse. Una vez que se alcanza este límite,
la simultaneidad de las declaraciones INSERT que se escriben en una tabla
se limita a 10. Se agregan declaraciones INSERT adicionales a
una cola PENDING . Se pueden poner en cola hasta 100 declaraciones INSERT
en una tabla, en cualquier momento. Cuando se
completa una declaración INSERT , la siguiente declaración INSERT
se quita de la cola y se ejecuta.
Si debes ejecutar declaraciones INSERT DML con mayor frecuencia,
considera transmitir datos a tu tabla a través de la
API de Storage Write.
|
Declaraciones DML de mutación simultáneas por tabla | 2 declaraciones |
BigQuery ejecuta hasta dos declaraciones DML de mutación simultáneas (UPDATE , DELETE y MERGE ) para cada tabla. Las declaraciones DML adicionales de mutación para una tabla están en cola.
|
Declaraciones DML de mutación en cola por tabla | 20 declaraciones | Una tabla puede tener hasta 20 declaraciones DML de mutación en cola para su ejecución. Si envías declaraciones DML de mutación adicionales para la tabla, estas fallarán. |
Tiempo máximo en cola para la declaración DML | 6 horas | Una declaración DML interactiva de prioridad puede esperar en la cola hasta por 6 horas. Si la declaración no se ejecuta después de seis horas, fallará. |
Tasa máxima de declaraciones DML para cada tabla | 25 declaraciones cada 10 segundos |
Tu proyecto puede ejecutar hasta 25 declaraciones DML cada 10 segundos para cada tabla. Tanto INSERT como las declaraciones DML mutables contribuyen a este límite.
|
Para obtener más información sobre las mutaciones de declaraciones DML, consulta Simultaneidad de DML INSERT
y simultaneidad de DML UPDATE, DELETE, MERGE
.
Consultas de varias declaraciones
Se aplican los siguientes límites a las consultas de varias declaraciones en BigQuery.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de consultas simultáneas de varias declaraciones | 1,000 consultas de varias declaraciones | Tu proyecto puede ejecutar hasta 1,000 consultas de varias sentencias simultáneas. |
Límite de tiempo acumulado | 24 horas | El límite de tiempo acumulativo para una consulta de varias declaraciones es de 24 horas. |
Límite de tiempo de la declaración | 6 horas | El límite de tiempo para una declaración individual en una consulta de varias declaraciones es de 6 horas. |
CTE recurrentes en las consultas
Se aplican los siguientes límites a las expresiones de tabla comunes (CTE) recurrentes en BigQuery.
Límite | Predeterminada | Notas |
---|---|---|
Límite de iteración | 500 iteraciones | La CTE recurrente puede ejecutar esta cantidad de iteraciones. Si se excede este límite, se produce un error. Para solucionar los límites de iteración, consulta Soluciona errores de límite de iteración. |
Seguridad a nivel de la fila
Se aplican los siguientes límites a las políticas de acceso a nivel de fila de BigQuery:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de políticas de acceso de fila por tabla. | 400 políticas | Una tabla puede tener hasta 400 políticas de acceso de fila. |
Cantidad máxima de políticas de acceso de fila por consulta. | 6000 políticas | Una consulta puede acceder hasta un total de 6000 políticas de acceso de fila. |
Cantidad máxima de declaraciones DDL CREATE / DROP por política cada 10 segundos |
5 declaraciones |
Tu proyecto puede realizar hasta cinco declaraciones CREATE o DROP por recurso de política de acceso de fila cada 10 segundos.
|
Declaraciones DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos |
5 declaraciones |
Tu proyecto puede realizar hasta cinco declaraciones DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos.
|
Políticas de datos
Se aplican los siguientes límites al enmascaramiento de datos dinámicos a nivel de la columna:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de políticas de datos por etiqueta de política | 8 políticas por etiqueta de política | Hasta ocho políticas de datos por etiqueta de política. Una de estas políticas se puede usar para los controles de acceso a nivel de columna. No se admiten expresiones de enmascaramiento duplicadas. |
BigQuery ML
Se aplican los siguientes límites a BigQuery ML.
Trabajos de consulta
Todas las cuotas y límites de trabajo de consulta se aplican a los trabajos de consulta de GoogleSQL que usan declaraciones y funciones de BigQuery ML.
Declaraciones CREATE MODEL
Se aplican los siguientes límites a trabajos CREATE MODEL
:
Límite | Predeterminada | Notas |
---|---|---|
CREATE MODEL consultas de declaraciones por 48 horas para cada proyecto |
20,000 consultas de declaraciones | Algunos modelos se entrenan a través de servicios de Vertex AI, que tienen su propia administración de recursos y cuotas. |
Límite de tiempo de ejecución | 24 o 72 horas | El tiempo de espera de trabajo de CREATE MODEL es de 24 horas de forma predeterminada, excepto para las series temporales, AutoML y los trabajos de ajuste de hiperparámetros que tienen un tiempo de espera de 72 horas. |
Funciones del servicio de Vertex AI y Cloud AI
Los siguientes límites se aplican a las funciones que usan modelos de lenguaje grandes (LLM) de Vertex AI y los servicios de Cloud AI:
Función | Solicitudes por minuto | Filas por trabajo | Cantidad de trabajos que se ejecutan de manera simultánea |
---|---|---|---|
ML.GENERATE_TEXT cuando uses un modelo remoto sobre un modelo gemini-1.5-pro |
60 | 21,600 | 5 |
ML.GENERATE_TEXT cuando uses un modelo remoto sobre un modelo gemini-1.5-flash |
200 | 72,000 | 5 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre el modelo gemini-1.0-pro-vision en la región us-central1 |
100 | 20,000 | 1 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre el modelo gemini-1.0-pro-vision en regiones que no sean us-central1 |
10 | 3,600 | 1 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un gemini-1.0-pro en la región us-central1 |
300 | 108,000 | 5 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un gemini-1.0-pro en regiones que no sean us-central1 |
10 | 3,600 | 5 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un modelo Anthropic Claude |
30 | 10,800 | 5 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un modelo text-bison |
1,600 | 576,000 | 5 |
ML.GENERATE_TEXT cuando se usa un modelo remoto sobre un modelo text-bison-32 |
300 | 108,000 | 5 |
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos multimodalembedding de Vertex AI en regiones únicas europeas compatibles |
120 | 14,000 | 5 |
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos multimodalembedding de Vertex AI en regiones que no sean regiones únicas europeas compatibles |
600 | 25,000 | 5 |
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos text-embedding y text-multilingual-embedding de Vertex AI en la región us-central1 |
1,500 | 2,700,000 | 1 |
ML.GENERATE_EMBEDDING cuando se usa con modelos remotos en modelos text-embedding y text-multilingual-embedding de Vertex AI en regiones que no sean us-central1 |
100 | 324,000 | 1 |
ML.PROCESS_DOCUMENT con documentos de una página en promedio |
600 | 150,000 | 5 |
ML.PROCESS_DOCUMENT con documentos de un promedio de diez páginas |
600 | 100,000 | 5 |
ML.PROCESS_DOCUMENT con documentos de un promedio de cincuenta páginas |
600 | 15,000 | 5 |
ML.TRANSCRIBE |
200 | 10,000 | 5 |
ML.ANNOTATE_IMAGE |
1,800 | 648,000 | 5 |
ML.TRANSLATE |
6,000 | 2,160,000 | 5 |
ML.UNDERSTAND_TEXT |
600 | 21,600 | 5 |
Para obtener más información sobre la cuota de los LLM de Vertex AI y las APIs de servicio de Cloud AI, consulta los siguientes documentos:
- Límites de cuotas de IA generativa en Vertex AI
- Cuotas y límites de la API de Cloud Translation
- Cuota y límites de la API de Vision
- Cuota y límites de la API de Natural Language
- Cuota y límites de Document AI
- Cuota y límites de Speech-to-Text
La cuota de filas por trabajo representa la cantidad teórica más alta de filas que el sistema puede controlar en un período de 6 horas. La cantidad real de filas procesadas depende de muchos otros factores, como el tamaño de entrada y la condición de la red.
Por ejemplo, ML.TRANSCRIBE
puede procesar más audios cortos que audios largos.
Para solicitar más cuota para las funciones de BigQuery ML, ajusta la cuota del servicio de LLM de Vertex AI o Cloud AI asociado primero y, luego, envía un correo electrónico a bqml-feedback@google.com e incluye información sobre la cuota de servicio de LLM o Cloud AI ajustada. Si deseas obtener más información para solicitar más cuota para estos servicios, consulta Solicita una cuota más alta.
Definiciones de cuotas
En la siguiente lista, se describen las cuotas que se aplican a las funciones de servicio de Vertex AI y Cloud AI:
- Las funciones que llaman a un modelo de base de Vertex AI usan una cuota de Vertex AI, que son consultas por minuto (QPM). En este contexto, las consultas son llamadas de solicitud de la función a la API del modelo de Vertex AI. La cuota de QPM se aplica a un modelo base y a todas las versiones, identificadores y versiones ajustadas de ese modelo. Para obtener más información sobre las cuotas del modelo de base de Vertex AI, consulta Cuotas por región y modelo.
- Las funciones que llaman a un servicio de Cloud AI usan las cuotas de solicitud del servicio de destino. Consulta la referencia de cuota del servicio de Cloud AI determinado para obtener más detalles.
BigQuery ML usa tres cuotas:
Solicitudes por minuto. Esta cuota es el límite en la cantidad de llamadas de solicitudes por minuto que las funciones pueden realizar al modelo de Vertex AI o a la API del servicio de Cloud AI. Este límite se aplica a cada proyecto.
Para las funciones que llaman a un modelo de base de Vertex AI, la cantidad de llamadas a solicitudes por minuto varía según el extremo, la versión y la región del modelo de Vertex AI. Esta cuota es conceptualmente igual a la cuota de QPM que usa Vertex AI, pero puede tener un valor menor que la cuota de QPM para un modelo correspondiente.
Filas por trabajo. Esta cuota es el límite en la cantidad de filas permitidas para cada trabajo de consulta.
Cantidad de trabajos que se ejecutan de manera simultánea. Esta cuota es el límite por proyecto en la cantidad de consultas de SQL que se pueden ejecutar al mismo tiempo para la función determinada.
En los siguientes ejemplos, se muestra cómo interpretar las limitaciones de cuota en situaciones típicas:
Tengo una cuota de 1,000 QPM en Vertex AI, por lo que una consulta con 100,000 filas debería tardar alrededor de 100 minutos. ¿Por qué el trabajo se ejecuta por más tiempo?
Los entornos de ejecución de trabajos pueden variar incluso para los mismos datos de entrada. En Vertex AI, las llamadas de procedimiento remoto (RPC) tienen diferentes prioridades para evitar que se agoten las cuotas. Cuando no hay suficiente cuota, las RPC con prioridades más bajas esperan y, tal vez, fallan si tardan demasiado en procesarlas.
¿Cómo debo interpretar las filas por cuota de trabajo?
En BigQuery, una consulta puede ejecutarse durante un máximo de seis horas. La cantidad máxima de filas admitidas es una función de este cronograma y tu cuota de QPM de Vertex AI, a fin de garantizar que BigQuery pueda completar el procesamiento de consultas en seis horas. Dado que, por lo general, una consulta no puede usar toda la cuota, este es un número menor que tu cuota de QPM multiplicado por 360.
¿Qué sucede si ejecuto un trabajo de inferencia por lotes en una tabla con más filas que la cuota de filas por trabajo, por ejemplo, 10,000,000 filas?
BigQuery solo procesa la cantidad de filas especificadas por la cuota de filas por trabajo. Solo se te cobrará por las llamadas a la API correctas por esa cantidad de filas, en lugar de las 10,000,000 de filas completas de tu tabla. Para el resto de las filas, BigQuery responde a la solicitud con un error
A retryable error occurred: the maximum size quota per query has reached
, que se muestra en la columnastatus
del resultado. Puedes usar este conjunto de secuencias de comandos de SQL o este paquete de Dataform para iterar a través de llamadas de inferencia hasta que todas las filas se procesen de forma correcta.Tengo muchas más filas para procesar que las filas por cuota de trabajo. ¿Dividir mis filas en varias consultas y ejecutarlas de manera simultánea será de ayuda?
No, porque estas consultas consumen las mismas solicitudes por minuto de BigQuery ML y QPM de Vertex AI. Si hay varias consultas que permanecen dentro de las filas por cuota de trabajo y de la cantidad de cuotas de trabajos que se ejecutan simultáneamente, el procesamiento acumulativo agota la cuota de solicitudes por minuto.
BI Engine
Se aplican los siguientes límites a BigQuery BI Engine.
Límite | Predeterminada | Notas |
---|---|---|
Tamaño máximo de la reserva por proyecto y por ubicación (interfaz de SQL) | 250 GiB | Se aplica cuando se usa BI Engine con BigQuery. Se aplica en todos los casos, excepto Looker Studio sin integración nativa.
Puedes solicitar un aumento de la capacidad máxima de la reserva para tus proyectos. Los aumentos de reserva están disponibles en la mayoría de las regiones y pueden tardar de 3 días a una semana en procesarse. |
Cantidad máxima de filas por consulta | 7,000 millones | Es la cantidad máxima de filas por consulta. |
Analytics Hub
Se aplican los siguientes límites a Analytics Hub:
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de intercambios de datos por proyecto | 500 intercambios | Puedes crear hasta 500 intercambios de datos en un proyecto. |
Cantidad máxima de fichas por intercambio de datos | 1,000 listas | Puedes crear hasta 1,000 fichas en un intercambio de datos. |
Cantidad máxima de conjuntos de datos vinculados por conjunto de datos compartidos | 1,000 conjuntos de datos vinculados | Todos los suscriptores de Analytics Hub, combinados, pueden tener un máximo de 1,000 conjuntos de datos vinculados por conjunto de datos compartidos. |
Cuotas y límites de la API
Estas cuotas y límites se aplican a las solicitudes a la API de BigQuery.
API de BigQuery
Se aplican las siguientes cuotas a las solicitudes a la API de BigQuery (núcleo):
Cuota | Predeterminada | Notas |
---|---|---|
Solicitudes por día | Sin límite |
Tu proyecto puede realizar una cantidad ilimitada de solicitudes a la API de BigQuery por día.
Ver la cuota en la consola de Google Cloud |
Máximo de
tabledata.list bytes por minuto
|
7.5 GB en multirregiones; 3.7 GB en todas las demás regiones |
Tu proyecto puede mostrar un máximo de 7.5 GB de datos de filas de tabla por minuto a través de tabledata.list en las multirregiones us y eu , y 3.7 GB de datos de filas de tabla por minuto en todas las demás regiones. Esta cuota se aplica al proyecto que contiene la tabla que se lee. Otras APIs, incluida jobs.getQueryResults y recuperar resultados de jobs.query y jobs.insert también pueden consumir esta cuota.
Ver la cuota en la consola de Google Cloud
La API de lectura de almacenamiento de BigQuery
puede mantener una capacidad de procesamiento considerablemente mayor que |
Se aplican los siguientes límites a las solicitudes a la API de BigQuery (núcleo):
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de solicitudes a la API por segundo, por usuario y por método | 100 solicitudes | Un usuario puede realizar hasta 100 solicitudes a la API por segundo a un método de API. Si un usuario realiza más de 100 solicitudes por segundo a un método, es posible que se les aplique un límite. No se aplica este límite a las inserciones de transmisión. |
Cantidad máxima de solicitudes simultáneas a la API por usuario | 300 solicitudes | Si un usuario realiza más de 300 solicitudes simultáneas, es posible que se aplique un límite. Este límite no se aplica a inserciones de transmisión. |
Tamaño máximo del encabezado de la solicitud | 16 KiB |
Tu solicitud a la API de BigQuery puede ser de hasta 16 KiB, incluida la URL de la solicitud y todos los encabezados. Este límite no se aplica al cuerpo de la solicitud, por ejemplo, en una solicitud POST .
|
Cantidad máxima de solicitudes jobs.get por segundo |
1,000 solicitudes | Tu proyecto puede realizar hasta 1,000 solicitudes jobs.get por segundo. |
Tamaño máximo de la respuesta jobs.query |
20 MB |
De forma predeterminada, no hay un recuento de filas máximo para la cantidad de filas de datos que se muestran en jobs.query por cada página de resultados. Sin embargo, estás limitado a un tamaño máximo de respuesta de 20 MB. Puedes modificar la cantidad de filas que se muestran a través de el parámetro maxResults .
|
Tamaño máximo de la fila
jobs.getQueryResults
|
20 MB | El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. El límite se aplica durante la transcodificación. |
Cantidad máxima de solicitudes projects.list por segundo
|
2 solicitudes | Tu proyecto puede realizar hasta dos solicitudes projects.list por segundo. |
Cantidad máxima de solicitudes tabledata.list por segundo |
1,000 solicitudes | Tu proyecto puede realizar hasta 1,000 solicitudes tabledata.list por segundo. |
Cantidad máxima de filas por respuesta de tabledata.list |
100,000 filas |
Una llamada a tabledata.list puede mostrar hasta 100,000 filas de tabla.
Para obtener más información, consulta Desplázate por los resultados a través de la API.
|
Tamaño máximo de la fila
tabledata.list
|
100 MB | El tamaño máximo de la fila es aproximado, ya que el límite se basa en la representación interna de los datos de la fila. El límite se aplica durante la transcodificación. |
Cantidad máxima de solicitudes tables.insert por segundo
|
10 solicitudes |
Tu proyecto puede realizar hasta 10 solicitudes tables.insert por segundo.
Con el método tables.insert , se crea una nueva tabla vacía dentro del conjunto de datos. Este límite incluye las instrucciones de SQL que crean tablas, como CREATE TABLE y las consultas con las que se escriben resultados en tablas de destino.
|
API de BigQuery Connection
Se aplican las siguientes cuotas a las llamadas a la API de conexión de BigQuery:
Cuota | Predeterminada | Notas |
---|---|---|
Solicitudes de lectura por minuto | 1,000 solicitudes por minuto |
Tu proyecto puede realizar hasta 1,000 solicitudes por minuto a los métodos de la API de conexión de BigQuery que leen datos de conexión.
Ver la cuota en la consola de Google Cloud |
Solicitudes de escritura por minuto | 100 solicitudes por minuto |
Tu proyecto puede realizar hasta 100 solicitudes por minuto a los métodos de la API de conexión de BigQuery que crean o actualizan conexiones.
Ver la cuota en la consola de Google Cloud |
Conexiones de BigQuery Omni creadas por minuto | 10 conexiones creadas por minuto | Tu proyecto puede crear hasta 10 conexiones de BigQuery Omni en total en AWS y Azure por minuto. |
Usos de la conexión de BigQuery Omni | 100 usos de conexión por minuto | Tu proyecto puede usar una conexión de BigQuery Omni hasta 100 veces por minuto. Esto se aplica a las operaciones que usan tu conexión para acceder a tu cuenta de AWS, como cuando se consulta una tabla. |
API de BigQuery Migration
Se aplican los siguientes límites a la API de BigQuery Migration:
Límite | Predeterminada | Notas |
---|---|---|
Tamaño de archivo individual para la traducción de SQL por lotes | 10 MB |
Cada archivo individual de origen y metadatos puede tener hasta 10 MB.
No se aplica este límite al archivo ZIP de metadatos que genera la herramienta de extracción de línea de comandos de dwh-migration-dumper .
|
Tamaño total de los archivos de origen para la traducción de SQL por lotes | 1 GB | El tamaño total de todos los archivos de entrada subidos a Cloud Storage puede ser de hasta 1 GB. Esto incluye todos los archivos fuente y los archivos de metadatos si eliges incluirlos. |
Tamaño de la string de entrada para la traducción de SQL interactiva | 1 MB | La string que ingreses para la traducción de SQL interactiva no debe superar el 1 MB. Cuando se ejecutan traducciones interactivas con la API de Translation, este límite se aplica al tamaño total de todas las entradas de cadenas. |
Tamaño máximo del archivo de configuración para la traducción de SQL interactiva | 50 MB |
Los archivos de metadatos individuales (comprimidos) y los archivos de configuración YAML en Cloud Storage no deben exceder los 50 MB. Si el tamaño del archivo supera los 50 MB, el traductor interactivo omite ese archivo de configuración durante la traducción y produce un mensaje de error. Un método para reducir el tamaño del archivo de los metadatos es usar las marcas —database o –schema para filtrar las bases de datos cuando generas los metadatos.
|
Se aplican las siguientes cuotas a la API de BigQuery Migration. Los siguientes valores predeterminados se aplican en la mayoría de los casos. Los valores predeterminados de tu proyecto pueden ser diferentes:
Cuota | Predeterminada | Notas |
---|---|---|
Solicitudes de listas de servicios de EDWMigration por minuto Solicitudes de listas de servicios de EDWMigration por minuto y por usuario |
12,000 solicitudes 2,500 solicitudes |
Tu proyecto puede realizar hasta 12,000 solicitudes de la lista de la API de migración por minuto. Cada usuario puede realizar hasta 2,500 solicitudes de lista de la API de migración por minuto. Ver cuotas en la consola de Google Cloud |
Solicitudes Get de servicios de EDWMigration por minuto Solicitudes Get de servicio de EDWMigration por minuto y por usuario |
25,000 solicitudes 2,500 solicitudes |
Tu proyecto puede realizar hasta 25,000 solicitudes de obtención de la API de migración por minuto. Cada usuario puede realizar hasta 2,500 solicitudes Get de la API de migración por minuto. Ver cuotas en la consola de Google Cloud |
Otras solicitudes de servicio de EDWMigration por minuto Otras solicitudes de servicio de EDWMigration por minuto y por usuario |
25 solicitudes 5 solicitudes |
Tu proyecto puede realizar hasta 25 solicitudes a la API de migración más por minuto. Cada usuario puede realizar hasta 5 solicitudes a la API de migración más por minuto. Ver cuotas en la consola de Google Cloud |
Solicitudes de traducción de SQL interactivas por minuto Solicitudes interactivas de traducción de SQL por minuto y por usuario |
200 solicitudes 50 solicitudes |
Tu proyecto puede realizar hasta 200 solicitudes de servicio de traducción de SQL por minuto. Cada usuario puede realizar hasta 50 solicitudes de servicio de traducción de SQL más por minuto. Ver cuotas en la consola de Google Cloud |
API de BigQuery Reservation
Las siguientes cuotas se aplican a las solicitudes a la API de BigQuery Reservation:
Cuota | Predeterminada | Notas |
---|---|---|
Solicitudes por minuto, por región | 100 solicitudes |
Tu proyecto puede realizar un total de hasta 100 llamadas a los métodos de la API de reservación de BigQuery por minuto y por región.
Ver cuotas en la consola de Google Cloud |
Cantidad de llamadas por minuto a la región SearchAllAssignments
|
100 solicitudes |
Tu proyecto puede realizar hasta 100 llamadas al método SearchAllAssignments por minuto y por región.
Ver cuotas en la consola de Google Cloud |
Solicitudes de SearchAllAssignments por minuto, por región y por usuario
|
10 solicitudes |
Cada usuario puede realizar hasta 10 llamadas al método SearchAllAssignments por minuto y por región.
Visualiza las cuotas en la consola de Google Cloud (En los resultados de la búsqueda de la consola de Google Cloud, busca lo siguiente: por usuario). |
API de políticas de datos de BigQuery
Se aplican los siguientes límites a la API de políticas de datos (vista previa):
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de llamadas a
dataPolicies.list .
|
400 solicitudes por minuto por proyecto 600 solicitudes por minuto por organización |
|
Cantidad máxima de llamadas a dataPolicies.testIamPermissions .
|
400 solicitudes por minuto por proyecto 600 solicitudes por minuto por organización |
|
Cantidad máxima de solicitudes de lectura. |
1,200 solicitudes por minuto por proyecto 1,800 solicitudes por minuto por organización |
Esto incluye las llamadas a dataPolicies.get y dataPolicies.getIamPolicy .
|
Cantidad máxima de solicitudes de escritura. |
600 solicitudes por minuto por proyecto 900 solicitudes por minuto por organización |
Esto incluye llamadas a: |
API de IAM
Se aplican las siguientes cuotas cuando usas la funcionalidad de Identity and Access Management en BigQuery para recuperar y establecer políticas de IAM, y probar los permisos de IAM.
Las declaraciones del lenguaje de control de datos (DCL) se toman en cuenta en la cuota de SetIAMPolicy
.
Cuota | Predeterminada | Notas |
---|---|---|
Solicitudes IamPolicy por minuto por usuario |
1,500 solicitudes por minuto por usuario | Cada usuario puede realizar hasta 1,500 solicitudes por minuto por proyecto. Ver la cuota en la consola de Google Cloud |
IamPolicy solicitudes por minuto por proyecto |
3,000 solicitudes por minuto por proyecto | Tu proyecto puede realizar hasta 3,000 solicitudes por minuto. Ver la cuota en la consola de Google Cloud |
Solicitudes de una sola región
SetIAMPolicy por minuto por proyecto |
1,000 solicitudes por minuto por proyecto | Tu proyecto de una sola región puede realizar hasta 1,000 solicitudes por minuto. Ver la cuota en la consola de Google Cloud |
Solicitudes multirregionales
SetIAMPolicy por minuto por proyecto |
2,000 solicitudes por minuto por proyecto | Tu proyecto multirregional puede realizar hasta 2,000 solicitudes por minuto. Ver la cuota en la consola de Google Cloud |
Solicitudes regionales de varios canales
SetIAMPolicy por minuto por proyecto |
200 solicitudes por minuto por proyecto | Tu proyecto regional de varios canales puede realizar hasta 200 solicitudes por minuto. Ver la cuota en la consola de Google Cloud |
API de Storage Read
Las siguientes cuotas se aplican a las solicitudes a la API de BigQuery Storage Read.:
Cuota | Predeterminada | Notas |
---|---|---|
Solicitudes de lectura de plano de datos por minuto y por usuario | 25,000 solicitudes |
Cada usuario puede realizar hasta 25,000 llamadas ReadRows por minuto y por proyecto.
Ver la cuota en la consola de Google Cloud |
Solicitudes del plano de control de lectura por minuto y por usuario | 5,000 solicitudes |
Cada usuario puede realizar hasta 5,000 llamadas de operaciones de metadatos de la API de Storage Read por minuto y por proyecto. Las llamadas de metadatos incluyen los métodos CreateReadSession y SplitReadStream .
Ver la cuota en la consola de Google Cloud |
Los siguientes límites se aplican a las solicitudes a la API de BigQuery Storage Read:
Límite | Predeterminada | Notas |
---|---|---|
Longitud máxima del filtro o fila | 1 MB |
Cuando usas la llamada CreateReadSession de la API de lectura de almacenamiento, tienes un límite de longitud de 1 MB para cada fila o filtro.
|
Tamaño máximo de datos serializados | 128 MB |
Cuando usas la llamada ReadRows de la API de Storage Read, la representación serializada de los datos en un mensaje ReadRowsResponse individual no puede superar los 128 MB.
|
Cantidad máxima de conexiones simultáneas | 2,000 en multirregiones; 400 en regiones |
Puedes abrir un máximo de 2,000 conexiones ReadRows simultáneas por proyecto en las multirregiones us y eu , y 400 conexiones ReadRows simultáneas en otras regiones. En algunos casos, puedes estar limitado a una cantidad menor de conexiones simultáneas que las de este límite.
|
Uso máximo de memoria por transmisión | 1.5 GB | La memoria máxima por transmisión es aproximada, ya que el límite se basa en la representación interna de los datos de la fila. Las transmisiones que usan más de 1.5 GB de memoria en una sola fila pueden fallar. Para obtener más información, consulta Soluciona problemas de recursos excedidos. |
API de Storage Write
Las siguientes cuotas se aplican a las solicitudes a la API de Storage Write: Las siguientes cuotas se pueden aplicar a nivel de carpeta. Luego, estas cuotas se agregan y se comparten en todos los proyectos secundarios. Para habilitar esta configuración, comunícate con Atención al cliente de Cloud.
Si planeas solicitar un límite de cuota más alto, incluye el mensaje de error de cuota en tu solicitud para acelerar el procesamiento.
Cuota | Predeterminada | Notas |
---|---|---|
Conexiones simultáneas | 1,000 en una región; 10,000 en una multirregión |
La cuota de conexiones simultáneas se basa en el proyecto cliente que inicia la solicitud de la API de Storage Write, no en el proyecto que contiene el recurso de conjunto de datos de BigQuery. El proyecto de inicio es el proyecto asociado con la clave de API o la cuenta de servicio. Tu proyecto puede operar con 1,000 conexiones simultáneas en una región o 10,000 conexiones simultáneas en las multirregiones Cuando usas la transmisión predeterminada en Java o Go, te recomendamos usar la multiplexación de la API de Storage Write para escribir en varias tablas de destino con conexiones compartidas para reducir la cantidad de conexiones generales necesarias. Si usas
el conector
de Beam con semántica de al menos una vez, puedes configurar
UseStorageApiConnectionPool
como Puedes ver las cuotas de uso y limitar las métricas de tus proyectos en Cloud Monitoring. Selecciona el nombre del límite de conexiones simultáneas en función de tu región. Las opciones son |
Capacidad de procesamiento | 3 GB de capacidad de procesamiento por segundo en multirregiones; 300 MB por segundo en regiones |
Puedes transmitir hasta 3 GBps en las multirregiones us y eu , y 300 MBps en otras regiones por proyecto.
Ver la cuota en la consola de Google Cloud Puedes ver las cuotas de uso y limitar las métricas de tus proyectos en Cloud Monitoring. Selecciona el nombre del límite de la capacidad de procesamiento en función de tu región. Las opciones son |
Solicitudes CreateWriteStream
|
10,000 transmisiones cada hora, por proyecto y por región |
Puedes llamar a CreateWriteStream hasta 10,000 veces por hora,
por proyecto y por región. Considera usar la transmisión predeterminada si en verdad no necesitas una semántica única.
Esta cuota es por hora, pero la métrica que se muestra en la consola de Google Cloud es por minuto.
|
Bytes de transmisión pendientes | 10 TB en multirregiones; 1 TB en regiones |
Por cada confirmación que actives, puedes confirmar hasta 10 TB en las multiregiones us y eu , y 1 TB en otras regiones. No hay informes de cuotas sobre esta cuota.
|
Se aplican los siguientes límites a las solicitudes a la API de Storage Write:
Límite | Predeterminada | Notas |
---|---|---|
Confirmaciones Batch | 10,000 transmisiones por tabla |
Puedes confirmar hasta 10,000 transmisiones en cada llamada BatchCommitWriteStream .
|
AppendRows
tamaño de la solicitud
|
10 MB | El tamaño máximo solicitado es de 10 MB. |
Inserciones de transmisión
Se aplican los siguientes límites y cuotas cuando transmites datos a BigQuery a través de la API de transmisión heredada.
Si quieres obtener información sobre las estrategias para no superar estos límites, consulta Soluciona problemas de errores de cuota.
Si excedes estas cuotas, recibirás errores de quotaExceeded
.
Límite | Predeterminada | Notas |
---|---|---|
Cantidad máxima de bytes por segundo y por proyecto en las multirregiones us y eu
|
1 GB por segundo |
Tu proyecto puede transmitir hasta 1 GB por segundo. Esta cuota es acumulativa en una multirregión determinada. Es decir, el límite de 1 GB se suma a la suma de bytes por segundo que se transmiten a todas las tablas de un proyecto determinado en una multirregión.
Si superas este límite, se generan errores Si es necesario, puedes solicitar un aumento de cuota si te comunicas con Atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de cuota lleva tiempo en estar disponible, en especial en el caso de un aumento significativo. |
Cantidad máxima de bytes por segundo y por proyecto en todas las demás ubicaciones | 300 MB por segundo |
Tu proyecto puede transmitir hasta 300 MB por segundo en todas las ubicaciones, excepto en las multirregiones
Si superas este límite, se generan errores Si es necesario, puedes solicitar un aumento de cuota si te comunicas con Atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de cuota lleva tiempo en estar disponible, en especial en el caso de un aumento significativo. |
Tamaño máximo de fila | 10 MB |
Si superas este valor, se generarán errores invalid .
|
Límite de tamaño de la solicitud HTTP | 10 MB |
Si superas este valor, se generarán errores La solicitud se traduce de manera interna de HTTP JSON a una estructura de datos propia. La estructura de datos traducida tiene su propio límite de tamaño aplicado. Es difícil predecir el tamaño de la estructura de datos interna que se generará, pero si mantienes las solicitudes HTTP en 10 MB o menos, las probabilidades de alcanzar el límite interno serán bajas. |
Máximo de filas por solicitud | 50,000 filas | Se recomienda una cantidad máxima de 500 filas. La agrupación en lotes puede aumentar el rendimiento y la capacidad de procesamiento hasta cierto punto, pero en detrimento de la latencia por solicitud. Una baja cantidad de filas por solicitud y la sobrecarga de cada solicitud pueden llevar a que la transferencia sea ineficiente. Si una solicitud abarca demasiadas filas, puedes observar una disminución en la capacidad de procesamiento. Experimenta con datos representativos (esquema y tamaño de datos) para determinar el tamaño de lote ideal para tus datos. |
Longitud del campo insertId |
128 caracteres |
Si superas este valor, se generarán errores invalid .
|
Si deseas obtener una cuota de transmisión adicional, consulta Solicita un aumento de la cuota.
Ancho de banda
Las siguientes cuotas se aplican al ancho de banda de replicación:
Cuota | Predeterminada | Notas |
---|---|---|
Ancho de banda máximo de replicación de reabastecimiento inicial para cada región que tiene salida de datos entre regiones de la réplica principal a las réplicas secundarias. | Cuota de 10 GiBps físicos por región para la mayoría de los proyectos | |
Ancho de banda máximo de replicación en curso para cada región que tiene salida de datos entre regiones de la réplica principal a las réplicas secundarias. | Cuota de 5 GiBps físicos por región para la mayoría de los proyectos | |
Ancho de banda máximo de la replicación turbo para cada región que tiene salida de datos entre regiones de la réplica principal a las réplicas secundarias. | Cuota predeterminada de 5 GiBps físicos por región para la mayoría de los proyectos | La cuota de ancho de banda de replicación turbo no se aplica a la operación de reabastecimiento inicial. |
Cuando el ancho de banda de replicación de un proyecto excede una cuota determinada, es posible que la replicación de los proyectos afectados se detenga con el error rateLimitExceeded
que incluye detalles de la cuota excedida.