Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

Cotas e limites

Visão geral

Neste documento, listamos as cotas e limites que se aplicam ao BigQuery.

Uma cota restringe quanto de um determinado recurso compartilhado do Google Cloud o projeto do Cloud pode usar, incluindo hardware, software e componentes de rede.

As cotas fazem parte de um sistema que:

  • monitora o uso ou o consumo de produtos e serviços do Google Cloud;
  • restringe o consumo desses recursos por motivos que incluem garantir a equidade e a redução dos picos de uso;
  • mantém as configurações que aplicam automaticamente restrições prescritas;
  • fornece maneiras de fazer ou solicitar alterações na cota.

Quando uma cota é excedida, na maioria dos casos, o sistema bloqueia imediatamente o acesso ao respectivo recurso do Google, e a tarefa que você está tentando executar falha. Na maioria dos casos, as cotas se aplicam a todos os projetos do Cloud. Além disso, elas são compartilhadas entre todos os aplicativos e endereços IP que usam esse projeto.

Também há limites nos recursos do BigQuery. Esses limites não estão relacionados ao sistema de cotas. Não é possível mudar os limites, a menos que seja indicado o contrário.

Por padrão, as cotas e limites do BigQuery são aplicados por projeto. As cotas e os limites aplicáveis de maneira diferente são indicados como tal. por exemplo, o número máximo de colunas por tabela ou o número máximo de solicitações de API simultâneas por usuário. As políticas específicas variam de acordo com a disponibilidade do recurso, o perfil do usuário, o histórico de uso do serviço e outros fatores, e estão sujeitas a alterações sem aviso prévio.

Reposição de cota

As cotas diárias são reabastecidas em intervalos regulares ao longo do dia, refletindo a intenção de orientar comportamentos que limitem a taxa. A atualização intermitente também é feita para evitar interrupções longas quando a cota estiver esgotada. As cotas são geralmente renovadas em questão de minutos, em vez de restauradas de maneira integral uma vez ao dia.

Solicitar aumento de cota

Para aumentar ou diminuir a maioria das cotas, use o console do Google Cloud. Para mais informações, consulte Como solicitar uma cota maior

Para ver instruções passo a passo sobre o processo de solicitação de aumento de cota no console do Google Cloud, clique em Orientação:

Orientações

Limitar uso de cotas

Para saber como limitar o uso de um recurso específico especificando uma cota menor que a padrão, consulte Como limitar o uso.

Permissões exigidas

Para visualizar e atualizar suas cotas do BigQuery no console do Google Cloud, você precisa das mesmas permissões que qualquer cota do Google Cloud. Para mais informações, consulte Permissões de cota do Google Cloud.

Resolver problemas

Para ver informações sobre como solucionar erros relacionados a cotas e limites, consulte Como solucionar problemas de erros de cota no BigQuery.

Jobs

As cotas e limites se aplicam aos jobs que o BigQuery executa em seu nome, seja usando o console do Google Cloud, a ferramenta de linha de comando bq, de forma programática usando a API REST ou as bibliotecas de cliente.

Jobs de consulta

As cotas a seguir se aplicam a jobs de consulta criados automaticamente com a execução de consultas interativas, consultas programadas e jobs enviados usando o jobs.query e o tipo de consulta jobs.insertmétodos de API:

Cota Padrão Notas
Uso de consultas por dia Ilimitado Não há limite para o número de bytes que podem ser processados por consultas em um projeto.
Veja a cota no Console do Google Cloud
Uso de consultas por dia por usuário Ilimitado Não há limite para o número de bytes que as consultas de um usuário podem processar por dia.
Veja a cota no Console do Google Cloud
Bytes por região entre consultas federadas do Cloud SQL por dia 1 TB Se o local de processamento da consulta do BigQuery e o local da instância do Cloud SQL forem diferentes, a consulta será entre regiões. Seu projeto pode executar até 1 TB em consultas entre regiões por dia. Veja as consultas federadas do Cloud SQL.
Veja a cota no Console do Google Cloud

Os limites a seguir se aplicam a jobs de consulta criados automaticamente com a execução de consultas interativas, consultas programadas e jobs enviados com os tipos de jobs.query e Métodos de API jobs.insert:

Limite Padrão Notas
Número máximo de consultas interativas simultâneas 100 consultas O projeto pode executar até 100 consultas interativas simultâneas. As consultas com resultados retornados do cache de consulta são descontadas desse limite durante o tempo que leva para o BigQuery determinar que é uma ocorrência em cache. As consultas de simulação não contam para esse limite. É possível especificar uma consulta de simulação usando a sinalização --dry_run Para mais informações sobre estratégias para não exceder esse limite, consulte Como solucionar erros de cota.
Número máximo de consultas em lote simultâneas 10 consultas Seu projeto pode executar até 10 consultas em lote simultâneas.
Número máximo de consultas interativas simultâneas nas fontes de dados externas do Cloud Bigtable 4 consultas O projeto pode executar até quatro consultas simultâneas em uma fonte de dados externa do Bigtable.
Número máximo de consultas simultâneas que contêm funções remotas 10 consultas Você pode executar até 10 consultas simultâneas com funções remotas por projeto.
Número máximo de consultas de múltiplas instruções simultâneas 1.000 consultas com várias instruções Seu projeto pode executar até 1.000 consultas com várias instruções simultâneas.
Número máximo de consultas SQL legadas simultâneas que contêm UDFs 6 consultas O projeto pode executar até seis consultas SQL legadas simultâneas com funções definidas pelo usuário (UDFs). Esse limite inclui consultas interativas e em lote. Consultas interativas que contêm UDFs também são consideradas em relação ao limite simultâneo para consultas interativas. Esse limite não se aplica a consultas de SQL padrão.
Limite diário do tamanho da consulta Ilimitado Por padrão, não há limite de tamanho de consulta diário. No entanto, é possível definir limites para a quantidade de dados que os usuários podem consultar criando cotas personalizadas.
Limite diário de atualização da tabela de destino Consulte o Número máximo de operações de tabela por dia. As atualizações nas tabelas de destino em um job de consulta são contabilizadas no limite do número máximo de operações de tabela por dia para as tabelas de destino. As atualizações da tabela de destino incluem operações de anexação e substituição, feitas por consultas executadas usando o console do Google Cloud, usando a ferramenta de linha de comando bq ou chamando o método jobs.query e métodos de API jobs.insert do tipo de consulta.
Limite de tempo de execução de consulta de várias instruções 6 horas Uma consulta ou consulta de várias instruções pode ser executada por até seis horas e, em seguida, falha. No entanto, às vezes as consultas são repetidas. Uma consulta pode ser tentada até três vezes, e cada tentativa pode ser executada por até seis horas. Como resultado, é possível que uma consulta tenha um tempo de execução total de mais de seis horas.
Número máximo de recursos referenciados por consulta 1.000 recursos Uma consulta pode fazer referência a um total de até 1.000 tabelas, visualizações únicas, funções definidas pelo usuário (UDFs) únicas e funções com valor de tabela (TVFs) únicas (Visualizar) após a expansão completa. Este limite inclui o seguinte:
  • Tabelas, visualizações, UDFs e funções de tabela referenciadas diretamente pela consulta.
  • Tabelas, visualizações, UDFs e funções de tabela referenciadas por outras funções de visualização/UDFs/tabela referenciadas na consulta.
  • Tabelas resultantes da expansão de tabelas de caracteres curinga usadas na consulta ou nas outras funções de visualização/UDFs/tabela referenciadas.
Tamanho máximo de consulta de SQL legado não resolvido 256 KB Uma consulta de SQL legado não resolvida pode ter até 256 KB de comprimento. Se a consulta for mais longa, você receberá o seguinte erro: The query is too large. para permanecer dentro desse limite, substitua grandes matrizes ou listas por parâmetros de consulta.
Tamanho máximo de uma consulta de SQL padrão não resolvida 1 MB Uma consulta SQL padrão não resolvida pode ter até 1 MB de comprimento. Se a consulta for mais longa, você receberá o seguinte erro: The query is too large. para permanecer dentro desse limite, considere substituir grandes matrizes ou listas por parâmetros de consulta.
Tamanho máximo de consulta de SQL legado e padrão resolvido 12 MB O limite no tamanho da consulta resolvida inclui o tamanho de todas as visualizações e tabelas curinga referenciadas pela consulta.
Número máximo de parâmetros de consulta de SQL padrão 10.000 parâmetros Uma consulta no SQL padrão pode ter até 10.000 parâmetros.
Tamanho máximo da solicitação 10 MB O tamanho da solicitação pode ser de até 10 MB, incluindo propriedades extras, como parâmetros de consulta.
Tamanho máximo de resposta 10 GB compactados Os tamanhos variam de acordo com as taxas de compactação dos dados. O tamanho real da resposta pode ser significativamente superior a 10 GB. O tamanho máximo da resposta é ilimitado ao gravar grandes resultados de consultas em uma tabela de destino.
Tamanho máximo da linha 100 MB O tamanho máximo da linha é aproximado, porque o limite é baseado na representação interna dos dados da linha. Esse limite é aplicado durante determinados estágios da execução do job de consulta.
Máximo de colunas em uma tabela, um resultado de consulta ou uma definição de visualização 10.000 colunas Uma definição de tabela, resultado da consulta ou visualização pode ter até 10.000 colunas.
Máximo de slots simultâneos para preços sob demanda 2.000 slots Com o preço sob demanda, seu projeto pode ter até 2.000 slots simultâneos. Os slots do BigQuery são compartilhados entre todas as consultas em um único projeto. É possível que o BigQuery vá além desse limite para acelerar suas consultas. Para verificar quantos slots você está usando, consulte Como monitorar o BigQuery usando o Cloud Monitoring.
Uso máximo da CPU por dados verificados para preços sob demanda 256 segundos de CPU por MiB verificado Com os preços sob demanda, sua consulta pode usar até aproximadamente 256 segundos de CPU por MiB de dados verificados. Se a consulta consumir muita CPU para a quantidade de dados processados, ela falhará com um erro billingTierLimitExceeded. Para mais informações, consulte billingTierLimitExceeded.

As consultas programadas usam recursos do serviço de transferência de dados do BigQuery, mas não são transferências e não estão sujeitas a limites de job de carregamento.

Jobs de exportação

Veja a seguir os limites aplicados a jobs que exportam dados do BigQuery utilizando a ferramenta de linha de comando bq, o console do Google Cloud ou o método da API jobs.insert de tipo de exportação.

Limite Padrão Notas
Número máximo de bytes exportados por dia 50 TB É possível exportar até 50 TB de dados por dia de um projeto gratuitamente usando o pool de slots compartilhado. Para exportar mais de 50 TB de dados por dia, siga um destes procedimentos:
Número máximo de exportações por dia 100.000 exportações É possível executar até 100.000 exportações por dia em um projeto. Para executar mais de 100.000 exportações por dia, realize uma das seguintes ações:
Tamanho máximo da tabela exportado para um único arquivo 1 GB É possível exportar até 1 GB de dados da tabela para um único arquivo. Para exportar mais de 1 GB de dados, use um caractere curinga para exportar os dados para vários arquivos. Quando você exporta dados para vários arquivos, o tamanho deles varia. Em alguns casos, o tamanho dos arquivos de saída é maior que 1 GB.
URIs curinga por exportação 500 URIs Uma exportação pode ter até 500 URIs curinga.

Jobs de carregamento

Os limites a seguir se aplicam ao carregar dados no BigQuery, usando o console do Google Cloud, a ferramenta de linha de comando bq ou o método de API jobs.insert de tipo de carga.

Limite Padrão Notas
Carregar jobs por tabela por dia Os jobs de carregamento, incluindo os com falha, contam para o limite no número máximo de operações de tabela por dia para a tabela de destino. Para informações sobre os limites de número de operações de tabela por dia para tabelas padrão e particionadas, consulte Tabelas.
Carregar jobs por dia 100.000 jobs O projeto pode executar até 100.000 jobs de carregamento por dia. Os jobs de carregamento com falha são contabilizados nesse limite.
Máximo de colunas por tabela 10.000 colunas Uma tabela pode ter até 10.000 colunas.
Tamanho máximo por job de carregamento 15 TB O tamanho total de todos os seus arquivos de entrada CSV, JSON, Avro, Parquet e ORC pode ser de até 15 TB.
Número máximo de URIs de origem na configuração do job 10.000 URIs Uma configuração de job pode ter até 10.000 URIs de origem.
Número máximo de arquivos por job de carga 10.000.000 arquivos Um job de carregamento pode ter até 10 milhões de arquivos no total, incluindo todos os arquivos correspondentes a todos os URIs curinga.
Limite de tempo de execução do job de carregamento 6 horas Um job de carregamento falhará se for executado por mais de seis horas.
Avro: tamanho máximo dos blocos de dados do arquivo 16 MB O limite de tamanho para blocos de dados de arquivo Avro é de 16 MB.
CSV: tamanho máximo de células 100 MB As células CSV podem ter até 100 MB de tamanho.
CSV: tamanho máximo da linha 100 MB As linhas CSV podem ter até 100 MB.
CSV: tamanho máximo de arquivo - compactado 4 GB O limite de tamanho para um arquivo CSV compactado é de 4 GB.
CSV: tamanho máximo de arquivo, não compactado 5 TB O limite de tamanho para um arquivo CSV não compactado é de 5 TB.
JSON: tamanho máximo de linha 100 MB As linhas JSON podem ter até 100 MB de tamanho.
JSON: tamanho máximo de arquivo compactado 4 GB O limite de tamanho para um arquivo JSON compactado é de 4 GB.
JSON: tamanho máximo de arquivo, não compactado 5 TB O limite de tamanho para um arquivo JSON descompactado é de 5 TB.

Se você exceder os limites de jobs de carregamento regularmente devido a atualizações frequentes, considere usar dados de streaming no BigQuery.

Considerações sobre a cota de job de carregamento do serviço de transferência de dados do BigQuery

Os jobs de carregamento criados por transferências do serviço de transferência de dados do BigQuery são incluídos nas cotas do BigQuery em jobs de carregamento. É importante pensar em quantas transferências ativar em cada projeto para evitar erros quotaExceeded provocados por transferências e outros jobs de carregamento.

É possível usar a seguinte equação para calcular quantos jobs de carregamento são necessários para as transferências:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

Em que:

  • Number of transfers é o número de configurações de transferência que você quer ativar no projeto;
  • Number of tables é a quantidade de tabelas criadas por cada tipo específico de transferência; O número de tabelas varia de acordo com o tipo de transferência:

    • As transferências do Campaign Manager criam aproximadamente 25 tabelas.
    • As transferências do Google Ads criam aproximadamente 60 tabelas.
    • As transferências do Google Ad Manager criam aproximadamente 40 tabelas.
    • As transferências do Google Play criam aproximadamente 25 tabelas.
    • As transferências do Search Ads 360 criam aproximadamente 50 tabelas.
    • As transferências do YouTube criam aproximadamente 50 tabelas.
  • Schedule frequency descreve com que frequência a transferência é executada. Há programações de execução de transferência para cada tipo de transferência:

  • Refresh window é o número de dias a serem incluídos na transferência de dados. Se você inserir 1, não haverá preenchimento diário.

Jobs de cópia

Os limites a seguir se aplicam a jobs do BigQuery para copiar tabelas, incluindo jobs que criam cópias, clones ou snapshots de tabelas padrão, clones de tabelas ou snapshots de tabelas. Os limites se aplicam a jobs criados com o console do Google Cloud, a ferramenta de linha de comando bq ou o método de API jobs.insert de tipo de cópia. Os jobs de cópia são contabilizados nesses limites, independentemente de sucesso ou falha.

Limite Padrão Notas
Jobs de cópia por tabela de destino/dia Consulte Operações de tabela por dia.
Jobs de cópia por dia 100.000 jobs É possível executar até 100.000 jobs de cópia por dia no projeto.
Jobs de cópia entre regiões por tabela de destino/dia 100 jobs Seu projeto pode executar até 100 jobs de cópia entre regiões para uma tabela de destino por dia.
Jobs de cópia entre regiões por dia 2.000 jobs É possível executar até 2.000 jobs de cópia entre regiões por dia.

Veja a seguir os limites aplicados à cópia de conjuntos de dados:

Limite Padrão Notas
Número máximo de tabelas no conjunto de dados de origem 20.000 tabelas Um conjunto de dados de origem pode ter até 20.000 tabelas.
Número máximo de tabelas que podem ser copiadas por execução em um conjunto de dados de destino na mesma região 20.000 tabelas O projeto pode copiar 20.000 tabelas por execução em um conjunto de dados de destino que esteja na mesma região.
Número máximo de tabelas que podem ser copiadas por execução em um conjunto de dados de destino em uma região diferente 1.000 tabelas O projeto pode copiar 1.000 tabelas por execução para um conjunto de dados de destino que está em uma região diferente. Por exemplo, se você configurar uma cópia entre regiões de um conjunto de dados com 8.000 tabelas, o serviço de transferência de dados do BigQuery criará automaticamente oito execuções de maneira sequencial. A primeira execução copia 1.000 tabelas. Vinte e quatro horas depois, a segunda execução copia 1.000 tabelas. Esse processo continua até que todas as tabelas no conjunto de dados sejam copiadas, até o máximo de 20.000 tabelas por conjunto de dados.

Gerenciamento de políticas de dados

Os seguintes limites se aplicam ao mascaramento de dados dinâmicos no nível da coluna (visualização):

Limite Padrão Notas
Número máximo de políticas de dados por tag de política. 1
Número máximo de chamadas dataPolicy.list. 400 solicitações por minuto em cada projeto

600 solicitações por minuto em cada organização
Número máximo de chamadas dataPolicy.testIamPermissions. 400 solicitações por minuto em cada projeto

600 solicitações por minuto em cada organização
Número máximo de solicitações de leitura. 1.200 solicitações por minuto e projeto

1.800 solicitações por minuto por organização
Isso inclui chamadas para dataPolicy.get e dataPolicy.getIamPolicy.
Número máximo de solicitações de gravação. 600 solicitações por minuto em cada projeto

900 solicitações por minuto em cada organização

Isso inclui chamadas para:

Conjuntos de dados

Os limites a seguir se aplicam aos conjuntos de dados do BigQuery.

Limite Padrão Notas
Número máximo de conjuntos de dados Ilimitado Não há limite no número de conjuntos de dados que um projeto pode ter.
Número de tabelas por conjunto de dados Ilimitado Ao usar uma chamada de API, o desempenho da enumeração fica lento quando você se aproxima de 50.000 tabelas em um conjunto de dados. O console do Google Cloud pode exibir até 50.000 tabelas para cada conjunto de dados.
Número de recursos autorizados na lista de controle de acesso de um conjunto de dados 2500 Recursos A lista de controle de acesso de um conjunto de dados pode ter até 2.500 recursos autorizados, incluindo visualizações autorizadas, conjuntos de dados autorizados e funções autorizadas. Se você exceder esse limite devido a um grande número de visualizações autorizadas, considere agrupar as visualizações em conjuntos de dados autorizados.
Número de operações de atualização de conjunto de dados por conjunto de dados a cada 10 segundos 5 operações Seu projeto pode realizar até cinco operações de atualização de conjunto de dados a cada 10 segundos. O limite de atualização do conjunto de dados inclui todas as operações de atualização de metadados realizadas por:
Comprimento máximo de uma descrição de conjunto de dados 16.384 caracteres Ao adicionar uma descrição a um conjunto de dados, o texto pode ter no máximo 16.384 caracteres.

Tabelas

Todas as tabelas

Os limites a seguir se aplicam a todas as tabelas do BigQuery.

Limite Padrão Notas
Comprimento máximo de uma descrição de coluna 1.024 caracteres Ao adicionar uma descrição a uma coluna, o texto pode ter no máximo 1.024 caracteres.
Profundidade máxima de registros aninhados: 15 níveis Colunas do tipo RECORD podem conter tipos RECORD aninhados, também chamados de registros filhos. O limite máximo de profundidade aninhado é de 15 níveis. Esse limite não depende do fato que os registros sejam escalares ou baseados em matrizes (repetidos).

Tabelas externas

Os limites a seguir se aplicam a tabelas com dados armazenados no Cloud Storage em formato Parquet, ORC, Avro, CSV ou JSON.

Limite Padrão Notas
Número máximo de URIs de origem por tabela externa 10.000 URIs Cada tabela externa pode ter até 10.000 URIs de origem.
Número máximo de arquivos por tabela externa 10.000.000 arquivos Uma tabela externa pode ter até 10 milhões de arquivos, incluindo todos os arquivos correspondentes a todos os URIs curinga.
Tamanho máximo de dados armazenados no Cloud Storage por tabela externa 600 TB Uma tabela externa pode ter até 600 terabytes em todos os arquivos de entrada. Esse limite se aplica aos tamanhos dos arquivos, conforme armazenados no Cloud Storage. esse tamanho não é o mesmo usado na fórmula de preço de consulta. Para tabelas particionadas externamente, o limite é aplicado depois da remoção de partições.

Tabelas particionadas

Os limites a seguir se aplicam às tabelas particionadas do BigQuery.

Os limites de partição se aplicam ao total combinado de todos os jobs de carregamento, jobs de cópia e jobs de consulta que são anexados a uma partição do destino ou a substituem, ou então usam uma instrução DML DELETE, INSERT, MERGE, TRUNCATE TABLE ou UPDATE para alterar os dados de uma tabela.

As instruções DML são contabilizadas no limite de partições, mas não são limitadas por elas. Para mais informações sobre os limites da DML, consulte Instruções da linguagem de manipulação de dados.

Um único job pode afetar várias partições. Por exemplo, uma instrução DML pode atualizar dados em várias partições (para tabelas de tempo de ingestão e particionadas). Jobs de consulta e jobs de carregamento também podem gravar em várias partições, mas apenas para tabelas particionadas.

O BigQuery usa o número de partições afetadas por um job ao determinar a quantidade da cota consumida pelo job. As inserções de streaming não afetam essa cota.

Para informações sobre estratégias para permanecer dentro dos limites de tabelas particionadas, consulte Solução de problemas de erros de cota.

Limite Padrão Notas
Número de partições por tabela particionada 4.000 partições Cada tabela particionada pode ter até 4.000 partições. Se você exceder esse limite, use o clustering além do particionamento ou em vez dele.
Número de partições modificadas por um único job 4.000 partições Cada operação de job (consulta ou carregamento) pode afetar até 4.000 partições. O BigQuery rejeita qualquer job de consulta ou de carregamento que tente modificar mais de 4.000 partições.
Número de modificações de partições por tabela particionada por tempo de processamento por dia 5.000 modificações. Seu projeto pode fazer até 5.000 modificações de partições por dia em uma tabela particionada por tempo de ingestão.
Número de modificações de partições por tabela particionada por coluna por dia 30.000 modificações.

O projeto pode fazer até 30 mil modificações de partições por dia em uma tabela particionada por coluna.

Número de modificações a cada 10 segundos por tabela 50 modificações Seu projeto pode executar até 50 modificações por tabela particionada a cada 10 segundos.
Número de intervalos possíveis para particionamento de intervalo 10.000 intervalos Uma tabela particionada por intervalo pode ter até 10.000 intervalos possíveis. Esse limite se aplica à especificação de partição durante a criação da tabela. Depois de criar a tabela, o limite também se aplica ao número real de partições.

Tabelas padrão

Os limites a seguir se aplicam às tabelas padrão do BigQuery.

Limite Padrão Notas
Operações de tabela por dia 1.500 operações

O projeto pode fazer até 1.500 operações de tabela por tabela por dia, seja para anexar dados, seja para truncar a tabela. Esse limite inclui o total combinado de todos os jobs de carregamento, jobs de cópia e jobs de consulta. que anexam ou substituem uma tabela de destino ou que usam DML DELETE, INSERT, MERGE, TRUNCATE TABLE } ou UPDATE para gravar dados em uma tabela.

As instruções DML são contabilizadas no número de operações de tabela por dia. Para mais informações sobre os limites da DML, consulte Instruções da linguagem de manipulação de dados.

Taxa máxima de operações de atualização de metadados de tabela por tabela 5 operações por 10 segundos Seu projeto pode fazer até cinco operações de atualização de metadados de tabela a cada 10 segundos por tabela. Esse limite se aplica a todas as operações de atualização de metadados da tabela, realizadas ao: Esse limite também inclui o total combinado de todos os jobs de carregamento, jobs de cópia e jobs de consulta que se anexam a uma tabela de destino ou a substituem. Esse limite não se aplica a operações de DML.

Se você exceder esse limite, receberá uma mensagem de erro como Exceeded rate limits: too many table update operations for this table. Esse erro é transitório; tente novamente com uma espera exponencial.

Para identificar as operações que contam para esse limite, é possível inspecionar seus registros.

Número máximo de colunas por tabela 10.000 colunas Cada definição de tabela, resultado da consulta ou visualização pode ter até 10.000 colunas.

Snapshots da tabela

Os limites a seguir se aplicam aos instantâneos da tabela do BigQuery:

Limite Padrão Notas
Número máximo de jobs de snapshots da tabela simultâneos: 100 jobs O projeto pode executar até 100 jobs de snapshots de tabela simultâneos.
Número máximo de jobs de snapshots da tabela por dia: 50.000 jobs O projeto pode executar até 50.000 jobs de snapshots de tabela por dia.
Número máximo de jobs por snapshot da tabela por dia: 50 jobs Seu projeto pode executar até 50 jobs por dia por snapshot de tabela.
Número máximo de atualizações de metadados por snapshot da tabela a cada 10 segundos: 5 atualizações O projeto pode atualizar os metadados de um snapshot de tabela até cinco vezes a cada 10 segundos.

Visualizações

Os limites a seguir se aplicam às visualizações do BigQuery.

Limite Padrão Notas
Número máximo de níveis de visualização aninhados: 16 tiers O BigQuery é compatível com até 16 níveis de visualizações aninhadas. Se houver mais de 16 níveis, será retornado um erro INVALID_INPUT.
Tamanho máximo de uma consulta de SQL padrão usada para definir uma visualização 256 mil caracteres O texto de uma consulta SQL padrão que define uma visualização pode ter até 256 mil caracteres.
Número máximo de visualizações autorizadas por conjunto de dados: Consulte Conjuntos de dados.

Segurança no nível da linha

Os limites a seguir se aplicam às políticas de acesso no nível da linha do BigQuery:

Limite Padrão Observações
Número máximo de políticas de acesso de linha por tabela. 100 políticas Uma tabela pode ter até cem políticas de acesso de linha.
Número máximo de políticas de acesso de linha por tabela. 100 políticas Uma consulta pode acessar até um total de 100 políticas de acesso de linha.
Número máximo de instruções DDL CREATE / DROP por política a cada 10 segundos 5 instruções O projeto pode fazer até cinco instruções CREATE ou DROP por recurso de política de acesso de linha a cada 10 segundos.
DROP ALL ROW ACCESS POLICIES instruções por tabela a cada 10 segundos Instruções Seu projeto pode fazer até cinco instruções DROP ALL ROW ACCESS POLICIES por tabela a cada 10 segundos.
Número máximo de chamadas rowAccessPolicies.list Consulte Limites para todas as APIs do BigQuery.
Número máximo de chamadas rowAccessPolicies.getIamPolicy Consulte Cotas da API IAM.

Instruções da linguagem de manipulação de dados

Os limites a seguir se aplicam a instruções da linguagem de manipulação de dados (DML) do BigQuery:

Limite Padrão Notas
Instruções DML por dia Ilimitado As instruções DML são contabilizadas no número de operações de tabelas por dia (ou no número de operações de tabelas particionadas por dia) para tabelas particionadas ). No entanto, o número de instruções DML que seu projeto pode executar por dia não é limitado. Após o uso do limite diário de operações da tabela (ou operações de tabela particionada), você receberá erros para operações de tabela não DML. No entanto, é possível continuar a executar instruções DML sem receber erros.

Por exemplo, suponha que você tem uma tabela particionada por tempo de ingestão chamada mytable. Se você executar 3.000 jobs de cópia que anexam dados a mytable$20210720 e 2.000 jobs de consulta que usam INSERT para anexar dados a mytable$20210720, você atinge o limite diário de alterações na partição. Quando você atingir o limite, todos os jobs de cópia vão falhar, mas os jobs de consulta baseados em DML vão continuar funcionando. No entanto, as instruções DML têm as próprias limitações.
Instruções DML mutantes simultâneas por tabela Duas Instruções O BigQuery executa até duas instruções DML mutantes simultâneas (UPDATE, DELETE e MERGE) em cada tabela. As instruções DML mutantes adicionais de uma tabela são enfileiradas.
Instruções DML mutantes na fila por tabela 20 instruções Uma tabela pode ter até 20 instruções DML mutantes na fila que aguardam execução. Se você enviar instruções DML mutantes adicionais para a tabela, essas instruções falharão.
Tempo máximo na fila para a instrução DML 6 horas Uma instrução DML de prioridade interativa pode aguardar na fila por até seis horas. Se a instrução não for executada após seis horas, ela falhará.

Para mais informações sobre como modificar instruções DML, consulte Simultaneidade de DML INSERT e Simultaneidade de DML UPDATE, DELETE, MERGE.

Inserções de streaming

As cotas e limites a seguir se aplicam ao streaming de dados no BigQuery usando a API de streaming legada. Para mais informações sobre estratégias para não exceder esses limites, consulte Como solucionar erros de cota. Se você exceder essas cotas, receberá erros quotaExceeded.

Limite Padrão Notas
Máximo de bytes por segundo por projeto nas multirregiões us e eu: 1 GB por segundo

É possível fazer streaming de até 1 GB por segundo no seu projeto. Essa cota é cumulativa dentro de uma determinada multirregião. Ou seja, a soma de bytes por segundo transmitidas para todas as tabelas em um determinado projeto dentro de uma multirregião está limitada a 1 GB.

Exceder esse limite causa quotaExceeded erro.

Se necessário, é possível solicitar um aumento de cota entrando em contato com o Cloud Customer Care. Todo aumento deve ser solicitado o quanto antes, no mínimo duas semanas antes de precisar dele. O aumento de cota demora ser disponibilizado, principalmente se o aumento for significativo.

Máximo de bytes por segundo em cada projeto em todos os outros locais 300 MB por segundo

Seu projeto pode transmitir até 300 MB por segundo em todos os locais, exceto nas multirregiões us e eu. Esse limite é cumulativo dentro de uma determinada região. Ou seja, a soma dos bytes por segundo transmitidos para todas as tabelas em um determinado projeto dentro de uma região é limitada a 300 MB.

Exceder esse limite causa quotaExceeded erro.

Se necessário, é possível solicitar um aumento de cota entrando em contato com o Cloud Customer Care. Todo aumento deve ser solicitado o quanto antes, no mínimo duas semanas antes de precisar dele. O aumento de cota demora ser disponibilizado, principalmente se o aumento for significativo.

Tamanho máximo da linha 10 MB Exceder esse valor causa o erro invalid.
Limite de tamanho da solicitação HTTP 10 MB

Exceder esse valor causa o erro invalid.

Observação: a solicitação é transformada internamente de HTTP/JSON para uma estrutura de dados interna. Essa estrutura de dados tem o próprio limite de tamanho. É difícil prever o tamanho da estrutura de dados interna resultante, mas se você mantiver as solicitações HTTP em 10 MB ou menos, a chance de atingir o limite interno será baixa.

máximo de linhas por solicitação 50.000 linhas É recomendado o máximo de 500 linhas. Nas operações em lote, o desempenho e a capacidade podem aumentar, mas a latência por solicitação pode ser prejudicada. Com poucas linhas por solicitação, a ingestão pode ficar ineficiente por causa do excesso de recursos utilizados no processamento de cada solicitação. Com muitas filas, o rendimento da saída pode diminuir. Teste dados representativos (esquema e tamanhos dos dados) para determinar o tamanho ideal do lote para os seus dados.
Comprimento do campo insertId: 128 caracteres Exceder esse valor causa o erro invalid.

Para cotas de streaming adicionais, consulte Solicitar um aumento de cota.

Funções de tabela

Os limites a seguir se aplicam às funções de tabela do BigQuery:

Limite Padrão Notas
Comprimento máximo de um nome de função de tabela 256 caracteres O nome de uma função de tabela pode ter até 256 caracteres.
Comprimento máximo de um nome de argumento 128 caracteres O nome de um argumento de função de tabela pode ter até 128 caracteres.
Número máximo de argumentos: 256 argumentos Uma função de tabela pode ter até 256 argumentos.
Profundidade máxima da cadeia de referência de uma função de tabela 16 referências Uma cadeia de referência da função de tabela pode ter até 16 referências.
STRUCTProfundidade máxima de um argumento ou de uma saída do tipo : 15 15 níveis Um argumento STRUCT para uma função de tabela pode ter até 15 níveis de profundidade. Da mesma forma, um registro STRUCT na saída de uma função da tabela pode ter até 15 níveis de profundidade.
STRUCTNúmero máximo de campos em argumentos ou tabelas de retorno do tipo por função de tabela: 1.024 campos Um argumento STRUCT para uma função de tabela pode ter até 1.024 campos. Da mesma forma, um registro STRUCT na saída de uma função de tabela pode ter até 1.024 campos.
Número máximo de colunas na tabela de retorno 1.024 colunas Uma tabela retornada por uma função de tabela pode ter até 1.024 colunas.
Comprimento máximo de nomes de colunas da tabela de retorno: 128 caracteres Os nomes das colunas das tabelas retornadas podem ter até 128 caracteres.
Número máximo de atualizações por função de tabela a cada 10 segundos 5 atualizações Seu projeto pode atualizar uma função de tabela até cinco vezes a cada 10 segundos.

UDFs

Os limites a seguir se aplicam às funções definidas pelo usuário (UDFs, na sigla em inglês) temporárias e permanentes em consultas SQL padrão do Google.

Limite Padrão Notas
Saída máxima por linha 5 MB A quantidade máxima de dados que a UDF JavaScript pode gerar ao processar uma única linha é de aproximadamente 5 MB.
Máximo de consultas SQL legadas simultâneas com UDFs em JavaScript 6 consultas O projeto pode ter até seis consultas SQL legadas simultâneas que tenham UDFs em JavaScript. Esse limite inclui consultas interativas e em lote. Consultas interativas que contêm UDFs também são consideradas em relação ao limite de taxa simultânea para consultas interativas. Esse limite não se aplica a consultas de SQL padrão.
Máximo de recursos de UDF em JavaScript por consulta 50 recursos Um job de consulta pode ter até 50 recursos de UDF em JavaScript, como blobs de código in-line ou arquivos externos.
Tamanho máximo do blob de código in-line 32 KB Um blob de código in-line em uma UDF pode ter até 32 KB.
Tamanho máximo de cada recurso de código externo 1 MB O tamanho máximo de cada recurso de código JavaScript é de 1 MB.

Os limites a seguir se aplicam a UDFs permanentes:

Limite Padrão Notas
Tamanho máximo de um nome de UDF 256 caracteres Um nome de UDF pode ter até 256 caracteres.
Número máximo de argumentos: 256 argumentos Uma UDF pode ter até 256 argumentos.
Tamanho máximo de um nome de argumento 128 caracteres Um nome de argumento de UDF pode ter até 128 caracteres.
Profundidade máxima de uma cadeia de referências da UDF 16 referências Uma cadeia de referência de UDF pode ter até 16 referências profundas.
Profundidade máxima de um argumento ou uma saída do tipo STRUCT. 15 níveis Um argumento ou saída de UDF do tipo STRUCT pode ter até 15 níveis de profundidade.
Número máximo de campos em argumentos de tipo STRUCT ou saída por UDF 1.024 campos Uma UDF pode ter até 1.024 campos em argumentos de tipo e saída STRUCT.
Número máximo de bibliotecas JavaScript em uma instrução CREATE FUNCTION 50 bibliotecas Uma instrução CREATE FUNCTION pode ter até 50 bibliotecas JavaScript.
Tamanho máximo dos caminhos da biblioteca JavaScript incluídos 5.000 de caracteres O caminho para uma biblioteca JavaScript incluída em uma UDF pode ter até 5.000 caracteres.
Taxa máxima de atualização por UDF: 5 a cada 10 segundos 5 atualizações O projeto pode atualizar uma UDF até cinco vezes a cada 10 segundos.
Número máximo de UDFs autorizadas por conjunto de dados: Consulte Conjuntos de dados.

Funções remotas

Os limites a seguir se aplicam às funções remotas no BigQuery.

Limite Padrão Notas
Número máximo de consultas simultâneas que contêm funções remotas 10 consultas Você pode executar até 10 consultas simultâneas com funções remotas por projeto.
Limite de tamanho da resposta HTTP (Cloud Functions de primeira geração) 10 MB O corpo da resposta HTTP do Cloud Functions de primeira geração é de até 10 MB. Exceder esse valor causa falhas de consulta.
Limite de tamanho da resposta HTTP (Cloud Functions de segunda geração ou Cloud Run) 15 MB O corpo da resposta HTTP da sua segunda geração do Cloud Functions ou do Cloud Run tem até 15 MB. Exceder esse valor causa falhas de consulta.
Limite de tempo de invocação de HTTP máximo (Cloud Functions de primeira geração) 9 minutos É possível definir seu próprio limite de tempo para a primeira geração do Cloud Functions para uma invocação HTTP individual, mas o limite máximo é de 9 minutos. Exceder o limite de tempo definido para a primeira geração do Cloud Functions pode causar falhas de invocação HTTP e falha de consulta após um número limitado de novas tentativas.
Limite de tempo de invocação de HTTP (Cloud Functions de segunda geração ou Cloud Run) 20 minutos O limite de tempo para uma invocação HTTP individual para sua segunda geração do Cloud Functions ou para o Cloud Run. Exceder esse valor pode causar falhas de invocação HTTP e falha de consulta após um número limitado de novas tentativas.

Consultas de múltiplas instruções

Os limites a seguir se aplicam às consultas de várias instruções no BigQuery.

Limite Padrão Notas
Limite de tempo cumulativo 24 horas O limite de tempo cumulativo para uma consulta de várias instruções é de 24 horas.
Limite de tempo do extrato 6 horas O limite de tempo para uma instrução individual em uma consulta de várias instruções é de seis horas.

API BigQuery

Nesta seção, descrevemos as cotas e os limites que se aplicam a todas as solicitações da API BigQuery e as que se aplicam a tipos específicos de solicitações.

Todas as APIs do BigQuery

A cota a seguir se aplica a todas as solicitações da API BigQuery:

Cota Padrão Notas
Solicitações por dia Ilimitado Seu projeto pode fazer um número ilimitado de solicitações da API BigQuery por dia.
Veja a cota no Console do Google Cloud

Os limites a seguir se aplicam a todas as solicitações da API BigQuery:

Limite Padrão Notas
Número máximo de solicitações de API por segundo por usuário e por método 100 solicitações Um usuário pode fazer até 100 solicitações de API por segundo para um método de API. Se um usuário fizer mais de 100 solicitações por segundo para um método, poderá haver uma limitação. Esse limite não se aplica a inserções de streaming.
Número máximo de solicitações de API simultâneas por usuário 300 solicitações Se um usuário faz mais de 300 solicitações simultâneas, a limitação pode ocorrer. Esse limite não se aplica a inserções de streaming.
Tamanho máximo do cabeçalho da solicitação 16 KiB A solicitação da API BigQuery pode ser de até 16 KiB, incluindo o URL de solicitação e todos os cabeçalhos. Esse limite não se aplica ao corpo da solicitação, como em uma solicitação POST.

Solicitações jobs.get

O limite a seguir se aplica a solicitações de API jobs.get:

Limite Padrão Notas
Máximo de solicitações jobs.get por segundo 1.000 solicitações O projeto pode fazer até 1.000 solicitações jobs.get por segundo.

Solicitações jobs.query

O limite a seguir se aplica às solicitações da API jobs.query:

Limite Padrão Notas
Tamanho máximo de resposta jobs.query 20 MB Por padrão, não há contagem máxima de linhas para o número de linhas de dados a serem retornadas por jobs.query página de resultados. No entanto, é aplicado o limite de 20 MB no tamanho máximo da resposta. O número de linhas a serem retornadas pode ser alterado por meio do parâmetro maxResults.

Solicitações projects.list

O limite a seguir se aplica às solicitações da API projects.list:

Limite Padrão Notas
Máximo de solicitações projects.list por segundo 2 solicitações Seu projeto pode fazer até duas solicitações projects.list por segundo.

Solicitações tabledata.list

A cota a seguir se aplica às solicitações tabledata.list. Outras APIs, incluindo jobs.getQueryResults e busca de resultados de jobs.query e jobs.insert também pode consumir essa cota.

Cota Padrão Notas
Bytes da lista de tabledata por minuto 3,6 GB Seu projeto pode retornar no máximo 3,6 GB de dados de linhas da tabela por minuto. Essa cota se aplica ao projeto que contém a tabela que está sendo lida.
Veja a cota no console do Google Cloud

Os limites a seguir se aplicam a solicitações tabledata.list:

Limite Padrão Notas
Número máximo de solicitações tabledata.list por segundo 1.000 solicitações O projeto pode fazer até 1.000 solicitações tabledata.list por segundo.
Máximo de linhas retornadas por tabledata.list solicitações por segundo 150.000 Linhas Seu projeto pode retornar até 150.000 linhas por segundo usando solicitações tabledata.list. O limite se aplica ao projeto que contém a tabela que está sendo lida.
Máximo de linhas por resposta de tabledata.list 100.000 Linhas Uma chamada tabledata.list pode retornar até 100.000 linhas de tabela. Para mais informações, consulte Como fazer paginação de resultados usando a API.

Solicitações tables.insert

O método tables.insert cria uma nova tabela vazia em um conjunto de dados. O limite a seguir se aplica a solicitações tables.insert. Esse limite inclui instruções SQL que criam tabelas, como CREATE TABLE, e consultas que gravam resultados em tabelas de destino.

Limite Padrão Notas
Máximo de solicitações tables.insert por segundo 10 solicitações Seu projeto pode fazer até 10 solicitações de tables.insert por segundo.

API BigQuery Connection

As cotas a seguir se aplicam às chamadas da API BigQuery Connection:

Cota Padrão Notas
Solicitações de leitura por minuto 1.000 solicitações Seu projeto pode fazer até 1.000 solicitações por minuto aos métodos da API BigQuery Connection que leem dados de conexão.
Veja a cota no console do Google Cloud
Solicitações de gravação por minuto 100 solicitações por minuto Seu projeto pode fazer até 100 solicitações por minuto para os métodos da API BigQuery Connection que criam ou atualizam conexões.
Veja a cota no console do Google Cloud

API BigQuery Migration

Os seguintes limites se aplicam à API BigQuery Migration (visualização):

Limite Padrão Notas
Tamanho de arquivo individual para tradução em lote do SQL 10 MB Cada arquivo de origem e de metadados pode ter até 10 MB. Esse limite não se aplica ao arquivo ZIP de metadados produzido pela ferramenta de linha de comando dwh-migration-dumper.
Tamanho total dos arquivos de origem para tradução em SQL em lote 1 GB O tamanho total de todos os arquivos de entrada enviados para o Cloud Storage pode ser de até 1 GB. Isso inclui todos os arquivos de origem e de metadados, caso você os inclua.
Inserir string de string para tradução SQL interativa < 1 MB A string que você inserir para tradução SQL interativa precisa ser menor que 1 MB.

As cotas a seguir se aplicam à API BigQuery Migration (visualização):

Cota Padrão Notas

Solicitações da lista de serviços de EDWMigration por minuto

Solicitações da lista de serviços de EDWMigration por minuto por usuário

25.000 solicitações

5.000 solicitações

Seu projeto pode fazer até 25.000 solicitações da lista API Migration por minuto.

Cada usuário pode fazer até 5.000 solicitações de lista API Migration por minuto.

Veja as cotas no console do Google Cloud

Solicitações Get do serviço EDWMigration por minuto

Solicitações Get do serviço EDWMigration Service por usuário

50.000 solicitações

5.000 solicitações

Seu projeto pode fazer até 50.000 solicitações Get da API Migration por minuto.

Cada usuário pode fazer até 5.000 solicitações Get da API Migration por minuto.

Veja as cotas no console do Google Cloud

Outras solicitações do serviço de EDWMigration por minuto

Outras solicitações do serviço de EDWMigration por minuto por usuário

50 solicitações

10 solicitações

Seu projeto pode fazer até 50 outras solicitações da API Migration por minuto.

Cada usuário pode fazer até 10 outras solicitações da API Migration por minuto.

Veja as cotas no console do Google Cloud

Solicitações de tradução do SQL interativo por minuto

Solicitações de tradução do SQL interativo por minuto, por usuário

500 solicitações

100 solicitações

Seu projeto pode fazer até 500 solicitações de serviço de tradução do SQL por minuto.

Cada usuário pode fazer até 100 outras solicitações do serviço de tradução do SQL por minuto.

Veja as cotas no console do Google Cloud

API BigQuery Reservation

As cotas a seguir se aplicam à API BigQuery Reservation:

Cota Padrão Notas
Solicitações por minuto por região 100 solicitações Seu projeto pode fazer um total de até 100 chamadas para os métodos da API BigQuery Reservation por minuto e por região.
Veja as cotas no console do Google Cloud
Número de chamadas SearchAllAssignments por minuto por região 100 solicitações O projeto pode fazer até 100 chamadas para o método SearchAllAssignments por minuto e por região.
Veja as cotas no console do Google Cloud
Solicitações para SearchAllAssignments por minuto, por região e por usuário 10 solicitações Cada usuário pode fazer até 10 chamadas ao método SearchAllAssignments por minuto e por região.
Veja as cotas no console do Google Cloud
Nos resultados da pesquisa do Console do Google Cloud, pesquise por por usuário.
Número total de slots na região da UE 2.000 slots O número máximo de slots do BigQuery que podem ser adquiridos na multirregião UE usando o console do Google Cloud.
Veja as cotas no console do Google Cloud
Número total de slots para a região dos EUA 4.000 slots O número máximo de slots do BigQuery que é possível comprar na multirregião EUA usando o console do Google Cloud.
Veja as cotas no console do Google Cloud
Número total de slots para as seguintes regiões: asia-northeast1, asia-northeast3, australia-southeast1, europe-west2 e northamerica-northeast1 1000 slots O número máximo de slots do BigQuery que é possível comprar em cada uma das regiões listadas usando o Console do Google Cloud.
Veja as cotas no console do Google Cloud
Número total de slots para regiões Omni (aws-us-east-1 e azure-eastus2) 100 slots O número máximo de slots do BigQuery que podem ser comprados nas regiões Omni com o Console do Google Cloud.
Veja as cotas no console do Google Cloud
Número total de slots para todas as outras regiões. 500 slots O número máximo de slots do BigQuery que podem ser comprados em cada região usando o Console do Google Cloud.
Veja as cotas no console do Google Cloud

API IAM

As cotas a seguir se aplicam quando você usa a funcionalidade de gerenciamento de identidade e acesso no BigQuery para recuperar e definir as políticas do IAM, além de testar as permissões dele.

Cota Padrão Notas
Solicitações IamPolicy por minuto 3.000 solicitações Seu projeto pode fazer até 3.000 solicitações de IAM por segundo.
Veja a cota no console do Google Cloud
IamPolicy solicita minuto por usuário 1.500 solicitações Cada usuário pode fazer até 1.500 solicitações do IAM por minuto por projeto.
Veja a cota no console do Google Cloud

API Storage Read

As cotas a seguir se aplicam às solicitações da API BigQuery Storage Read:

Cota Padrão Notas
Solicitações de leitura dos planos de dados por minuto por usuário 25.000 solicitações Cada usuário pode fazer até 25.000 chamadas ReadRows por minuto por projeto.
Veja a cota no console do Google Cloud
Solicitações de leitura do plano de controle por minuto por usuário 5.000 solicitações Cada usuário pode fazer até 5.000 chamadas de operação de metadados da Storage Read API por minuto por projeto. As chamadas de metadados incluem os métodos CreateReadSession e SplitReadStream.
Veja a cota no console do Google Cloud

Os limites a seguir se aplicam às solicitações da API BigQuery Storage Read:

Limite Padrão Notas
Tamanho máximo da linha/filtro 1 MB Ao usar a chamada CreateReadSession da API Storage Read, você é limitado a um comprimento máximo de 1 MB para cada linha ou filtro.
Tamanho máximo de dados serializados 128 MB Quando você usa a chamada ReadRows da API Storage Read, a representação serializada dos dados em uma mensagem ReadRowsResponse individual não pode ser maior que 128 MB.
Máximo de conexões simultâneas 2.000 em várias regiões; 400 em regiões É possível abrir no máximo 2.000 conexões ReadRows simultâneas por projeto nas multirregiões us e eu e 400 conexões ReadRows simultâneas em outras regiões. Em alguns casos, o limite de conexões simultâneas pode ser menor.

API Storage Write

As cotas a seguir se aplicam às solicitações da API Storage Write.

Cota Padrão Notas
Conexões simultâneas 10.000 em várias regiões; 1000 em regiões O projeto pode operar em 10.000 conexões simultâneas nas várias regiões us e eu, e 1000 em outras regiões.
Veja a cota no console do Google Cloud

É possível ver as cotas de uso e limitar as métricas dos seus projetos no Cloud Monitoring. Selecione o nome do limite de conexões simultâneas com base na sua região. As opções são ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU e ConcurrentWriteConnectionsPerProjectRegion para us, eu e outras regiões.

Também é possível configurar alertas para monitorar o uso e os limites da sua cota.


Capacidade 3 GB por segundo de capacidade em multirregiões. 300 MB por segundo nas regiões É possível fazer streaming de até 3 GBps nas multirregiões us e eu. 300 MBps em outras regiões por projeto.
Veja a cota no console do Google Cloud

É possível ver as cotas de uso e limitar as métricas dos seus projetos no Cloud Monitoring. Selecione o nome do limite da capacidade de processamento com base na sua região. As opções são AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU e AppendBytesThroughputPerProjectRegion para us, eu e outras regiões.

Também é possível configurar alertas para monitorar o uso e os limites da sua cota.


Solicitações CreateWriteStream 30.000 streams a cada quatro horas, por projeto É possível chamar CreateWriteStream até 30.000 vezes a cada 4 horas por projeto. Considere usar o stream padrão se você não precisar da semântica exata uma vez.
Veja a cota no console do Google Cloud
Bytes de stream pendentes 10 TB em multirregiões, 1 TB em regiões Para cada confirmação acionada, é possível confirmar até 10 TB nas multirregiões us e eu e 1 TB em outras regiões.
Veja a cota no console do Google Cloud

Os limites a seguir se aplicam às solicitações da API Storage Write:

Limite Padrão Notas
Confirmações em lote 10.000 streams por tabela É possível confirmar até 10.000 streams em cada chamada BatchCommitWriteStream.
Tamanho da solicitação 10 MB O tamanho máximo da solicitação é de 10 MB.

BigQuery BI Engine

Os limites a seguir se aplicam ao BigQuery BI Engine.

Limite Padrão Notas
Tamanho máximo de reserva por projeto e por local (interface SQL) 250 GB Aplica-se ao usar o BI Engine com ferramentas de Business Intelligence (BI) diferentes do Data Studio.

É possível solicitar um aumento da capacidade máxima de reserva dos seus projetos.
Tamanho máximo de reserva por projeto e por local (Data Studio) 100 GB Aplica-se ao usar o BI Engine com o Data Studio. Esse limite não afeta o tamanho das tabelas consultadas, porque o BI Engine carrega na memória apenas as colunas usadas nas consultas, não a tabela inteira.
Tamanho máximo do modelo de dados por tabela (Data Studio) 10 GB Aplica-se ao usar o BI Engine com o Data Studio. Se você tiver uma reserva de 100 GB/projeto por local, o BI Engine limita a reserva por tabela a 10 GB. O restante da reserva disponível é usado para outras tabelas no projeto.
Máximo de partições por tabela (Data Studio) 500 partições O BI Engine para Data Studio aceita no máximo 500 partições por tabela.
Máximo de linhas por consulta (Data Studio) 150 milhões O BI Engine para Data Studio aceita até 150 milhões de linhas de dados consultados, dependendo da complexidade da consulta.

Limites de consulta

Se você realizar uma consulta que gere resultados maiores do que o tamanho da sua capacidade de BI Engine, o recurso de autoajuste do BI Engine usará slots do BigQuery para executar essa consulta. Quando forem usados slots do BigQuery para realizar uma consulta, você receberá a cobrança com base nos preços de consulta sob demanda do BigQuery para o job de consulta. Quando forem usados slots para realizar uma consulta, todas as cotas e limites de jobs de consulta do BigQuery serão aplicadas.

Analytics Hub

Os seguintes limites se aplicam ao Hub do Analytics:

Limite Padrão Notas
Número máximo de trocas de dados por projeto 500 É possível criar até 500 trocas de dados em um projeto.
Número máximo de listagens por troca de dados 1.000 É possível criar até mil listagens em uma troca de dados.
Número máximo de conjuntos de dados vinculados por conjunto de dados compartilhado 1.000 Todos os assinantes do Analytics Hub podem ter no máximo 1.000 conjuntos de dados vinculados por conjunto de dados compartilhado.