Quotas e limites
Este documento lista as quotas e os limites do sistema que se aplicam ao BigQuery.
- As quotas têm valores predefinidos, mas normalmente pode pedir ajustes.
- Os limites do sistema são valores fixos que não podem ser alterados.
Google Cloud usa quotas para ajudar a garantir a equidade e reduzir os picos na utilização e disponibilidade de recursos. Uma quota restringe a quantidade de um Google Cloud recurso que o seu Google Cloud projeto pode usar. As quotas aplicam-se a uma variedade de tipos de recursos, incluindo componentes de hardware, software e rede. Por exemplo, as quotas podem restringir o número de chamadas API para um serviço, o número de balanceadores de carga usados em simultâneo pelo seu projeto ou o número de projetos que pode criar. As quotas protegem a comunidade de Google Cloud utilizadores, impedindo a sobrecarga dos serviços. As quotas também ajudam a gerir os seus próprios Google Cloud recursos.
O sistema de quotas da nuvem faz o seguinte:
- Monitoriza o seu consumo de Google Cloud produtos e serviços
- Restringe o seu consumo desses recursos
- Oferece uma forma de pedir alterações ao valor da quota e automatizar os ajustes de quotas
Na maioria dos casos, quando tenta consumir mais de um recurso do que a respetiva quota permite, o sistema bloqueia o acesso ao recurso e a tarefa que está a tentar realizar falha.
Geralmente, as quotas aplicam-se ao nível do Google Cloud projeto A sua utilização de um recurso num projeto não afeta a sua quota disponível noutro projeto. Num Google Cloud projeto, as quotas são partilhadas por todas as aplicações e endereços IP.
Também existem limites do sistema nos recursos do BigQuery. Não é possível alterar os limites do sistema.
Por predefinição, as quotas e os limites do BigQuery aplicam-se por projeto. As quotas e os limites que se aplicam com base noutros critérios são indicados como tal; por exemplo, o número máximo de colunas por tabela ou o número máximo de pedidos de API simultâneos por utilizador. As políticas específicas variam consoante a disponibilidade de recursos, o perfil do utilizador, o histórico de utilização do serviço e outros fatores, e estão sujeitas a alterações sem aviso prévio.
Reposição da quota
As quotas diárias são repostas a intervalos regulares ao longo do dia, refletindo a intenção de orientar os comportamentos de limitação de taxa. A atualização intermitente também é feita para evitar interrupções longas quando a quota se esgota. Normalmente, é disponibilizada mais quota em minutos, em vez de ser reposta globalmente uma vez por dia.
Peça um aumento da quota
Para ajustar a maioria das quotas, use a Google Cloud consola. Para mais informações, consulte o artigo Peça um ajuste da quota.
Para receber orientações passo a passo sobre o processo de pedido de um aumento da quota na Google Cloud consola, clique em Visita guiada:
Limite a utilização da quota
Para saber como pode limitar a utilização de um recurso específico criando uma substituição de quota, consulte o artigo Crie uma substituição de quota.
Autorizações necessárias
Para ver e atualizar as suas quotas do BigQuery na Google Cloud consola, precisa das mesmas autorizações que para qualquer Google Cloud quota. Para mais informações, consulte as Google Cloud autorizações de quota.
Resolver problemas
Para obter informações sobre a resolução de problemas relacionados com quotas e limites, consulte o artigo Resolva problemas de erros de quota do BigQuery.
Empregos
As quotas e os limites aplicam-se a tarefas que o BigQuery executa em seu nome, quer sejam executadas através da Google Cloud consola, da ferramenta de linha de comandos bq ou programaticamente através da API REST ou das bibliotecas de cliente.
Consultar tarefas
As seguintes quotas aplicam-se a tarefas de consulta criadas automaticamente através da execução de consultas interativas, consultas agendadas e tarefas enviadas através dos métodos da API jobs.query
e jobs.insert
do tipo de consulta:
Quota | Predefinição | Notas |
---|---|---|
Utilização de consultas por dia | Ilimitado A partir de 1 de setembro de 2025, o limite predefinido vai mudar de ilimitado para 200 tebibytes (TiB) |
Esta quota aplica-se apenas ao
modelo de preços de consultas a pedido. Por predefinição, não existe um limite para o número de bytes que podem ser processados por consultas num projeto. Consulte o artigo Crie quotas de consultas personalizadas para saber mais sobre os controlos de custos. Veja a quota na Google Cloud consola |
Utilização de consultas por dia por utilizador | Ilimitado | Esta quota aplica-se apenas ao
modelo de preços de consultas a pedido. Por predefinição, não existe um limite para o número de bytes que as consultas de um utilizador podem processar por dia. Consulte o artigo Crie quotas de consultas personalizadas para saber mais sobre os controlos de custos. Veja a quota na Google Cloud consola |
Bytes entre regiões por dia de consultas federadas do Cloud SQL | 1 TB | Se a
localização de processamento de consultas do BigQuery e a
localização da instância do Cloud SQL forem diferentes, a sua consulta é uma consulta
entre regiões. O seu projeto pode executar até 1 TB em consultas entre regiões
por dia. Consulte as
consultas federadas
do Cloud SQL. Veja a quota na Google Cloud consola |
Bytes transferidos entre nuvens por dia | 1 TB |
Pode transferir até 1 TB de dados por dia a partir de um contentor do Amazon S3 ou
do Azure Blob Storage. Para mais informações, consulte
Transferência
entre nuvens da Amazon S3 e do Azure.
Ver quota na Google Cloud consola |
Os seguintes limites aplicam-se a tarefas de consulta criadas automaticamente pela execução de consultas interativas, consultas agendadas e tarefas enviadas através dos métodos da API jobs.query
e jobs.insert
do tipo de consulta:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de consultas interativas em fila | 1000 consultas | O seu projeto pode colocar em fila até 1000 consultas interativas. As consultas interativas adicionais que excedam este limite devolvem um erro de quota. |
Número máximo de consultas em lote na fila | 20 000 consultas | O seu projeto pode colocar em fila até 20 000 consultas em lote. As consultas em lote adicionais que excedam este limite devolvem um erro de quota. |
Número máximo de consultas interativas simultâneas em origens de dados externas do Bigtable | 16 consultas | O seu projeto pode executar até dezasseis consultas simultâneas numa origem de dados externa do Bigtable. |
Número máximo de consultas simultâneas que contêm funções remotas | 10 consultas | Pode executar até dez consultas simultâneas com funções remotas por projeto. |
Número máximo de consultas com várias declarações simultâneas | 1000 consultas com várias declarações | O seu projeto pode executar até 1000 consultas com várias declarações em simultâneo. Para outras quotas e limites relacionados com consultas de várias declarações, consulte o artigo Consultas de várias declarações. |
Número máximo de consultas SQL antigas simultâneas que contêm FDUs | 6 consultas | O seu projeto pode executar até seis consultas SQL antigas simultâneas com funções definidas pelo utilizador (FDUs). Este limite inclui consultas interativas e em lote. As consultas interativas que contêm FDUs também contam para o limite concorrente de consultas interativas. Este limite não se aplica a consultas GoogleSQL. |
Limite de tamanho de consultas diário | Ilimitado | Por predefinição, não existe um limite de tamanho de consultas diário. No entanto, pode definir limites para a quantidade de dados que os utilizadores podem consultar criando quotas personalizadas para controlar a utilização de consultas por dia ou a utilização de consultas por dia por utilizador. |
Limite de atualização diária da tabela de destino | Consulte o número máximo de operações de tabelas por dia. |
As atualizações às tabelas de destino numa tarefa de consulta são contabilizadas para o limite do número máximo de operações de tabelas por dia para as tabelas de destino. As atualizações da tabela de destino incluem operações de anexação e substituição realizadas por consultas que executa através da
Google Cloud consola, da ferramenta de linha de comandos bq ou da chamada dos métodos da API
jobs.query
e do tipo de consulta
jobs.insert .
|
Limite de tempo de execução de consultas/consultas com várias declarações | 6 horas |
Uma consulta ou uma consulta com várias declarações pode ser executada durante um máximo de 6 horas e, em seguida, falha. Porém, por vezes, há uma nova tentativa de fazer as consultas. É possível tentar fazer uma consulta até três vezes, e cada tentativa pode ser feita durante um máximo de 6 horas. Como resultado, é possível que uma consulta tenha um tempo de execução total superior a 6 horas. O tempo limite da tarefa |
Número máximo de recursos referenciados por consulta | 1000 recursos |
Uma consulta pode referenciar um total de até 1000 tabelas únicas, vistas únicas,
funções definidas pelo utilizador (UDFs) únicas e funções de tabela únicas após a expansão completa. Este limite inclui o seguinte:
|
Comprimento máximo de carateres da consulta SQL | 1024 k carateres |
Uma consulta SQL pode ter até 1024 mil carateres. Este limite inclui
comentários e carateres de espaço em branco. Se a sua consulta for mais longa, recebe o seguinte erro: The query is too large. Para se manter dentro deste limite, considere substituir grandes matrizes ou listas por parâmetros de consulta e dividir uma consulta longa em várias consultas na sessão.
|
Comprimento máximo da consulta SQL antiga não resolvida | 256 KB |
Uma consulta SQL antiga não resolvida pode ter um comprimento máximo de 256 KB. Se
a sua consulta for mais longa, recebe o seguinte erro: The query
is too large.
Para se manter dentro deste limite, pondere substituir grandes matrizes ou listas por
parâmetros de consulta.
|
Comprimento máximo da consulta GoogleSQL não resolvida | 1 MB |
Uma consulta GoogleSQL não resolvida pode ter um comprimento máximo de 1 MB. Se
a sua consulta for mais longa, recebe o seguinte erro: The query is too
large.
Para permanecer dentro deste limite, pondere substituir grandes matrizes ou listas por parâmetros de consulta.
|
Comprimento máximo da consulta do GoogleSQL e do SQL antigo resolvido | 12 MB | O limite do comprimento da consulta resolvida inclui o comprimento de todas as vistas e tabelas com carateres universais referenciadas pela consulta. |
Número máximo de parâmetros de consulta GoogleSQL | 10 000 parâmetros | Uma consulta GoogleSQL pode ter até 10 000 parâmetros. |
Tamanho máximo do pedido | 10 MB | O tamanho do pedido pode ser até 10 MB, incluindo propriedades adicionais, como parâmetros de consulta. |
Tamanho máximo da resposta | 10 GB comprimidos | Os tamanhos variam consoante as taxas de compressão dos dados. O tamanho real da resposta pode ser significativamente superior a 10 GB. O tamanho máximo da resposta é ilimitado quando escreve resultados de consultas grandes numa tabela de destino. |
Tamanho máximo da linha | 100 MB | O tamanho máximo da linha é aproximado, porque o limite baseia-se na representação interna dos dados das linhas. O limite máximo de tamanho das linhas é aplicado durante determinadas fases da execução da tarefa de consulta. |
Número máximo de colunas numa tabela, num resultado de consulta ou numa definição de vista | 10 000 colunas | Uma tabela, um resultado da consulta ou uma definição de vista pode ter até 10 000 colunas. Isto inclui colunas aninhadas e repetidas. As colunas eliminadas podem continuar a contar para o número total de colunas. Se eliminou colunas, pode receber erros de quota até que o total seja reposto. |
Número máximo de espaços simultâneos para preços a pedido |
2000 espaços por projeto 20 000 espaços por organização |
Com os preços a pedido, o seu projeto pode ter até 2000 espaços simultâneos. Também existe um limite de 20 000 espaços simultâneos ao nível da organização. O BigQuery tenta atribuir espaços de forma justa entre projetos numa organização se a respetiva procura total for superior a 20 000 espaços. Os slots do BigQuery são partilhados por todas as consultas num único projeto. O BigQuery pode exceder este limite para acelerar as suas consultas. A capacidade está sujeita a disponibilidade. Para verificar quantos slots está a usar, consulte o artigo Monitorizar o BigQuery com o Cloud Monitoring. |
Utilização máxima da CPU por dados analisados para preços a pedido | 256 segundos de CPU por MiB analisado |
Com os preços a pedido, a sua consulta pode usar até aproximadamente 256 segundos de CPU
por MiB de dados analisados. Se a sua consulta for demasiado exigente para a quantidade de dados
que está a ser processada, a consulta falha com um erro billingTierLimitExceeded .
Para mais informações,
consulte
Mensagens de erro.
|
Mutações da tabela de transações com vários extratos | 100 tabelas | Uma transação pode alterar dados em, no máximo, 100 tabelas. |
Modificações de partições de transações com várias declarações | 100 000 modificações de partições | Uma transação pode fazer, no máximo, 100 000 modificações de partições. |
Tamanho máximo do resultado da consulta do BigQuery Omni | 20 GiB não comprimidos | O tamanho máximo do resultado é de 20 GiB de bytes lógicos quando consulta dados da Azure ou da AWS. Se o resultado da consulta for superior a 20 GiB, considere exportar os resultados para o Amazon S3 ou o Blob Storage. Para mais informações, consulte as Limitações do BigQuery Omni. |
Tamanho total dos resultados das consultas do BigQuery Omni por dia | 1 TB | O tamanho total dos resultados das consultas para um projeto é de 1 TB por dia.
Para mais informações, consulte as
limitações do BigQuery Omni. |
Tamanho máximo da linha do BigQuery Omni | 10 MiB | O tamanho máximo da linha é de 10 MiB quando consulta dados da Azure ou da AWS. Para mais informações, consulte as Limitações do BigQuery Omni. |
Embora as consultas agendadas usem funcionalidades do Serviço de transferência de dados do BigQuery, as consultas agendadas não são transferências e não estão sujeitas aos limites de tarefas de carregamento.
Exportar tarefas
Os seguintes limites aplicam-se a tarefas que
exportam dados
do BigQuery através da ferramenta de linha de comandos bq, Google Cloud da consola
ou do método da API jobs.insert
do tipo de exportação.
Limite | Predefinição | Notas |
---|---|---|
Número máximo de bytes exportados por dia | 50 TiB |
Pode exportar até 50 TiB(tebibytes) de dados por dia a partir de um projeto sem custo financeiro através do conjunto de slots partilhados. Pode configurar uma política de alerta do Cloud Monitoring
que envia uma notificação do número de bytes exportados.
Para exportar mais de 50 TiB(tebibytes) de dados por dia, faça uma das seguintes ações:
|
Número máximo de tarefas de exportação por dia | 100 000 exportações |
Pode executar até 100 000 exportações por dia num projeto.
Para executar mais de 100 000 exportações por dia, faça uma das seguintes ações:
|
Tamanho máximo da tabela exportada para um único ficheiro | 1 GB | Pode exportar até 1 GB de dados de tabelas para um único ficheiro. Para exportar mais de 1 GB de dados, use um caráter universal para exportar os dados para vários ficheiros. Quando exporta dados para vários ficheiros, o tamanho dos ficheiros varia. Em alguns casos, o tamanho dos ficheiros de saída é superior a 1 GB. |
URIs com carateres universais por exportação | 500 URIs | Uma exportação pode ter até 500 URIs com carateres universais. |
Para mais informações sobre como ver a utilização atual das tarefas de exportação, consulte o artigo Veja a utilização atual da quota.
Carregue tarefas
Aplicam-se os seguintes limites quando
carrega dados
para o BigQuery através da
Google Cloud consola, da ferramenta de linha de comandos bq ou do método da API
jobs.insert
load-type.
Limite | Predefinição | Notas |
---|---|---|
Tarefas de carregamento por tabela por dia | 1500 empregos | Os trabalhos de carregamento, incluindo os trabalhos de carregamento com falhas, são contabilizados para o limite do número de operações de tabelas por dia para a tabela de destino. Para obter informações sobre os limites do número de operações de tabelas por dia para tabelas padrão e tabelas particionadas, consulte Tabelas. |
Carregamentos de tarefas por dia | 100 000 empregos | O seu projeto é reabastecido com um máximo de 100 000 quotas de tarefas de carregamento a cada 24 horas. As tarefas de carregamento com falhas são contabilizadas para este limite. Em alguns casos, é possível executar mais de 100 000 tarefas de carregamento em 24 horas se a quota do dia anterior não for totalmente usada. |
Número máximo de colunas por tabela | 10 000 colunas | Uma tabela pode ter até 10 000 colunas. Isto inclui colunas aninhadas e repetidas. |
Tamanho máximo por tarefa de carregamento | 15 TB | O tamanho total de todos os ficheiros de entrada CSV, JSON, Avro, Parquet e ORC pode ser até 15 TB. Este limite não se aplica a trabalhos com uma reserva. |
Número máximo de URIs de origem na configuração da tarefa | 10 000 URIs | Uma configuração de tarefa pode ter até 10 000 URIs de origem. |
Número máximo de ficheiros por tarefa de carregamento | 10 000 000 de ficheiros | Uma tarefa de carregamento pode ter um total de 10 milhões de ficheiros, incluindo todos os ficheiros que correspondam a todos os URIs com carateres universais. |
Número máximo de ficheiros no contentor do Cloud Storage de origem | Aproximadamente 60 000 000 de ficheiros | Uma tarefa de carregamento pode ler a partir de um contentor do Cloud Storage que contenha até aproximadamente 60 000 000 de ficheiros. |
Limite de tempo de execução da tarefa de carregamento | 6 horas | Uma tarefa de carregamento falha se for executada durante mais de seis horas. |
Avro: tamanho máximo para blocos de dados de ficheiros | 16 MB | O limite de tamanho para blocos de dados de ficheiros Avro é de 16 MB. |
CSV: tamanho máximo da célula | 100 MB | As células CSV podem ter até 100 MB. |
CSV: tamanho máximo da linha | 100 MB | As linhas CSV podem ter até 100 MB. |
CSV: tamanho máximo do ficheiro – comprimido | 4 GB | O limite de tamanho de um ficheiro CSV comprimido é de 4 GB. |
CSV: tamanho máximo do ficheiro – não comprimido | 5 TB | O limite de tamanho para um ficheiro CSV não comprimido é de 5 TB. |
JSON delimitado por Newline (ndJSON): tamanho máximo da linha | 100 MB | As linhas ndJSON podem ter até 100 MB. |
ndJSON: tamanho máximo do ficheiro – comprimido | 4 GB | O limite de tamanho de um ficheiro ndJSON comprimido é de 4 GB. |
ndJSON: tamanho máximo do ficheiro – não comprimido | 5 TB | O limite de tamanho para um ficheiro ndJSON não comprimido é de 5 TB. |
Se excede regularmente os limites de tarefas de carregamento devido a atualizações frequentes, considere, em alternativa, transmitir dados para o BigQuery.
Para ver informações sobre a utilização atual de tarefas de carregamento, consulte o artigo Ver utilização atual da quota.
Considerações sobre a quota de tarefas de carregamento do Serviço de transferência de dados do BigQuery
As tarefas de carregamento criadas por transferências do Serviço de transferência de dados do BigQuery estão incluídas nas quotas do BigQuery relativas a tarefas de carregamento. É importante considerar
quantas transferências ativa em cada projeto para evitar que as transferências e outros
trabalhos de carregamento produzam erros quotaExceeded
.
Pode usar a seguinte equação para estimar quantos trabalhos de carregamento são necessários para as suas transferências:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
Onde:
Number of transfers
é o número de configurações de transferência que ativa no seu projeto.Number of tables
é o número de tabelas criadas por cada tipo de transferência específico. O número de tabelas varia consoante o tipo de transferência:- As transferências do Campaign Manager criam aproximadamente 25 tabelas.
- As transferências do Google Ads criam aproximadamente 60 tabelas.
- As transferências do Google Ad Manager criam aproximadamente 40 tabelas.
- As transferências do Google Play criam aproximadamente 25 tabelas.
- As transferências do Search Ads 360 criam aproximadamente 50 tabelas.
- As transferências do YouTube criam aproximadamente 50 tabelas.
Schedule frequency
descreve a frequência com que a transferência é executada. Os horários de execução da transferência são fornecidos para cada tipo de transferência:Refresh window
é o número de dias a incluir na transferência de dados. Se introduzir 1, não existe preenchimento diário.
Tarefas de cópia
Os seguintes limites aplicam-se a tarefas do BigQuery para
copiar tabelas, incluindo tarefas
que criam uma cópia, um clone ou uma captura instantânea de uma tabela padrão, um clone de tabela ou
uma captura instantânea de tabela.
Os limites aplicam-se a tarefas criadas através da Google Cloud consola, da
ferramenta de linhas de comando bq ou do
método jobs.insert
que
especifica o campo copy
na configuração da tarefa.
As tarefas de cópia são contabilizadas para estes limites, quer sejam bem-sucedidas ou falhem.
Limite | Predefinição | Notas |
---|---|---|
Copiar tarefas por tabela de destino por dia | Consulte o artigo Operações de tabelas por dia. | |
Tarefas de cópia por dia | 100 000 empregos | O seu projeto pode executar até 100 000 tarefas de cópia por dia. |
Tarefas de cópia entre regiões por tabela de destino por dia | 100 empregos | O seu projeto pode executar até 100 tarefas de cópia entre regiões para uma tabela de destino por dia. |
Tarefas de cópia entre regiões por dia | 2000 empregos | O seu projeto pode executar até 2000 tarefas de cópia entre regiões por dia. |
Número de tabelas de origem a copiar | 1200 tabelas de origem | Pode copiar até 1200 tabelas de origem por tarefa de cópia. |
Para ver informações sobre a utilização atual das tarefas de cópia, consulte o artigo Tarefas de cópia: veja a utilização atual da quota.
Os seguintes limites aplicam-se à cópia de conjuntos de dados:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de tabelas no conjunto de dados de origem | 25 000 tabelas | Um conjunto de dados de origem pode ter até 25 000 tabelas. |
Número máximo de tabelas que podem ser copiadas por execução para um conjunto de dados de destino na mesma região | 20 000 tabelas | O seu projeto pode copiar um máximo de 20 000 tabelas por execução para um conjunto de dados de destino na mesma região. Se um conjunto de dados de origem contiver mais de 20 000 tabelas, o Serviço de transferência de dados do BigQuery agenda execuções sequenciais, cada uma a copiar até 20 000 tabelas, até que todas as tabelas sejam copiadas. Estas execuções são separadas por um intervalo predefinido de 24 horas, que os utilizadores podem personalizar até um mínimo de 12 horas. |
Número máximo de tabelas que podem ser copiadas por execução para um conjunto de dados de destino numa região diferente | 1000 tabelas | O seu projeto pode copiar um máximo de 1000 tabelas por execução para um conjunto de dados de destino numa região diferente. Se um conjunto de dados de origem contiver mais de 1000 tabelas, o Serviço de transferência de dados do BigQuery agenda execuções sequenciais, cada uma a copiar até 1000 tabelas, até que todas as tabelas sejam copiadas. Estas execuções são separadas por um intervalo predefinido de 24 horas, que os utilizadores podem personalizar até um mínimo de 12 horas. |
Reservas
As seguintes quotas aplicam-se às reservas:
Quota | Predefinição | Notas |
---|---|---|
Número total de espaços para a região da UE | 5000 espaços |
O número máximo de slots do BigQuery que pode comprar na multirregião da UE através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Número total de espaços para a região dos EUA | 10 000 espaços |
O número máximo de slots do BigQuery que pode comprar
na multirregião dos EUA através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Número total de espaços para a região us-east1
|
4000 espaços |
O número máximo de slots do BigQuery que pode
comprar na região indicada através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Número total de espaços para as seguintes regiões:
|
2000 slots |
O número máximo de slots do BigQuery que pode
comprar em cada uma das regiões indicadas através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Número total de espaços para as seguintes regiões:
|
1000 slots |
O número máximo de slots do BigQuery que pode
comprar em cada uma das regiões indicadas através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Número total de slots para regiões do BigQuery Omni | 100 slots |
O número máximo de slots do BigQuery que pode comprar
nas regiões do BigQuery Omni
através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Número total de espaços para todas as outras regiões | 500 slots |
O número máximo de slots do BigQuery que pode
comprar em cada outra região através da Google Cloud consola.
Veja as quotas na Google Cloud consola |
Os seguintes limites aplicam-se às reservas:
Limite | Valor | Notas |
---|---|---|
Número de projetos de administração para reservas de slots | 10 projetos por organização | O número máximo de projetos numa organização que podem conter uma reserva ou um compromisso ativo para espaços de uma determinada localização/ região. |
Número máximo de reservas da edição padrão | 10 reservas por projeto | O número máximo de reservas da edição padrão por projeto de administração numa organização para uma determinada localização / região. |
Número máximo de reservas da edição Enterprise ou Enterprise Plus | 200 reservas por projeto | O número máximo de reservas da edição Enterprise ou Enterprise Plus por projeto de administração numa organização para uma determinada localização / região. |
Número máximo de espaços numa reserva associada a uma atribuição de reserva com um tipo de tarefa CONTINUOUS .
|
500 slots |
Quando quiser criar uma atribuição de reserva com um tipo de tarefa CONTINUOUS , a reserva associada não pode ter mais de 500 vagas.
|
Conjuntos de dados
Os seguintes limites aplicam-se aos conjuntos de dados do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de conjuntos de dados | Ilimitado | Não existe um limite para o número de conjuntos de dados que um projeto pode ter. |
Número de tabelas por conjunto de dados | Ilimitado | Quando usa uma chamada API, o desempenho da enumeração abranda à medida que se aproxima das 50 000 tabelas num conjunto de dados. A Google Cloud consola pode apresentar até 50 000 tabelas para cada conjunto de dados. |
Número de recursos autorizados na lista de controlo de acesso de um conjunto de dados | 2500 recursos | Uma lista de controlo de acesso de um conjunto de dados pode ter um total de 2500 recursos autorizados, incluindo vistas autorizadas, conjuntos de dados autorizados e funções autorizadas. Se exceder este limite devido a um grande número de visualizações autorizadas, pondere agrupar as visualizações em conjuntos de dados autorizados. |
Número de operações de atualização do conjunto de dados por conjunto de dados por cada 10 segundos | 5 operações |
O seu projeto pode fazer até cinco operações de atualização de conjuntos de dados a cada 10 segundos.
O limite de atualização do conjunto de dados inclui todas as operações de atualização de metadados
realizadas pelo seguinte:
|
Comprimento máximo de uma descrição do conjunto de dados | 16 384 carateres | Quando adiciona uma descrição a um conjunto de dados, o texto pode ter, no máximo, 16 384 carateres. |
Tabelas
Todas as tabelas
Os seguintes limites aplicam-se a todas as tabelas do BigQuery.
Limite | Predefinição | Notas |
---|---|---|
Comprimento máximo do nome de uma coluna | 300 carateres | O nome da coluna pode ter, no máximo, 300 carateres. |
Comprimento máximo de uma descrição da coluna | 1024 carateres | Quando adiciona uma descrição a uma coluna, o texto pode ter, no máximo, 1024 carateres. |
Profundidade máxima de registos aninhados | 15 níveis |
As colunas do tipo RECORD podem conter tipos RECORD aninhados, também denominados registos secundários. O limite máximo de profundidade de aninhamento é de 15 níveis.
Este limite é independente de os registos serem escalares ou baseados em matrizes (repetidos).
|
Comprimento máximo de uma descrição da tabela | 16 384 carateres | Quando adiciona uma descrição a uma tabela, o texto pode ter, no máximo, 16 384 carateres. |
Tabelas padrão
Aplicam-se os seguintes limites às tabelas padrão (incorporadas) do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Modificações da tabela por dia | 1500 modificações | O seu projeto pode fazer até 1500 modificações de tabelas por tabela por dia, quer a modificação atualize os metadados da tabela, anexe ou atualize dados, ou trunca a tabela. Este limite não pode ser alterado e inclui o total combinado de todas as tarefas de carregamento, tarefas de cópia e tarefas de consulta que anexam ou substituem uma tabela de destino. As declarações DML não são contabilizadas para o número de modificações de tabelas por dia. Os dados de streaming não são contabilizados para o número de modificações da tabela por dia. |
Taxa máxima de operações de atualização de metadados de tabelas por tabela | 5 operações por 10 segundos |
O seu projeto pode fazer até cinco operações de atualização de metadados de tabelas por 10 segundos
por tabela. Este limite aplica-se a todas as operações de atualização de metadados de tabelas,
realizadas pelo seguinte:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE ou declarações UPDATE para escrever
dados numa tabela. Tenha em atenção que, embora as declarações DML sejam contabilizadas para este limite, não estão sujeitas ao mesmo se for atingido. As operações DML têm limites de taxa dedicados.
Se exceder este limite, recebe uma mensagem de erro como
Para identificar as operações que contam para este limite, pode Inspeccionar os seus registos. Consulte o artigo Resolva problemas de erros de quota para obter orientações sobre o diagnóstico e a resolução deste erro. |
Número máximo de colunas por tabela | 10 000 colunas | Cada tabela, resultado da consulta ou definição de vista pode ter até 10 000 colunas. Isto inclui colunas aninhadas e repetidas. |
Tabelas externas
Os seguintes limites aplicam-se a tabelas do BigQuery com dados armazenados no Cloud Storage no formato Parquet, ORC, Avro, CSV ou JSON:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de URIs de origem por tabela externa | 10 000 URIs | Cada tabela externa pode ter até 10 000 URIs de origem. |
Número máximo de ficheiros por tabela externa | 10 000 000 de ficheiros | Uma tabela externa pode ter até 10 milhões de ficheiros, incluindo todos os ficheiros que correspondam a todos os URIs com carateres universais. |
Tamanho máximo dos dados armazenados no Cloud Storage por tabela externa | 600 TB | Uma tabela externa pode ter até 600 terabytes em todos os ficheiros de entrada. Este limite aplica-se aos tamanhos dos ficheiros armazenados no Cloud Storage. Este tamanho não é o mesmo que o tamanho usado na fórmula de preços da consulta. Para tabelas particionadas externamente, o limite é aplicado após a redução de partições. |
Número máximo de ficheiros no contentor do Cloud Storage de origem | Aproximadamente 60 000 000 de ficheiros | Uma tabela externa pode referenciar um contentor do Cloud Storage que contenha até aproximadamente 60 000 000 de ficheiros. Para tabelas particionadas externamente, este limite é aplicado antes da redução de partições. |
Tabelas particionadas
Os seguintes limites aplicam-se às tabelas particionadas do BigQuery.
Os limites de partições aplicam-se ao total combinado de todas as tarefas de carregamento, tarefas de cópia e tarefas de consulta que acrescentam ou substituem uma partição de destino.
Uma única tarefa pode afetar várias partições. Por exemplo, as tarefas de consulta e as tarefas de carregamento podem escrever em várias partições.
O BigQuery usa o número de partições afetadas por uma tarefa quando determina a quantidade do limite que a tarefa consome. As inserções de streaming não afetam este limite.
Para obter informações sobre estratégias para se manter dentro dos limites das tabelas particionadas, consulte o artigo Resolução de problemas de erros de quota.
Limite | Predefinição | Notas |
---|---|---|
Número de partições por tabela particionada | 10 000 partições | Cada tabela particionada pode ter até 10 000 partições. Se exceder este limite, considere usar a agrupamento, além da partição ou em alternativa. |
Número de partições modificadas por uma única tarefa | 4000 partições | Cada operação de tarefa (consulta ou carregamento) pode afetar até 4000 partições. O BigQuery rejeita qualquer consulta ou tarefa de carregamento que tente modificar mais de 4000 partições. |
Número de modificações de partições durante o tempo de ingestão por tabela particionada por dia | 11 000 modificações |
O seu projeto pode fazer até 11 000 modificações de partições por dia. Uma modificação de partição ocorre quando acrescenta, atualiza, elimina ou trunca dados numa tabela particionada. Uma modificação de partição é contabilizada para cada tipo de modificação de dados que fizer. Por exemplo, a eliminação de uma linha conta como uma modificação da partição, tal como a eliminação de uma partição inteira também conta como uma modificação. Se eliminar uma linha de uma partição e, em seguida, a inserir noutra partição, isto conta como duas modificações de partição. As modificações que usam declarações DML ou a API de streaming não contam para o número de modificações de partições por dia. |
Número de modificações de partições por tabela particionada por colunas por dia | 30 000 modificações | O seu projeto pode fazer até 30 000 modificações de partições por dia para uma tabela particionada por colunas. As declarações DML não contam para o número de modificações de partições por dia. Os dados de streaming não são contabilizados para o número de modificações de partições por dia. |
Taxa máxima de operações de atualização de metadados de tabelas por tabela particionada | 50 modificações por 10 segundos |
O seu projeto pode fazer até 50 modificações por tabela particionada a cada 10 segundos. Este limite aplica-se a todas as operações de atualização de metadados de tabelas particionadas, realizadas pelo seguinte:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE ou declarações UPDATE para escrever
dados numa tabela.
Se exceder este limite, recebe uma mensagem de erro como
Para identificar as operações que contam para este limite, pode Inspeccionar os seus registos. |
Número de intervalos possíveis para a partição por intervalo | 10 000 intervalos | Uma tabela particionada por intervalo pode ter até 10 000 intervalos possíveis. Este limite aplica-se à especificação de partição quando cria a tabela. Depois de criar a tabela, o limite também se aplica ao número real de partições. |
Clones de tabelas
Os seguintes limites aplicam-se aos clones de tabelas do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de clones e resumos numa cadeia | 3 clones ou instantâneos de tabelas | Os clones e os resumos em combinação estão limitados a uma profundidade de 3. Quando clona ou cria um instantâneo de uma tabela base, pode clonar ou criar um instantâneo do resultado apenas mais duas vezes. Se tentar clonar ou criar um instantâneo do resultado pela terceira vez, ocorre um erro. Por exemplo, pode criar o clone A da tabela base, criar a captura de ecrã B do clone A e criar o clone C da captura de ecrã B. Para fazer duplicados adicionais do clone de terceiro nível ou da imagem instantânea, use uma operação de cópia. |
Número máximo de clones e instantâneos para uma tabela base | 1000 clones ou instantâneos de tabelas | Não pode ter mais de 1000 clones e instantâneos existentes combinados de uma determinada tabela base. Por exemplo, se tiver 600 instantâneos e 400 clones, atinge o limite. |
Instantâneos de tabelas
Os seguintes limites aplicam-se às cópias instantâneas de tabelas do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de tarefas de instantâneo de tabelas em simultâneo | 100 empregos | O seu projeto pode executar até 100 tarefas de instantâneo de tabelas em simultâneo. |
Número máximo de tarefas de resumo de tabelas por dia | 50 000 empregos | O seu projeto pode executar até 50 000 tarefas de instantâneo de tabelas por dia. |
Número máximo de tarefas de resumo de tabelas por tabela por dia | 50 empregos | O seu projeto pode executar até 50 tarefas de instantâneo de tabelas por tabela por dia. |
Número máximo de atualizações de metadados por resumo da tabela por cada 10 segundos. | 5 atualizações | O seu projeto pode atualizar os metadados de uma captura instantânea de tabela até cinco vezes a cada 10 segundos. |
Número máximo de clones e resumos numa cadeia | 3 clones ou instantâneos de tabelas | Os clones e os resumos em combinação estão limitados a uma profundidade de 3. Quando clona ou cria um instantâneo de uma tabela base, pode clonar ou criar um instantâneo do resultado apenas mais duas vezes. Se tentar clonar ou criar um instantâneo do resultado pela terceira vez, ocorre um erro. Por exemplo, pode criar o clone A da tabela base, criar a captura de ecrã B do clone A e criar o clone C da captura de ecrã B. Para fazer duplicados adicionais do clone de terceiro nível ou da imagem instantânea, use uma operação de cópia. |
Número máximo de clones e instantâneos para uma tabela base | 1000 clones ou instantâneos de tabelas | Não pode ter mais de 1000 clones e instantâneos existentes combinados de uma determinada tabela base. Por exemplo, se tiver 600 instantâneos e 400 clones, atinge o limite. |
Visualizações
As seguintes quotas e limites aplicam-se às visualizações e às visualizações materializadas.
Visualizações lógicas
Os seguintes limites aplicam-se às vistas padrão do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de níveis de visualização aninhados | 16 níveis |
O BigQuery suporta até 16 níveis de visualizações aninhadas.
É possível criar visualizações de propriedade até este limite, mas as consultas estão limitadas a 15 níveis. Se o limite for excedido, o BigQuery devolve um erro INVALID_INPUT .
|
Comprimento máximo de uma consulta GoogleSQL usada para definir uma vista | 256 K carateres | Uma única consulta GoogleSQL que define uma vista pode ter até 256 K carateres. Este limite aplica-se a uma única consulta e não inclui o comprimento das visualizações referenciadas na consulta. |
Número máximo de vistas autorizadas por conjunto de dados | Consulte Conjuntos de dados. | |
Comprimento máximo de uma descrição de visualização | 16 384 carateres | Quando adiciona uma descrição a uma vista, o texto pode ter, no máximo, 16 384 carateres. |
Vistas materializadas
Os seguintes limites aplicam-se às vistas materializadas do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Referências de tabelas base (mesmo projeto) | 100 vistas materializadas | Cada tabela base pode ser referenciada por até 100 vistas materializadas do mesmo projeto. |
Referências de tabelas de base (toda a organização) | 500 vistas materializadas | Cada tabela base pode ser referenciada por até 500 visualizações materializadas de toda a organização. |
Número máximo de vistas autorizadas por conjunto de dados | Consulte Conjuntos de dados. | |
Comprimento máximo de uma descrição da vista materializada | 16 384 carateres | Quando adiciona uma descrição a uma vista materializada, o texto pode ter, no máximo, 16 384 carateres. |
Limite de tempo de execução da tarefa de atualização da vista materializada | 12 horas | Uma tarefa de atualização da vista materializada pode ser executada durante um máximo de 12 horas antes de falhar. |
Índices de pesquisa
Os seguintes limites aplicam-se aos índices de pesquisa do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Número de declarações DDL CREATE INDEX por projeto por região por dia
|
500 operações |
O seu projeto pode emitir até 500 operações de DDL CREATE INDEX por dia numa região.
|
Número de declarações DDL de índice de pesquisa por tabela por dia | 20 operações |
O seu projeto pode emitir até 20 operações CREATE INDEX ou DROP INDEX DDL por tabela por dia.
|
Tamanho total máximo dos dados da tabela por organização permitido para a criação de índices de pesquisa que não é executada numa reserva | 100 TB em várias regiões; 20 TB em todas as outras regiões |
Pode criar um índice de pesquisa para uma tabela se o tamanho geral das tabelas com índices na sua organização estiver abaixo do limite da sua região:
100 TB para as multirregiões US e EU e
20 TB para todas as outras regiões. Se os seus trabalhos de gestão de índices forem executados na
sua
própria reserva, este limite não se aplica.
|
Número de colunas indexadas com granularidade de coluna por tabela | 63 colunas por tabela |
Uma tabela pode ter até 63 colunas com index_granularity definido como
COLUMN . As colunas indexadas com o nível de detalhe COLUMN a partir da definição da opção default_index_column_granularity contam para este limite.
Não existe limite para o número de colunas indexadas com a granularidade GLOBAL . Para mais informações, consulte o artigo
Índice com
granularidade ao nível da coluna.
|
Índices vetoriais
Os seguintes limites aplicam-se aos índices vetoriais do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Número mínimo de linhas da tabela base | 5000 linhas | Uma tabela tem de ter, pelo menos, 5000 linhas para criar um índice vetorial. |
Número máximo de linhas da tabela base para o tipo de índice IVF |
10 000 000 000 de linhas |
Uma tabela pode ter, no máximo, 10 000 000 000 linhas para criar um
IVF índice de vetores
|
Número máximo de linhas da tabela base para o tipo de índice TREE_AH
|
200 000 000 de linhas |
Uma tabela pode ter,no máximo,200 000 000 linhas para criar um
TREE_AH índice vetorial
|
Número máximo de linhas da tabela base para o tipo de índice particionado
TREE_AH |
10 000 000 000 linhas no total 200 000 000 linhas para cada partição |
Uma tabela pode ter, no máximo, 10 000 000 000 linhas e cada partição pode ter, no máximo, 200 000 000 linhas para criar um índice de vetores particionado.TREE_AH
|
Tamanho máximo da matriz na coluna indexada | 1600 elementos | A coluna a indexar pode ter, no máximo, 1600 elementos na matriz. |
Tamanho mínimo da tabela para preenchimento do índice vetorial | 10 MB | Se criar um índice vetorial numa tabela com menos de 10 MB, o índice não é preenchido. Da mesma forma, se eliminar dados de uma tabela indexada por vetores de modo que o tamanho da tabela seja inferior a 10 MB, o índice de vetores é desativado temporariamente. Isto acontece independentemente de usar a sua própria reserva para as tarefas de gestão de índices. Quando o tamanho de uma tabela indexada por vetores excede novamente 10 MB, o respetivo índice é preenchido automaticamente. |
Número de declarações DDL CREATE VECTOR INDEX por projeto
por região por dia
|
500 operações |
Para cada projeto, pode emitir até 500
operações CREATE VECTOR INDEX por dia para cada região.
|
Número de declarações DDL de índice vetorial por tabela por dia | 10 operações |
Pode emitir até 10 operações CREATE VECTOR INDEX ou DROP VECTOR INDEX por tabela por dia.
|
Tamanho total máximo dos dados da tabela por organização permitido para a criação de índices vetoriais que não são executados numa reserva | 6 TB | Pode criar um índice vetorial para uma tabela se o tamanho total das tabelas com índices na sua organização for inferior a 6 TB. Se os seus trabalhos de gestão de índices forem executados na sua própria reserva, este limite não se aplica. |
Rotinas
As seguintes quotas e limites aplicam-se às rotinas.
Funções definidas pelo utilizador
Os seguintes limites aplicam-se às funções definidas pelo utilizador (UDFs) temporárias e persistentes nas consultas GoogleSQL.
Limite | Predefinição | Notas |
---|---|---|
Saída máxima por linha | 5 MB | A quantidade máxima de dados que a UDF JavaScript pode gerar quando processa uma única linha é de aproximadamente 5 MB. |
Máximo de consultas SQL antigas simultâneas com UDFs de Javascript | 6 consultas | O seu projeto pode ter até seis consultas SQL antigas simultâneas que contenham FDUs em JavaScript. Este limite inclui consultas interativas e em lote. Este limite não se aplica a consultas GoogleSQL. |
Máximo de recursos de FDU de JavaScript por consulta | 50 recursos | Uma tarefa de consulta pode ter até 50 recursos de FDU JavaScript, como blobs de código inline ou ficheiros externos. |
Tamanho máximo do blob de código inline | 32 KB | Um blob de código inline numa FDU pode ter até 32 KB. |
Tamanho máximo de cada recurso de código externo | 1 MB | O tamanho máximo de cada recurso de código JavaScript é de 1 MB. |
Os seguintes limites aplicam-se às UDFs persistentes:
Limite | Predefinição | Notas |
---|---|---|
Comprimento máximo do nome de um FDU | 256 carateres | Um nome de FDU pode ter até 256 carateres. |
Número máximo de argumentos | 256 argumentos | Uma FDU pode ter até 256 argumentos. |
Comprimento máximo do nome de um argumento | 128 carateres | Um nome de argumento de FDU pode ter até 128 carateres. |
Profundidade máxima de uma cadeia de referência de FDU | 16 referências | Uma cadeia de referências de FDU pode ter até 16 referências de profundidade. |
Profundidade máxima de um argumento ou uma saída do tipo STRUCT
|
15 níveis |
Um argumento ou uma saída de UDF do tipo STRUCT pode ter até 15 níveis de profundidade.
|
Número máximo de campos em argumentos ou resultados do tipo STRUCT por FDU
|
1024 campos |
Uma FDU pode ter até 1024 campos em argumentos do tipo STRUCT e saída.
|
Número máximo de bibliotecas JavaScript numa declaração CREATE FUNCTION
|
50 bibliotecas |
Uma declaração CREATE FUNCTION pode ter até 50 bibliotecas JavaScript.
|
Comprimento máximo dos caminhos de bibliotecas JavaScript incluídos | 5000 carateres | O caminho de uma biblioteca JavaScript incluída numa FDU pode ter até 5000 carateres. |
Taxa de atualização máxima por UDF por 10 segundos | 5 atualizações | O seu projeto pode atualizar uma FDU até cinco vezes a cada 10 segundos. |
Número máximo de FDU autorizadas por conjunto de dados | Consulte Conjuntos de dados. |
Funções remotas
Os seguintes limites aplicam-se às funções remotas no BigQuery.
Limite | Predefinição | Notas |
---|---|---|
Número máximo de consultas simultâneas que contêm funções remotas | 10 consultas | Pode executar até dez consultas simultâneas com funções remotas por projeto. |
Tamanho máximo de entrada | 5 MB | O tamanho total máximo de todos os argumentos de entrada de uma única linha é de 5 MB. |
Limite de tamanho da resposta HTTP (funções do Cloud Run de 1.ª geração) | 10 MB | O corpo da resposta HTTP da sua função do Cloud Run de 1.ª geração tem um tamanho máximo de 10 MB. Exceder este valor provoca falhas nas consultas. |
Limite de tamanho da resposta HTTP (funções do Cloud Run de 2.ª geração ou Cloud Run) | 15 MB | O corpo da resposta HTTP da sua função do Cloud Run de 2.ª geração ou do Cloud Run tem um tamanho máximo de 15 MB. Exceder este valor provoca falhas nas consultas. |
Limite de tempo máximo de invocação HTTP (funções do Cloud Run de 1.ª geração) | 9 minutos | Pode definir o seu próprio limite de tempo para a função do Cloud Run de 1.ª geração para uma invocação HTTP individual, mas o limite de tempo máximo é de 9 minutos. Exceder o limite de tempo definido para a função do Cloud Run de 1.ª geração pode causar falhas de invocação HTTP e falhas de consulta. |
Limite de tempo de invocação HTTP (funções do Cloud Run de 2.ª geração ou Cloud Run) | 20 minutos | O limite de tempo para uma invocação HTTP individual à sua função do Cloud Run de 2.ª geração ou do Cloud Run. Exceder este valor pode causar falhas de invocação HTTP e falhas de consultas. |
Número máximo de tentativas de repetição de invocações HTTP | 20 | O número máximo de tentativas de repetição para uma invocação HTTP individual para a sua função do Cloud Run de 1.ª geração, 2.ª geração ou Cloud Run. Exceder este valor pode causar falhas de invocação HTTP e falhas de consultas. |
Funções de tabela
Os seguintes limites aplicam-se às funções de tabela do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Comprimento máximo do nome de uma função de tabela | 256 carateres | O nome de uma função de tabela pode ter até 256 carateres. |
Comprimento máximo do nome de um argumento | 128 carateres | O nome de um argumento de função de tabela pode ter um comprimento máximo de 128 carateres. |
Número máximo de argumentos | 256 argumentos | Uma função de tabela pode ter até 256 argumentos. |
Profundidade máxima de uma cadeia de referência de função de tabela | 16 referências | Uma cadeia de referências de funções de tabela pode ter até 16 referências de profundidade. |
Profundidade máxima do argumento ou da saída do tipo STRUCT
|
15 níveis |
Um argumento STRUCT para uma função de tabela pode ter até 15 níveis de profundidade. Da mesma forma, um registo STRUCT na saída de uma função de tabela pode ter até 15 níveis de profundidade.
|
Número máximo de campos no argumento ou na tabela de retorno do tipo
STRUCT por função de tabela
|
1024 campos |
Um argumento STRUCT para uma função de tabela pode ter até 1024 campos.
Da mesma forma, um registo STRUCT
no resultado de uma função de tabela pode ter até 1024 campos.
|
Número máximo de colunas na tabela de retorno | 1024 colunas | Uma tabela devolvida por uma função de tabela pode ter até 1024 colunas. |
Comprimento máximo dos nomes das colunas da tabela de retorno | 128 carateres | Os nomes das colunas nas tabelas devolvidas podem ter até 128 carateres. |
Número máximo de atualizações por função de tabela por cada 10 segundos | 5 atualizações | O seu projeto pode atualizar uma função de tabela até cinco vezes a cada 10 segundos. |
Procedimentos armazenados para o Apache Spark
Os seguintes limites aplicam-se aos procedimentos armazenados do BigQuery para o Apache Spark:
Limite | Predefinição | Notes |
---|---|---|
Número máximo de consultas de procedimentos armazenados simultâneas | 50 | Pode executar até 50 consultas de procedimentos armazenados em simultâneo para cada projeto. |
Número máximo de CPUs em utilização | 12 000 | Pode usar até 12 000 CPUs para cada projeto. As consultas que já foram processadas não consomem este limite.
Pode usar até 2400 CPUs para cada localização para cada projeto, exceto nas seguintes localizações:
Nestas localizações, pode usar até 500 CPUs para cada localização para cada projeto. Se executar consultas simultâneas numa localização multirregional e numa localização de região única que se encontre na mesma área geográfica, as suas consultas podem consumir a mesma quota de CPUs simultâneos. |
Tamanho total máximo dos discos persistentes padrão em utilização | 204,8 TB | Pode usar até 204,8 TB de discos persistentes padrão para cada localização para cada projeto. As consultas que já foram processadas não consomem este limite. Se executar consultas simultâneas numa localização multirregional e numa localização de região única que se encontre na mesma área geográfica, as suas consultas podem consumir a mesma quota de disco persistente padrão. |
Blocos de notas
Todas as quotas e limites do Dataform e os quotas e limites do Colab Enterprise aplicam-se aos blocos de notas no BigQuery. Também se aplicam os seguintes limites:
Limite | Predefinição | Notes |
---|---|---|
Tamanho máximo do bloco de notas | 20 MB |
O tamanho de um bloco de notas é o total do respetivo conteúdo, metadados e sobrecarga de codificação. Pode ver o tamanho do conteúdo do bloco de notas expandindo o cabeçalho do bloco de notas, clicando em Ver e, de seguida, em Informações do bloco de notas. |
Número máximo de pedidos por segundo para o Dataform | 100 | Os blocos de notas são criados e geridos através do Dataform. Qualquer ação que crie ou modifique um bloco de notas é contabilizada nesta quota. Esta quota é partilhada com as consultas guardadas. Por exemplo, se fizer 50 alterações a blocos de notas e 50 alterações a consultas guardadas no prazo de 1 segundo, atinge a quota. |
Consultas guardadas
Todas as quotas e limites do Dataform aplicam-se às consultas guardadas. Também se aplicam os seguintes limites:
Limite | Predefinição | Notes |
---|---|---|
Tamanho máximo da consulta guardada | 10 MB | |
Número máximo de pedidos por segundo para o Dataform | 100 | As consultas guardadas são criadas e geridas através do Dataform. Qualquer ação que crie ou modifique uma consulta guardada é contabilizada nesta quota. Esta quota é partilhada com os blocos de notas. Por exemplo, se fizer 50 alterações a blocos de notas e 50 alterações a consultas guardadas no prazo de 1 segundo, atinge a quota. |
Linguagem de manipulação de dados
Aplicam-se os seguintes limites às declarações de linguagem de manipulação de dados (DML) do BigQuery:
Limite | Predefinição | Notas |
---|---|---|
Instruções DML por dia | Ilimitado |
O número de declarações DML que o seu projeto pode executar por dia é ilimitado.
As declarações DML não contam para o número de modificações de tabelas por dia ou o número de modificações de tabelas particionadas por dia para tabelas particionadas. As declarações DML têm as seguintes limitações que deve ter em atenção. |
Instruções DML INSERT simultâneas por tabela por dia
|
1500 extratos |
As primeiras 1500 declarações INSERT são executadas imediatamente após o envio. Depois de atingir este limite,
a concorrência de INSERT declarações que escrevem numa tabela
está limitada a 10. As declarações INSERT adicionais são adicionadas a uma fila PENDING . É possível colocar em fila até 100 declarações INSERT para uma tabela em qualquer altura. Quando uma declaração INSERT é concluída, a declaração INSERT seguinte é removida da fila e executada.
Se tiver de executar declarações DML INSERT com mais frequência,
considere fazer stream de dados para a sua tabela através da
API Storage Write.
|
Instruções DML de mutação simultâneas por tabela | 2 extratos |
O BigQuery executa até duas declarações DML de mutação simultâneas (UPDATE , DELETE e MERGE ) para cada tabela. As declarações DML de mutação adicionais
para uma tabela são colocadas em fila.
|
Instruções DML de mutação em fila por tabela | 20 extratos | Uma tabela pode ter até 20 declarações DML de mutação na fila à espera de serem executadas. Se enviar declarações DML de mutação adicionais para a tabela, essas declarações falham. |
Tempo máximo na fila de espera para a instrução DML | 7 horas | Uma instrução DML de prioridade interativa pode aguardar na fila até sete horas. Se a declaração não tiver sido executada após sete horas, falha. |
Taxa máxima de declarações DML para cada tabela | 25 declarações a cada 10 segundos |
O seu projeto pode executar até 25 declarações DML a cada 10 segundos para cada tabela. As declarações INSERT e DML de mutação contribuem para este limite.
|
Para mais informações sobre a alteração de declarações DML, consulte os artigos
INSERT
Concorrência de DML e
UPDATE, DELETE, MERGE
Concorrência de DML.
Consultas com várias declarações
Os seguintes limites aplicam-se a consultas com várias declarações no BigQuery.
Limite | Predefinição | Notas |
---|---|---|
Número máximo de consultas com várias declarações simultâneas | 1000 consultas com várias declarações | O seu projeto pode executar até 1000 consultas com várias declarações em simultâneo. |
Limite de tempo cumulativo | 24 horas | O limite de tempo cumulativo para uma consulta com várias declarações é de 24 horas. |
Limite de tempo da declaração | 6 horas | O limite de tempo para uma declaração individual numa consulta com várias declarações é de 6 horas. |
CTEs recursivas em consultas
Os seguintes limites aplicam-se às expressões de tabelas comuns (CTEs) recursivas no BigQuery.
Limite | Predefinição | Notas |
---|---|---|
Limite de iteração | 500 iterações | A CTE recursiva pode executar este número de iterações. Se este limite for excedido, é produzido um erro. Para contornar os limites de iteração, consulte o artigo Resolva problemas de erros de limite de iteração. |
Segurança ao nível da linha
Aplicam-se os seguintes limites às políticas de acesso ao nível da linha do BigQuery:
Limite | Predefinição | Notes |
---|---|---|
Número máximo de políticas de acesso ao nível da linha por tabela | 400 políticas | Uma tabela pode ter até 400 políticas de acesso ao nível da linha. |
Número máximo de políticas de acesso ao nível da linha por consulta | 6000 políticas | Uma consulta pode aceder a um total de 6000 políticas de acesso ao nível da linha. |
Número máximo de declarações DDL de CREATE / DROP por política por cada 10 segundos |
5 extratos |
O seu projeto pode criar até cinco declarações CREATE ou DROP por recurso de política de acesso ao nível da linha a cada 10 segundos.
|
DROP ALL ROW ACCESS POLICIES declarações por tabela por
10 segundos |
5 extratos |
O seu projeto pode criar até cinco declarações DROP ALL ROW ACCESS POLICIES
por tabela a cada 10 segundos.
|
Políticas de dados
Os seguintes limites aplicam-se à ocultação de dados dinâmicos ao nível da coluna:
Limite | Predefinição | Notas |
---|---|---|
Número máximo de políticas de dados por etiqueta de política. | 8 políticas por etiqueta de política | Até oito políticas de dados por etiqueta de política. Uma destas políticas pode ser usada para controlos de acesso ao nível da coluna. Não são suportadas expressões de ocultação duplicadas. |
BigQuery ML
Os seguintes limites aplicam-se ao BigQuery ML.
Consultar tarefas
Todas as cotas e limites de tarefas de consulta aplicam-se a tarefas de consulta do GoogleSQL que usam declarações e funções do BigQuery ML.
CREATE MODEL
extratos
Os seguintes limites aplicam-se a
CREATE MODEL
tarefas:
Limite | Predefinição | Notas |
---|---|---|
CREATE MODEL
consultas de declarações por 48 horas para cada projeto |
20 000 consultas de extratos | Alguns modelos são preparados através da utilização dos serviços do Vertex AI, que têm a sua própria gestão de recursos e quotas. |
Limite de tempo de execução | 24 horas ou 48 horas | CREATE MODEL
O tempo limite da tarefa é de 24 horas por predefinição, com exceção das séries cronológicas,
do AutoML e das tarefas de otimização de hiperparâmetros, cujo tempo limite é de 48
horas. |
Funções de IA generativa
Os seguintes limites aplicam-se a funções que usam modelos de linguagem (conteúdo extenso) (MDIs/CEs) do Vertex AI.
Limites de pedidos por minuto
Os seguintes limites aplicam-se aos modelos da Vertex AI que usam um limite de pedidos por minuto:
Função | Modelo | Região | Pedidos por minuto | Linhas por tarefa | Número de tarefas em execução em simultâneo |
---|---|---|---|---|---|
ML.GENERATE_TEXT AI.GENERATE_TABLE AI.GENERATE AI.GENERATE_BOOL AI.GENERATE_DOUBLE AI.GENERATE_INT
|
gemini-2.0-flash-lite-001 |
US e EU várias regiõesRegiões únicas, conforme documentado para gemini-2.0-flash-lite-001 em Localizações dos pontos finais dos modelos Google |
Nenhuma quota definida. Quota determinada pela quota partilhada dinâmica (DSQ)1 e pelo débito aprovisionado2 | N/A para débito processado 10 500 000 para DSQ, para uma chamada com uma média de 500 tokens de entrada e 50 tokens de saída |
5 |
gemini-2.0-flash-001 |
US e EU várias regiõesRegiões únicas, conforme documentado para gemini-2.0-flash-001 em Localizações dos pontos finais dos modelos Google |
N/A para débito processado 10 200 000 para DSQ, para uma chamada com uma média de 500 tokens de entrada e 50 tokens de saída |
5 | ||
gemini-2.5-flash |
US e EU várias regiõesRegiões únicas, conforme documentado para gemini-2.5-flash em Localizações dos pontos finais dos modelos Google |
N/A para débito processado 9 300 000 para DSQ, para uma chamada com uma média de 500 tokens de entrada e 50 tokens de saída |
5 | ||
gemini-2.5-pro |
US e EU várias regiõesRegiões únicas, conforme documentado para gemini-2.5-pro em Localizações dos pontos finais dos modelos Google |
N/A para débito processado 7 600 000 para DSQ, para uma chamada com uma média de 500 tokens de entrada e 50 tokens de saída |
5 | ||
ML.GENERATE_TEXT |
Anthropic Claude | Veja as quotas por modelo e região | Veja as quotas por modelo e região | O valor de pedidos por minuto * 60 * 6 | 5 |
Llama | Veja a disponibilidade regional e as quotas do modelo Llama | Veja a disponibilidade regional e as quotas do modelo Llama | 5 | ||
Mistral AI | Veja a disponibilidade regional e as quotas do modelo de IA Mistral | Veja a disponibilidade regional e as quotas do modelo de IA Mistral | 5 | ||
ML.GENERATE_EMBEDDING |
text-embedding text-multilingual-embedding |
Todas as regiões que suportam modelos remotos | 15003,4 | 80 000 000 para uma chamada com uma média de 50 tokens em cada linha de entrada 14 000 000 para uma chamada com uma média de 600 tokens em cada linha de entrada |
5 |
multimodalembedding |
Regiões únicas europeias suportadas | 1203 | 14 000 | 5 | |
Regiões que não sejam regiões únicas europeias suportadas | 6003 | 25 000 | 5 |
1 Quando usa o DSQ, não existem limites de quota predefinidos na sua utilização. Em alternativa, o DSQ oferece acesso a um grande conjunto partilhado de recursos, que são atribuídos dinamicamente com base na disponibilidade de recursos em tempo real e na procura do cliente para o modelo em questão. Quando mais clientes estão ativos, cada cliente recebe menos débito. Da mesma forma, quando há menos clientes ativos, cada cliente pode ter um débito mais elevado.
2 O débito aprovisionado é uma subscrição de custo fixo e prazo fixo disponível em vários prazos. O débito aprovisionado permite-lhe reservar o débito para modelos de IA generativa suportados no Vertex AI.
3 Para aumentar a quota, peça um ajuste da quota de QPM no Vertex AI. Aguarde 30 minutos para que o valor do limite aumentado seja propagado.
4 Pode aumentar a quota para os modelos text-embedding
e text-multilingual-embedding
do Vertex AI para 10 000 RPM sem aprovação manual. Isto resulta num débito aumentado de 500 000 000 de linhas por tarefa ou mais, com base numa chamada com uma média de 50 tokens em cada linha de entrada.
Para mais informações sobre a quota dos MDIs/CEs do Vertex AI, consulte o artigo Limites de quota da IA generativa no Vertex AI.
Limites de tokens por minuto
Os seguintes limites aplicam-se aos modelos da Vertex AI que usam um limite de tokens por minuto:
Função | Tokens por minuto | Linhas por tarefa | Número de tarefas em execução em simultâneo |
---|---|---|---|
ML.GENERATE_EMBEDDING quando usa um modelo remoto num modelo
gemini-embedding-001 |
10 000 000 | 12 000 000, para uma chamada com uma média de 300 tokens por linha | 5 |
Funções do serviço de IA da nuvem
Os seguintes limites aplicam-se às funções que usam os serviços de IA na nuvem:
Função | Pedidos por minuto | Linhas por tarefa | Número de tarefas em execução em simultâneo |
---|---|---|---|
ML.PROCESS_DOCUMENT com documentos com uma média de cinquenta páginas |
600 | 100 000 (com base numa média de 50 páginas em cada documento de entrada) | 5 |
ML.TRANSCRIBE |
200 | 10 000 (com base numa duração média de 1 minuto para cada ficheiro de áudio de entrada) | 5 |
ML.ANNOTATE_IMAGE |
1800 | 648 000 | 5 |
ML.TRANSLATE |
6000 | 2 160 000 | 5 |
ML.UNDERSTAND_TEXT |
600 | 21 600 | 5 |
Para mais informações sobre a quota das APIs do serviço de IA na nuvem, consulte os seguintes documentos:
- Quota e limites da Cloud Translation API
- Quota e limites da API Vision
- Quota e limites da API Natural Language
- Quota e limites da Document AI
- Quota e limites da conversão de voz em texto
Definições de quotas de funções
A lista seguinte descreve as quotas que se aplicam às funções de IA generativa e do serviço Cloud AI:
- As funções que chamam um modelo da Vertex AI usam uma quota da Vertex AI, que é de consultas por minuto (QPM). Neste contexto, as consultas são chamadas de pedidos da função para a API do modelo do Vertex AI. A quota de QPM aplica-se a um modelo base e a todas as versões, identificadores e versões otimizadas desse modelo. Para mais informações sobre as quotas de modelos do Vertex AI, consulte o artigo Limites de quotas da IA generativa no Vertex AI.
- As funções que chamam um serviço de IA na nuvem usam as quotas de pedidos do serviço de destino. Consulte a referência de quota do serviço de IA na nuvem fornecido para ver detalhes.
O BigQuery ML usa as seguintes quotas:
Pedidos por minuto. Esta quota é o limite do número de chamadas de pedidos por minuto que as funções podem fazer à API do modelo do Vertex AI ou do serviço de IA do Google Cloud. Este limite aplica-se a cada projeto.
As chamadas para os modelos do Gemini da Vertex AI não têm limites de quota predefinidos na sua utilização, porque os modelos do Gemini usam a quota partilhada dinâmica (DSQ). O DSQ oferece acesso a um grande conjunto partilhado de recursos, que são atribuídos dinamicamente com base na disponibilidade de recursos em tempo real e na procura do cliente para o modelo em questão.
Tokens por minuto. Esta quota é o limite do número de tokens por minuto que as funções podem enviar para a API do modelo Vertex AI. Este limite aplica-se a cada projeto.
Para funções que chamam um modelo base do Vertex AI, o número de tokens por minuto varia consoante o ponto final, a versão e a região do modelo do Vertex AI, bem como a reputação do seu projeto. Esta quota é conceptualmente igual à quota de QPM usada pela Vertex AI.
Linhas por tarefa. Esta quota é o limite do número de linhas permitidas para cada tarefa de consulta.Esta quota representa o número teórico mais elevado de linhas que o sistema pode processar num período de 6 horas. O número real de linhas processadas depende de muitos fatores, incluindo o tamanho do pedido de entrada para o modelo, o tamanho das respostas de saída do modelo e a disponibilidade da quota partilhada dinâmica. Os exemplos seguintes mostram alguns cenários comuns:
Para o ponto final
gemini-2.0-flash-lite-001
, o número de linhas processáveis pela funçãoML.GENERATE_TEXT
depende das contagens de tokens de entrada e saída. O serviço pode processar aproximadamente 7,6 milhões de linhas para chamadas que tenham uma contagem média de tokens de entrada de 2000 e uma contagem máxima de tokens de saída de 50. Este número diminui para cerca de 1 milhão de linhas se a contagem média de tokens de entrada for 10 000 e a contagem máxima de tokens de saída for 3000.Da mesma forma, o ponto final
gemini-2.0-flash-001
pode processar 4,4 milhões de linhas para chamadas que tenham uma contagem média de tokens de entrada de 2000 e uma contagem máxima de tokens de saída de 50, mas apenas cerca de 1 milhão de linhas para chamadas com 10 000 tokens de entrada e 3000 tokens de saída.A função
ML.PROCESS_DOCUMENT
pode processar mais linhas por tarefa para documentos curtos em comparação com documentos longos.A função
ML.TRANSCRIBE
pode processar mais linhas por tarefa para clipes de áudio curtos em comparação com clipes de áudio longos.
Número de tarefas em execução em simultâneo. Esta quota é o limite por projeto no número de consultas SQL que podem ser executadas em simultâneo para a função especificada.
Os exemplos seguintes mostram como interpretar as limitações de quota em situações típicas:
Tenho uma quota de 1000 QPM no Vertex AI, pelo que uma consulta com 100 000 linhas deve demorar cerca de 100 minutos. Por que motivo a tarefa está a demorar mais tempo?
Os tempos de execução das tarefas podem variar, mesmo para os mesmos dados de entrada. No Vertex AI, as chamadas de procedimento remoto (RPCs) têm prioridades diferentes para evitar o esgotamento da quota. Quando não existe quota suficiente, os RPCs com prioridades mais baixas aguardam e podem falhar se demorarem demasiado tempo a ser processados.
Como devo interpretar a quota de linhas por tarefa?
No BigQuery, uma consulta pode ser executada durante um máximo de seis horas. O número máximo de linhas suportadas é uma função desta cronologia e da sua quota de QPM do Vertex AI, para garantir que o BigQuery pode concluir o processamento de consultas em seis horas. Uma vez que, normalmente, uma consulta não pode usar a quota total, este é um número inferior à sua quota de QPM multiplicada por 360.
O que acontece se executar uma tarefa de inferência em lote numa tabela com mais linhas do que a quota de linhas por tarefa, por exemplo, 10 000 000 de linhas?
O BigQuery só processa o número de linhas especificado pela quota de linhas por tarefa. Só lhe é cobrado o número de linhas das chamadas API bem-sucedidas, em vez das 10 000 000 linhas completas na sua tabela. Para as restantes linhas, o BigQuery responde ao pedido com um erro
A retryable error occurred: the maximum size quota per query has reached
, que é devolvido na colunastatus
do resultado. Pode usar este conjunto de scripts SQL ou este pacote do Dataform para iterar as chamadas de inferência até que todas as linhas sejam processadas com êxito.Tenho muito mais linhas para processar do que a quota de linhas por tarefa. A divisão das linhas em várias consultas e a execução simultânea das mesmas ajuda?
Não, porque estas consultas estão a consumir a mesma quota de pedidos por minuto do BigQuery ML e a quota de QPM do Vertex AI. Se existirem várias consultas que se mantêm dentro da quota de linhas por tarefa e do número de quotas de tarefas em execução em simultâneo, o processamento cumulativo esgota a quota de pedidos por minuto.
BI Engine
Os seguintes limites aplicam-se ao BigQuery BI Engine.
Limite | Predefinição | Notas |
---|---|---|
Tamanho máximo da reserva por projeto por localização (BigQuery BI Engine) | 250 GiB | 250 GiB é o tamanho máximo predefinido da reserva por projeto e por localização. Pode pedir um aumento da capacidade máxima de reserva para os seus projetos. Os aumentos de reservas estão disponíveis na maioria das regiões e podem demorar entre 3 dias úteis e uma semana a serem processados. |
Número máximo de linhas por consulta | 7 mil milhões | Número máximo de linhas por consulta. |
Partilha do BigQuery (anteriormente Analytics Hub)
Os seguintes limites aplicam-se à partilha do BigQuery (anteriormente Analytics Hub):
Limite | Predefinição | Notas |
---|---|---|
Número máximo de trocas de dados por projeto | 500 trocas | Pode criar até 500 trocas de dados num projeto. |
Número máximo de fichas de empresa por troca de dados | 1000 fichas | Pode criar até 1000 fichas numa troca de dados. |
Número máximo de conjuntos de dados associados por conjunto de dados partilhado | 1000 conjuntos de dados associados | Todos os subscritores da partilha do BigQuery, em conjunto, podem ter um máximo de 1000 conjuntos de dados associados por conjunto de dados partilhado. |
Descoberta automática do catálogo universal do Dataplex
Os seguintes limites aplicam-se à descoberta automática do catálogo universal do Dataplex:
Limite | Predefinição | Notas |
---|---|---|
Máximo de tabelas do BigQuery, BigLake ou externas por contentor do Cloud Storage suportado por uma análise de deteção | 1000 tabelas do BigQuery por contentor | Pode criar até 1000 tabelas do BigQuery por contentor do Cloud Storage. |
Quotas e limites da API
Estas quotas e limites aplicam-se a pedidos da API BigQuery.
API BigQuery
As seguintes quotas aplicam-se a pedidos da API BigQuery (principal):
Quota | Predefinição | Notas |
---|---|---|
Pedidos por dia | Ilimitado |
O seu projeto pode fazer um número ilimitado de pedidos à API BigQuery por dia.
Ver quota na Google Cloud consola |
Máximo de
tabledata.list bytes por minuto
|
7,5 GB em várias regiões; 3,7 GB em todas as outras regiões |
O seu projeto pode devolver um máximo de 7,5 GB de dados de linhas de tabelas por minuto através de tabledata.list nas multirregiões us e eu , e 3,7 GB de dados de linhas de tabelas por minuto em todas as outras regiões. Esta quota aplica-se ao projeto que contém a tabela que está a ser lida. Outras APIs, incluindo
jobs.getQueryResults e
a obtenção de resultados de
jobs.query e
jobs.insert também podem consumir esta quota.
Ver quota na Google Cloud consola
A API BigQuery Storage Read
pode suportar uma taxa de transferência significativamente superior à
|
Os seguintes limites aplicam-se aos pedidos da API BigQuery (principal):
Limite | Predefinição | Notas |
---|---|---|
Número máximo de pedidos de API por segundo por utilizador por método | 100 pedidos | Um utilizador pode fazer até 100 pedidos de API por segundo a um método de API. Se um utilizador fizer mais de 100 pedidos por segundo a um método, pode ocorrer limitação. Este limite não se aplica a inserções de streaming. |
Número máximo de pedidos de API simultâneos por utilizador | 300 pedidos | Se um utilizador fizer mais de 300 pedidos em simultâneo, pode ocorrer limitação. Este limite não se aplica a inserções de streaming. |
Tamanho máximo do cabeçalho do pedido | 16 KiB |
O seu pedido API BigQuery pode ter até 16 KiB, incluindo o URL do pedido e todos os cabeçalhos. Este limite não se aplica ao corpo do pedido, como num pedido POST .
|
Máximo de
jobs.get pedidos por segundo
|
1000 pedidos |
O seu projeto pode fazer até 1000
jobs.get
pedidos por segundo.
|
Tamanho máximo da resposta
jobs.query
|
20 MB |
Por predefinição, não existe uma contagem máxima de linhas para o número de linhas de dados devolvidas por jobs.query por página de resultados. No entanto,
está limitado ao tamanho máximo de resposta de 20 MB. Pode alterar o número de linhas a devolver através do parâmetro maxResults .
|
Tamanho máximo da linha
jobs.getQueryResults
|
20 MB | O tamanho máximo da linha é aproximado porque o limite baseia-se na representação interna dos dados da linha. O limite é aplicado durante a transcodificação. |
Máximo de
projects.list pedidos por segundo
|
10 pedidos |
O seu projeto pode fazer até dois
pedidos por segundo.projects.list
|
Número máximo de
tabledata.list pedidos por segundo
|
1000 pedidos |
O seu projeto pode fazer até 1000 pedidos por segundo.tabledata.list
|
Máximo de linhas por resposta
tabledata.list
|
100 000 linhas |
Uma chamada tabledata.list pode devolver até 100 000 linhas de tabelas.
Para mais informações, consulte o artigo
Paginação dos resultados
através da API.
|
Tamanho máximo da linha
tabledata.list
|
100 MB | O tamanho máximo da linha é aproximado porque o limite baseia-se na representação interna dos dados da linha. O limite é aplicado durante a transcodificação. |
Máximo de
tables.insert pedidos por segundo
|
10 pedidos |
Um utilizador pode fazer até 10 pedidos tables.insert por segundo.
O método tables.insert cria uma tabela nova e vazia num conjunto de dados.
|
API BigQuery Connection
As seguintes quotas aplicam-se aos pedidos da API BigQuery Connection:
Quota | Predefinição | Notas |
---|---|---|
Pedidos de leitura por minuto | 1000 pedidos por minuto |
O seu projeto pode fazer até 1000 pedidos por minuto aos métodos da API BigQuery Connection que leem dados de ligação.
Ver quota na Google Cloud consola |
Pedidos de escrita por minuto | 100 pedidos por minuto |
O seu projeto pode fazer até 100 pedidos por minuto aos métodos da API BigQuery Connection que criam ou atualizam associações.
Ver quota na Google Cloud consola |
Ligações do BigQuery Omni criadas por minuto | 10 ligações criadas por minuto | O seu projeto pode criar um total de até 10 associações do BigQuery Omni por minuto no AWS e no Azure. |
Usos da associação do BigQuery Omni | 500 utilizações de ligação por minuto | O seu projeto pode usar uma ligação do BigQuery Omni até 500 vezes por minuto. Isto aplica-se a operações que usam a sua ligação para aceder à sua conta da AWS, como consultar uma tabela. |
API BigQuery Migration
Aplicam-se os seguintes limites à API BigQuery Migration:
Limite | Predefinição | Notas |
---|---|---|
Tamanho do ficheiro individual para tradução de SQL em lote | 10 MB |
Cada ficheiro de metadados e fonte individual pode ter até 10 MB.
Este limite não se aplica ao ficheiro ZIP de metadados produzido pela ferramenta de extração de linha de comandos dwh-migration-dumper .
|
Tamanho total dos ficheiros de origem para a tradução de SQL em lote | 1 GB | O tamanho total de todos os ficheiros de entrada carregados para o Cloud Storage pode ser de até 1 GB. Isto inclui todos os ficheiros de origem e todos os ficheiros de metadados, se optar por incluí-los. |
Tamanho da string de entrada para a tradução interativa de SQL | 1 MB | A string que introduz para a tradução de SQL interativa não pode exceder 1 MB. Quando executa traduções interativas através da API Translation, este limite aplica-se ao tamanho total de todas as entradas de strings. |
Tamanho máximo do ficheiro de configuração para a tradução interativa de SQL | 50 MB |
Os ficheiros de metadados individuais (comprimidos) e os ficheiros de configuração YAML no Cloud Storage não podem exceder 50 MB. Se o tamanho do ficheiro exceder 50 MB,
o tradutor interativo ignora esse ficheiro de configuração durante a
tradução e produz uma mensagem de erro. Um método para reduzir o tamanho do ficheiro de metadados é usar as flags —database ou –schema para filtrar as bases de dados quando gera os metadados.
|
Número máximo de sugestões do Gemini por hora | 1000 (podem acumular-se até 10 000 se não forem usados) | Se necessário, pode pedir um aumento da quota contactando o apoio ao cliente do Google Cloud. |
As seguintes quotas aplicam-se à API BigQuery Migration. Os seguintes valores predefinidos aplicam-se na maioria dos casos. As predefinições do seu projeto podem ser diferentes:
Quota | Predefinição | Notas |
---|---|---|
EDWMigration Service List Requests per minute EDWMigration Service List Requests por minuto por utilizador |
12 000 pedidos 2500 pedidos |
O seu projeto pode fazer até 12 000 pedidos de lista da API Migration por minuto. Cada utilizador pode fazer até 2500 pedidos de listas da API Migration por minuto. Veja as quotas na Google Cloud consola |
EDWMigration Service Get Requests per minute EDWMigration Service Get Requests per minute per user |
25 000 pedidos 2500 pedidos |
O seu projeto pode fazer até 25 000 pedidos GET da API Migration por minuto. Cada utilizador pode fazer até 2500 pedidos GET da API Migration por minuto. Veja as quotas na Google Cloud consola |
EDWMigration Service Other Requests per minute EDWMigration Service Other Requests per minute per user |
25 pedidos 5 pedidos |
O seu projeto pode fazer até 25 outros pedidos da API Migration por minuto. Cada utilizador pode fazer até 5 outros pedidos da API Migration por minuto. Veja as quotas na Google Cloud consola |
Pedidos de tradução de SQL interativos por minuto Pedidos de tradução de SQL interativos por minuto por utilizador |
200 pedidos 50 pedidos |
O seu projeto pode fazer até 200 pedidos do serviço de tradução de SQL por minuto. Cada utilizador pode fazer até 50 outros pedidos de serviço de tradução de SQL por minuto. Veja as quotas na Google Cloud consola |
API BigQuery Reservation
As seguintes quotas aplicam-se a pedidos da API BigQuery Reservation:
Quota | Predefinição | Notas |
---|---|---|
Pedidos por minuto por região | 100 pedidos |
O seu projeto pode fazer um total de até 100 chamadas para os métodos da API BigQuery Reservation por minuto por região.
Veja as quotas na Google Cloud consola |
Número de chamadas de SearchAllAssignments por minuto por região
|
100 pedidos |
O seu projeto pode fazer até 100 chamadas para o método
SearchAllAssignments por minuto por região.
Veja as quotas na Google Cloud consola |
Pedidos de SearchAllAssignments por minuto por
região por utilizador
|
10 pedidos |
Cada utilizador pode fazer até 10 chamadas para o método
SearchAllAssignments por minuto por região.
Veja as quotas na Google Cloud consola (Nos resultados da pesquisa da Google Cloud consola, pesquise por utilizador.) |
API BigQuery Data Policy
Os seguintes limites aplicam-se à API Data Policy (pré-visualização):
Limite | Predefinição | Notas |
---|---|---|
Número máximo de
dataPolicies.list
chamadas.
|
400 pedidos por minuto por projeto 600 pedidos por minuto por organização |
|
Número máximo de chamadas de dataPolicies.testIamPermissions .
|
400 pedidos por minuto por projeto 600 pedidos por minuto por organização |
|
Número máximo de pedidos de leitura. |
1200 pedidos por minuto por projeto 1800 pedidos por minuto por organização |
Isto inclui chamadas para
dataPolicies.get
e
dataPolicies.getIamPolicy .
|
Número máximo de pedidos de gravação. |
600 pedidos por minuto por projeto 900 pedidos por minuto por organização |
Isto inclui chamadas para: |
API IAM
As seguintes quotas aplicam-se quando usa as funcionalidades de
gestão de identidade e acesso
no BigQuery para obter e definir políticas de IAM, e para testar autorizações de IAM.
As declarações da linguagem de controlo de dados (DCL)
são contabilizadas na quota de SetIAMPolicy
.
Quota | Predefinição | Notas |
---|---|---|
IamPolicy pedidos por minuto por utilizador |
1500 pedidos por minuto por utilizador | Cada utilizador pode fazer até 1500 pedidos por minuto por projeto. Veja a quota na Google Cloud consola |
IamPolicy pedidos por minuto por projeto |
3000 pedidos por minuto por projeto | O seu projeto pode fazer até 3000 pedidos por minuto. Veja a quota na Google Cloud consola |
Região única
SetIAMPolicy pedidos por minuto por projeto |
1000 pedidos por minuto por projeto | O seu projeto de região única pode fazer até 1000 pedidos por minuto. Veja a quota na Google Cloud consola |
Multirregião
SetIAMPolicy pedidos por minuto por projeto |
2000 pedidos por minuto por projeto | O seu projeto multirregião pode fazer até 2000 pedidos por minuto. Veja a quota na Google Cloud consola |
Omnirregião
SetIAMPolicy pedidos por minuto por projeto |
200 pedidos por minuto por projeto | O seu projeto omnirregional pode fazer até 200 pedidos por minuto. Veja a quota na Google Cloud consola |
API Storage Read
As seguintes quotas aplicam-se a pedidos da API BigQuery Storage Read:
Quota | Predefinição | Notas |
---|---|---|
Ler pedidos do plano de dados por minuto por utilizador | 25 000 pedidos |
Cada utilizador pode fazer até 25 000 chamadas ReadRows por minuto por projeto.
Ver quota na Google Cloud consola |
Leia os pedidos do plano de controlo por minuto por utilizador | 5000 pedidos |
Cada utilizador pode fazer até 5000 chamadas de operações de metadados da API Storage Read por minuto por projeto. As chamadas de metadados incluem os métodos CreateReadSession e SplitReadStream .
Ver quota na Google Cloud consola |
Os seguintes limites aplicam-se aos pedidos da API BigQuery Storage Read:
Limite | Predefinição | Notas |
---|---|---|
Comprimento máximo da linha/filtro | 1 MB |
Quando usa a API Storage Read, a chamada CreateReadSession está limitada a um comprimento máximo de 1 MB para cada linha ou filtro.
|
Tamanho máximo dos dados serializados | 128 MB |
Quando usa a chamada da API Storage Read ReadRows , a representação serializada dos dados numa mensagem ReadRowsResponse individual não pode ter mais de 128 MB.
|
Número máximo de ligações simultâneas | 2000 em várias regiões; 400 em regiões |
Pode abrir um máximo de 2000 ligações ReadRows
concorrentes por projeto nas multirregiões us e eu
e 400 ligações ReadRows concorrentes noutras regiões. Em alguns casos, pode estar limitado a um número inferior de ligações
simultâneas do que este limite.
|
Utilização máxima de memória por stream | 1,5 GB | A memória máxima por stream é aproximada porque o limite baseia-se na representação interna dos dados das linhas. As streams que utilizam mais de 1,5 GB de memória para uma única linha podem falhar. Para mais informações, consulte o artigo Resolva problemas de recursos excedidos. |
API Storage Write
As seguintes quotas aplicam-se aos pedidos da API Storage Write. As seguintes quotas podem ser aplicadas ao nível da pasta. Estas quotas são, em seguida, agregadas e partilhadas em todos os projetos secundários. Para ativar esta configuração, contacte o apoio técnico ao cliente do Google Cloud.
Se planeia pedir um ajuste da quota, inclua a mensagem de erro de quota no seu pedido para acelerar o processamento.
Quota | Predefinição | Notas |
---|---|---|
Ligações simultâneas | 1000 numa região; 10 000 numa multirregião |
A quota de ligações simultâneas baseia-se no projeto do cliente que inicia o pedido da API Storage Write e não no projeto que contém o recurso do conjunto de dados do BigQuery. O projeto de iniciação é o projeto associado à chave da API ou à conta de serviço. O seu projeto pode funcionar com 1000 ligações simultâneas numa região ou 10 000 ligações simultâneas nas multirregiões Quando usa a stream predefinida
em Java ou Go, recomendamos que use a
multiplexagem da API Storage Write
para escrever em várias tabelas de destino com ligações partilhadas de forma a
reduzir o número de ligações gerais necessárias. Se estiver a usar o conetor Beam com semântica de, pelo menos, uma vez, pode definir UseStorageApiConnectionPool como Pode ver as métricas de limites e quotas de utilização dos seus projetos no
Cloud Monitoring. Selecione o nome do limite de ligações simultâneas com base na sua região. As opções são |
Débito | Débito de 3 GB por segundo em várias regiões; 300 MB por segundo em regiões |
Pode fazer streaming até 3 GBps nas multirregiões us e eu , e 300 MBps noutras regiões por projeto.
Ver quota na Google Cloud consola Pode ver as métricas de limites e quotas de utilização dos seus projetos no
Cloud Monitoring. Selecione o nome do limite de débito com base na sua região. As opções são |
CreateWriteStream pedidos
|
10 000 streams por hora, por projeto por região |
Pode chamar CreateWriteStream até 10 000 vezes por hora
por projeto por região. Considere usar a
stream predefinida
se não precisar de semântica exatamente uma vez.
Esta quota é por hora, mas a métrica apresentada na
Google Cloud consola é por minuto.
|
Bytes de stream pendentes | 10 TB em várias regiões; 1 TB em regiões |
Para cada confirmação que aciona, pode confirmar até 10 TB nas
multirregiões us e eu e
1 TB noutras regiões. Não existem relatórios de quotas nesta quota.
|
Os seguintes limites aplicam-se a pedidos da API Storage Write:
Limite | Predefinição | Notas |
---|---|---|
Consolidações em lote | 10 000 streams por tabela |
Pode confirmar até 10 000 streams em cada chamada BatchCommitWriteStream .
|
AppendRows
tamanho do pedido
|
10 MB | O tamanho máximo do pedido é de 10 MB. |
Inserções por stream
As seguintes quotas e limites aplicam-se quando faz stream de dados para o
BigQuery através da
API Legacy Streaming.
Para obter informações sobre estratégias para se manter dentro destes limites, consulte o artigo
Resolução de problemas de erros de quota.
Se exceder estas quotas, recebe erros quotaExceeded
.
Limite | Predefinição | Notas |
---|---|---|
Máximo de bytes por segundo por projeto nas multirregiões us e eu
|
1 GB por segundo |
O seu projeto pode fazer streaming até 1 GB por segundo. Esta quota é cumulativa numa determinada multirregião. Por outras palavras, a soma dos bytes por segundo transmitidos para todas as tabelas de um determinado projeto numa região múltipla está limitada a 1 GB.
Exceder este limite causa erros Se necessário, pode pedir um aumento da quota contactando o apoio técnico do Google Cloud. Peça qualquer aumento o mais cedo possível, pelo menos, duas semanas antes de precisar dele. O aumento da quota demora algum tempo a ficar disponível, especialmente no caso de um aumento significativo. |
Máximo de bytes por segundo por projeto em todas as outras localizações | 300 MB por segundo |
O seu projeto pode fazer streaming de até 300 MB por segundo em todas as localizações, exceto nas multirregiões
Exceder este limite causa erros Se necessário, pode pedir um aumento da quota contactando o apoio técnico do Google Cloud. Peça qualquer aumento o mais cedo possível, pelo menos, duas semanas antes de precisar dele. O aumento da quota demora algum tempo a ficar disponível, especialmente no caso de um aumento significativo. |
Tamanho máximo da linha | 10 MB |
Exceder este valor provoca erros invalid .
|
Limite de tamanho do pedido HTTP | 10 MB |
Exceder este valor provoca erros Internamente, o pedido é traduzido de HTTP JSON para uma estrutura de dados interna. A estrutura de dados traduzida tem o seu próprio limite de tamanho aplicado. É difícil prever o tamanho da estrutura de dados interna resultante, mas se mantiver os pedidos HTTP em 10 MB ou menos, a probabilidade de atingir o limite interno é baixa. |
Máximo de linhas por pedido | 50 000 linhas | Recomendamos um máximo de 500 linhas. O processamento em lote pode aumentar o desempenho e o débito até um determinado ponto, mas ao custo da latência por pedido. O número de linhas por pedido é demasiado baixo e a sobrecarga de cada pedido pode tornar o carregamento ineficiente. Demasiadas linhas por pedido e a taxa de transferência pode diminuir. Experimente com dados representativos (esquema e tamanhos dos dados) para determinar o tamanho do lote ideal para os seus dados. |
Comprimento do campo insertId
|
128 carateres |
Exceder este valor provoca erros invalid .
|
Para quota de streaming adicional, consulte o artigo Peça um aumento da quota.
Largura de banda
As seguintes quotas aplicam-se à largura de banda de replicação:
Quota | Predefinição | Notas |
---|---|---|
Largura de banda de replicação de preenchimento inicial máxima para cada região que tenha saída de dados entre regiões da réplica principal para réplicas secundárias. | 10 GiBps físicos por região por organização | |
Largura de banda de replicação contínua máxima para cada região que tem saída de dados entre regiões da réplica principal para réplicas secundárias. | 5 GiBps físicos por região por organização | |
Largura de banda máxima de replicação turbo para cada região que tenha saída de dados entre regiões da réplica principal para réplicas secundárias. | 5 GiBps físicos por região por organização | A quota de largura de banda da replicação turbo não se aplica à operação de repreenchimento inicial. |
Quando a largura de banda de replicação de um projeto excede uma determinada quota, a replicação dos projetos afetados pode parar com o erro rateLimitExceeded
, que inclui detalhes da quota excedida.