Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Quote e limiti

Questo documento elenca le quote e i limiti applicabili a BigQuery.

Una quota limita la quantità di una determinata risorsa Google Cloud condivisa che può essere utilizzata dal tuo progetto Cloud, inclusi l'hardware, il software e i componenti di rete.

Le quote fanno parte di un sistema che:

  • Monitora l'utilizzo o il consumo di prodotti e servizi Google Cloud.
  • Limita il consumo di tali risorse per motivi quali l'equità e la riduzione dei picchi di utilizzo.
  • Gestisce le configurazioni che applicano automaticamente le limitazioni prescritte.
  • Consente di apportare o richiedere modifiche alla quota.

Quando una quota viene superata, nella maggior parte dei casi il sistema blocca immediatamente l'accesso alla risorsa Google pertinente e l'attività che stai tentando di eseguire non riesce. Nella maggior parte dei casi, le quote si applicano a ogni progetto Cloud e vengono condivise tra tutte le applicazioni e gli indirizzi IP che utilizzano il progetto Cloud.

Esistono anche dei limiti per le risorse BigQuery. Questi limiti non sono correlati al sistema delle quote. I limiti non possono essere modificati, se non diversamente indicato.

Per impostazione predefinita, le quote e i limiti di BigQuery si applicano per progetto. Le quote e i limiti che si applicano su base diversa vengono indicati come tali; ad esempio, il numero massimo di colonne per tabella o il numero massimo di richieste API simultanee per utente. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di utilizzo dei servizi e di altri fattori e sono soggetti a modifica senza preavviso.

Rifornimento della quota

Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.

Richiedi un aumento della quota

Per aumentare o diminuire la quota, usa la console Google Cloud. Per saperne di più, consulta Richiedere una quota più elevata.

Per istruzioni dettagliate sulla procedura per richiedere un aumento della quota nella console Google Cloud, fai clic su Procedura guidata:

Procedura guidata

Limite quota utilizzo

Per scoprire come limitare l'utilizzo di una determinata risorsa specificando una quota più piccola rispetto a quella predefinita, vedi Limitazione dell'utilizzo.

Autorizzazioni obbligatorie

Per visualizzare e aggiornare le quote di BigQuery nella console Google Cloud, devi disporre delle stesse autorizzazioni valide per qualsiasi quota di Google Cloud. Per ulteriori informazioni, consulta Autorizzazioni per le quote di Google Cloud.

Risolvere i problemi

Per informazioni sulla risoluzione degli errori relativi a quote e limiti, consulta Risoluzione degli errori di quota di BigQuery.

Job

Le quote e i limiti si applicano ai job che BigQuery esegue per tuo conto, indipendentemente dal fatto che vengano eseguiti utilizzando la console Google Cloud, lo strumento a riga di comando bq o in modo programmatico utilizzando l'API REST o le librerie client.

Job di query

Le seguenti quote si applicano ai job di query creati in modo automatico eseguendo query interattive, query pianificate e job inviate utilizzando i metodi API jobs.query e di tipo jobs.insert:

Quota Predefinito Note
Utilizzo query giornaliero Illimitato Non esiste un limite al numero di byte che possono essere elaborati dalle query in un progetto.
Visualizza la quota nella console Google Cloud
Utilizzo delle query al giorno per utente Illimitato Non c'è limite al numero di byte che le query di un utente possono elaborare ogni giorno.
Visualizza la quota nella console Google Cloud
Byte di query per regioni federate Cloud SQL al giorno 1 TB Se la località di elaborazione delle query in BigQuery e la località dell'istanza Cloud SQL sono diverse, la query è composta da query su più aree geografiche. Il tuo progetto può eseguire fino a 1 TB di query tra aree geografiche al giorno. Vedi Query federate Cloud SQL.
Visualizza la quota nella console Google Cloud
Byte trasferiti cross-cloud al giorno 1 TB Puoi trasferire fino a 1 TB di dati al giorno da un bucket Amazon S3 o da Azure Blob Storage. Per maggiori informazioni, consulta la pagina Trasferimento cross-cloud da Amazon S3 e Azure.
Visualizza la quota nella console Google Cloud

I seguenti limiti si applicano ai job di query creati in modo automatico eseguendo query interattive, query pianificate e job inviate utilizzando i metodi API jobs.query e di tipo jobs.insert:

Limite Predefinito Note
Numero massimo di query interattive simultanee 100 query Il tuo progetto può eseguire fino a 100 query interattive simultanee. Le query con risultati restituiti dalla cache delle query vengono conteggiate nella quota di durata specificata per BigQuery per determinare che si tratta di un successo della cache. Le query di prova non vengono conteggiate per questo limite. Puoi specificare una query di prova utilizzando il flag --dry_run. Per informazioni sulle strategie per rimanere entro questo limite, consulta la sezione Risolvere gli errori di quota. Un approccio per mitigare questi errori è abilitare le coda di query (anteprima). Le code di query offrono un limite di contemporaneità dinamico e la coda di massimo 1000 query interattive oltre a quelle in esecuzione.
Numero massimo di query interattive in coda 1000 query Se le coda di query (anteprima) sono abilitate, il tuo progetto può mettere in coda fino a 1000 query interattive. Le query interattive aggiuntive che superano questo limite restituiscono un errore di quota.
Numero massimo di query batch simultanee 10 query Il tuo progetto può eseguire fino a 10 query in batch simultanee.
Numero massimo di query batch in coda 20.000 query Il tuo progetto può mettere in coda fino a 20.000 query in batch. Le query batch aggiuntive che superano questo limite restituiscono un errore di quota.
Numero massimo di query interattive simultanee rispetto alle origini dati esterne di Cloud Bigtable 16 query Il tuo progetto può eseguire fino a sedici query in parallelo su un'origine dati esterna di Bigtable.
Numero massimo di query in parallelo che contengono funzioni remote 10 query Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto.
Numero massimo di query con più istruzioni simultanee 1000 query con più dichiarazioni Il tuo progetto può eseguire fino a 1000 query multi-istruzione simultanee.
Numero massimo di query SQL precedente in parallelo che contengono funzioni definite dall'utente 6 query Il tuo progetto può eseguire fino a sei query SQL precedente in parallelo con funzioni definite dall'utente (UDF). Questo limite include le query interattive e batch. Anche le query interattive che contengono funzioni definite dall'utente vengono conteggiate per il limite simultaneo di query interattive. Questo limite non si applica alle query GoogleSQL.
Limite di dimensione delle query giornaliere Illimitato Per impostazione predefinita, non esiste un limite giornaliero per le dimensioni delle query. Tuttavia, puoi impostare limiti per la quantità di dati su cui gli utenti possono eseguire query creando quote personalizzate per controllare l'utilizzo delle query al giorno o l'utilizzo delle query al giorno per utente.
Limite giornaliero di aggiornamento delle tabelle di destinazione Consulta la pagina Numero massimo di operazioni con tabella al giorno. Gli aggiornamenti alle tabelle di destinazione in un job di query vengono conteggiati per il limite relativo al numero massimo di operazioni di tabella giornaliere per le tabelle di destinazione. Gli aggiornamenti delle tabelle di destinazione includono le operazioni di aggiunta e sovrascrittura eseguite dalle query in esecuzione tramite la console Google Cloud, lo strumento a riga di comando bq o i metodi API jobs.insert di tipo jobs.query e di tipo query.
Limite di tempo di esecuzione per query/query con più dichiarazioni 6 ore Una query o una query multi-istruzione può essere eseguita per un massimo di sei ore, dopodiché non riesce. Tuttavia, a volte vengono eseguiti nuovi tentativi di esecuzione delle query. Una query può essere provata fino a tre volte e ogni tentativo può essere eseguito per un massimo di sei ore. Di conseguenza, è possibile che una query abbia un tempo di esecuzione totale superiore a sei ore.
Numero massimo di risorse a cui viene fatto riferimento per query 1.000 risorse Una query può fare riferimento a un massimo di 1000 totali di tabelle univoche, visualizzazioni uniche, funzioni definite dall'utente (UDF) univoche e funzioni di tabella univoche dopo l'espansione completa. Questo limite include quanto segue:
  • Tabelle, viste, funzioni definite dall'utente e funzioni della tabella a cui viene fatto riferimento direttamente dalla query.
  • Tabelle, viste, funzioni definite dall'utente e funzioni di tabella a cui fanno riferimento altre visualizzazioni/funzioni personalizzate o tabelle a cui viene fatto riferimento nella query.
  • Tabelle risultanti dall'espansione di tabelle jolly utilizzate nella query o in altre viste di riferimento/funzioni definite dall'utente/tabelle.
Lunghezza massima delle query SQL precedente non risolte 256 kB Una query SQL precedente non risolta può contenere fino a 256 kB. Se la tua query è più lunga, riceverai il seguente errore: The query is too large. Per rispettare questo limite, ti consigliamo di sostituire gli array o gli elenchi di grandi dimensioni con parametri di ricerca.
Lunghezza massima della query GoogleSQL irrisolta 1 MB Una query GoogleSQL non risolta può contenere fino a 1 MB. Se la tua query è più lunga, riceverai il seguente errore: The query is too large. Per rispettare questo limite, ti consigliamo di sostituire gli array o gli elenchi di grandi dimensioni con parametri di ricerca.
Lunghezza massima delle query legacy e GoogleSQL risolte 12 MB Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query.
Numero massimo di parametri di ricerca GoogleSQL 10.000 parametri Una query Google SQL può avere fino a 10.000 parametri.
Dimensione massima richiesta 10 MB La dimensione della richiesta può essere fino a 10 MB, comprese proprietà aggiuntive come i parametri di ricerca.
Dimensione massima della risposta 10 GB compressi Le dimensioni variano in base ai rapporti di compressione dei dati. Le dimensioni effettive della risposta potrebbero essere notevolmente superiori a 10 GB. La dimensione massima della risposta è illimitata quando scrivi risultati di query di grandi dimensioni in una tabella di destinazione.
Dimensione massima del risultato della query BigQuery Omni 20 GiB non compresso La dimensione massima del risultato è 20 byte logici durante l'esecuzione di query sui dati Azure o AWS. Per saperne di più, consulta Limitazioni di BigQuery Omni.
Dimensione massima riga 100 MB La dimensione massima per la riga è approssimativa, perché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query.
Numero massimo di colonne in una tabella, un risultato di query o una definizione di visualizzazione 10.000 colonne Una tabella, un risultato di query o una definizione di visualizzazione possono avere fino a 10.000 colonne.
Dimensione del risultato della query BigQuery Omni 1 TB Le dimensioni totali dei risultati di una query per un progetto sono di 1 TB al giorno. Per saperne di più, consulta le limitazioni di BigQuery Omni.
Numero massimo di slot contemporanei per prezzi on demand 2000 slot Con i prezzi on demand, il tuo progetto può avere fino a 2000 slot contemporanei. Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe consentire il bursting oltre tale limite per accelerare le query. Per verificare quanti slot stai utilizzando, consulta la pagina relativa al monitoraggio di BigQuery tramite Cloud Monitoring.
Utilizzo massimo della CPU per dati scansionati per i prezzi on demand 256 secondi di CPU per MiB scansionati Con i prezzi on demand, la tua query può utilizzare fino a circa 256 secondi di CPU per MiB di dati scansionati. Se la query utilizza una quantità eccessiva di CPU per la quantità di dati in fase di elaborazione, viene generata un errore billingTierLimitExceeded. Per saperne di più, consulta billingTierLimitExceeded.
Mutazioni della tabella delle transazioni con più dichiarazioni 100 tabelle Una transazione può mutare i dati in un massimo di 100 tabelle.
Modifiche alla partizione di transazione con più dichiarazioni 100.000 modifiche alle partizioni Una transazione può eseguire al massimo 100.000 modifiche alle partizioni.

Anche se le query pianificate utilizzano funzionalità di BigQuery Data Transfer Service, le query pianificate non sono trasferimenti e non sono soggette ai limiti di job di caricamento.

Job di esportazione

I seguenti limiti si applicano ai job che esportano dati da BigQuery utilizzando lo strumento a riga di comando bq, la console Google Cloud o il metodo API jobs.insert di tipo esportazione.

Limite Predefinito Note
Numero massimo di byte esportati al giorno 50 TB Puoi esportare gratuitamente fino a 50 TB(Tebibyte) di dati al giorno da un progetto utilizzando il pool di slot condiviso. Puoi configurare un criterio di avviso di Cloud Monitoring che fornisce notifiche sul numero di byte esportati. Per esportare più di 50 TB(Tebibyte) di dati al giorno, esegui una delle seguenti operazioni:
Numero massimo di esportazioni al giorno 100.000 esportazioni Puoi eseguire fino a 100.000 esportazioni al giorno in un progetto. Per eseguire più di 100.000 esportazioni al giorno, esegui una delle seguenti operazioni:
Dimensione massima della tabella esportata in un singolo file 1 GB Puoi esportare fino a 1 GB di dati tabella in un singolo file. Per esportare più di 1 GB di dati, utilizza un carattere jolly per esportare i dati in più file. Quando esporti i dati in più file, le dimensioni dei file variano. In alcuni casi, le dimensioni dei file di output superano i 1 GB.
URI con caratteri jolly per esportazione 500 URI Un'esportazione può avere fino a 500 URI di caratteri jolly.

Per ulteriori informazioni sulla visualizzazione dell'utilizzo attuale dei job di esportazione, vedi Visualizzare l'utilizzo attuale delle quote.

Job di caricamento

I seguenti limiti si applicano quando carichi dati in BigQuery, utilizzando la console Google Cloud, lo strumento a riga di comando bq o il metodo API jobs.insert di tipo load.

Limite Predefinito Note
Carica job per tabella al giorno I job di caricamento, inclusi i job di caricamento non riuscito, vengono conteggiati per il limite del numero di operazioni di tabella giornaliere per la tabella di destinazione. Per informazioni sui limiti al numero di operazioni delle tabelle al giorno per tabelle standard e tabelle partizionate, consulta Tabelle.
Job di caricamento al giorno 100.000 posti di lavoro Il tuo progetto può eseguire fino a 100.000 job di caricamento al giorno. I job di caricamento non riusciti vengono conteggiati per questo limite.
Numero massimo di colonne per tabella 10.000 colonne Una tabella può avere fino a 10.000 colonne.
Dimensione massima per job di caricamento 15 TB La dimensione totale di tutti i file di input CSV, JSON, Avro, Parquet e ORC può essere fino a 15 TB.
Numero massimo di URI di origine nella configurazione del job 10.000 URI Una configurazione del job può avere fino a 10.000 URI di origine.
Numero massimo di file per job di caricamento 10.000.000 di file Un job di caricamento può avere fino a 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly.
Numero massimo di file nel bucket Cloud Storage di origine Circa 60.000.000 file Un job di caricamento può leggere da un bucket Cloud Storage fino a circa 60.000.000 di file.
Limite del tempo di esecuzione del job di caricamento 6 ore Un job di caricamento non riesce se viene eseguito per più di sei ore.
Avro: dimensioni massime per i blocchi di dati dei file 16 MB La dimensione massima consentita per i blocchi di dati del file Avro è 16 MB.
CSV: dimensione massima cella 100 MB Le celle CSV possono avere una dimensione massima di 100 MB.
CSV: dimensione massima riga 100 MB Le righe in formato CSV possono avere una dimensione massima di 100 MB.
CSV: dimensione massima dei file - compressa 4 GB Le dimensioni massime per un file CSV compresso sono di 4 GB.
CSV: dimensione massima dei file non compresso 5 TB Le dimensioni massime per un file CSV non compresso sono pari a 5 TB.
JSON: dimensione massima riga 100 MB Le righe JSON possono avere una dimensione massima di 100 MB.
JSON: dimensione massima del file compressa 4 GB Le dimensioni massime per un file JSON compresso sono di 4 GB.
JSON: dimensione massima dei file non compresso 5 TB Le dimensioni massime per un file JSON non compresso sono di 5 TB.

Se superi regolarmente i limiti del job di caricamento a causa di aggiornamenti frequenti, valuta la possibilità di trasmettere i flussi di dati in BigQuery.

Per informazioni sulla visualizzazione dell'utilizzo attuale del job di caricamento, vedi Visualizzare l'utilizzo attuale delle quote.

Considerazioni sulla quota di carico di lavoro di BigQuery Data Transfer Service

I job di carico creati dai trasferimenti di BigQuery Data Transfer Service sono inclusi nelle quote di BigQuery sui job di caricamento. È importante considerare quanti trasferimenti si abilitano in ciascun progetto per evitare che trasferimenti e altri job di caricamento restituiscano errori quotaExceeded.

Puoi utilizzare la seguente equazione per stimare il numero di job di caricamento richiesti dai tuoi trasferimenti:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

Dove:

  • Number of transfers è il numero di configurazioni di trasferimento che abiliti nel tuo progetto.
  • Number of tables è il numero di tabelle create da ogni tipo di trasferimento specifico. Il numero di tabelle varia in base al tipo di trasferimento:

    • I trasferimenti di Campaign Manager creano circa 25 tabelle.
    • I trasferimenti di Google Ads creano circa 60 tabelle.
    • I trasferimenti di Google Ad Manager creano circa 40 tabelle.
    • I trasferimenti di Google Play creano circa 25 tabelle.
    • I trasferimenti di Search Ads 360 creano circa 50 tabelle.
    • I trasferimenti di YouTube creano circa 50 tabelle.
  • Schedule frequency indica la frequenza di esecuzione del trasferimento. Per ogni tipo di trasferimento, vengono fornite le programmazioni di esecuzione:

  • Refresh window è il numero di giorni da includere nel trasferimento dei dati. Se immetti 1, il backfill giornaliero non viene eseguito.

Job di copia

I seguenti limiti si applicano ai job BigQuery per la copia di tabelle, inclusi i job che creano una copia, clonazione o snapshot di una tabella, un clone di una tabella o uno snapshot di tabella standard. I limiti si applicano ai job creati utilizzando la console Google Cloud, lo strumento a riga di comando bq o il metodo jobs.insert di tipo copia. I job di copia vengono conteggiati per questi limiti, indipendentemente dal fatto che abbiano esito positivo o negativo.

Limite Predefinito Note
Copia job per tabella di destinazione al giorno Vedi Operazioni della tabella al giorno.
Copia job al giorno 100.000 posti di lavoro Il tuo progetto può eseguire fino a 100.000 job di copia al giorno.
Job di copia tra regioni per tabella di destinazione al giorno 100 job Il tuo progetto può eseguire fino a 100 job di copia tra regioni per una tabella di destinazione al giorno.
Job di copia tra regioni al giorno 2000 posti di lavoro Il tuo progetto può eseguire fino a 2000 job di copia tra regioni al giorno.
Numero di tabelle di origine da copiare 1200 tabelle di origine Puoi copiare da un massimo di 1200 tabelle di origine per job di copia.

Per informazioni sulla visualizzazione dell'utilizzo corrente del job di copia, vedi Job di copia - Visualizza l'utilizzo attuale della quota.

I seguenti limiti si applicano alla copia dei set di dati:

Limite Predefinito Note
Numero massimo di tabelle nel set di dati di origine 20.000 tabelle Un set di dati di origine può contenere fino a 20.000 tabelle.
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione nella stessa regione 20.000 tabelle Il tuo progetto può copiare 20.000 tabelle per esecuzione su un set di dati di destinazione che si trova nella stessa regione.
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione in un'altra regione 1000 tabelle Il tuo progetto può copiare 1000 tabelle per esecuzione in un set di dati di destinazione che si trova in un'altra area geografica. Ad esempio, se configuri una copia tra regioni di un set di dati con 8000 tabelle, BigQuery Data Transfer Service crea automaticamente otto esecuzioni in sequenza. Nella prima esecuzione vengono copiate 1000 tabelle. 24 ore dopo, la seconda esecuzione copia 1000 tabelle. Questo processo continua fino a quando tutte le tabelle nel set di dati vengono copiate, fino a un massimo di 20.000 per set di dati.

Prenotazioni

Le seguenti quote si applicano alle prenotazioni:

Quota Predefinito Note
Numero totale di slot per la regione UE 2000 slot Il numero massimo di slot BigQuery che puoi acquistare nell'UE con più regioni utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per la regione USA 4000 slot Il numero massimo di slot BigQuery che puoi acquistare negli Stati Uniti in più aree geografiche utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per le seguenti regioni: asia-northeast1, asia-northeast3, australia-southeast1, europe-west2 e nordamerica-northeast1 1000 slot Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per le regioni Omni (aws-us-east-1 e azure-eastus2) 100 slot Il numero massimo di slot BigQuery che puoi acquistare nelle regioni Omni utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per tutte le altre regioni 500 slot Il numero massimo di slot BigQuery che puoi acquistare in ogni altra regione utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud

Alle prenotazioni si applicano i limiti seguenti:

Limite Valore Note
Numero di progetti di amministrazione per le prenotazioni di slot 5 progetti per organizzazione Il numero massimo di progetti all'interno di un'organizzazione che possono contenere una prenotazione o un impegno attivo per gli slot per una località o regione specifica.

Set di dati

I seguenti limiti si applicano ai set di dati di BigQuery:

Limite Predefinito Note
Numero massimo di set di dati Illimitato Non esiste alcun limite al numero di set di dati che un progetto può contenere.
Numero di tabelle per set di dati Illimitato Quando utilizzi una chiamata API, le prestazioni dell'enumerazione rallentano man mano che ti avvicini a 50.000 tabelle in un set di dati. La console Google Cloud può mostrare fino a 50.000 tabelle per ogni set di dati.
Numero di risorse autorizzate nell'elencocontrollo dell'accessoo di un set di dati 2500 risorse L'elenco di controllo dell'accesso di un set di dati può avere fino a 2500 risorse autorizzate totali, tra cui viste autorizzate, set di dati autorizzati e funzioni autorizzate. Se superi questo limite a causa di un numero elevato di visualizzazioni autorizzate, valuta la possibilità di raggruppare le viste in set di dati autorizzati.
Numero di operazioni di aggiornamento del set di dati per set di dati ogni 10 secondi 5 operazioni Il tuo progetto può eseguire fino a cinque operazioni di aggiornamento del set di dati ogni 10 secondi. Il limite di aggiornamento del set di dati include tutte le operazioni di aggiornamento dei metadati eseguite da quanto segue:
Lunghezza massima della descrizione di un set di dati 16.384 caratteri Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri.

Tabelle

Tutte le tabelle

I limiti seguenti si applicano a tutte le tabelle BigQuery.

Limite Predefinito Note
Lunghezza massima della descrizione di una colonna 1024 caratteri Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 1024 caratteri.
Profondità massima dei record nidificati 15 livelli Le colonne di tipo RECORD possono contenere tipi RECORD nidificati, chiamati anche record secondari. Il limite massimo di profondità nidificato è di 15 livelli. Questo limite è indipendente dal fatto che i record siano scalari o basati su array (ripetuti).

Tabelle standard

I seguenti limiti si applicano alle tabelle standard (integrate) di BigQuery:

Limite Predefinito Note
Modifiche alle tabelle al giorno 1500 modifiche

Il tuo progetto può apportare fino a 1500 modifiche di tabella al giorno, indipendentemente dal fatto che la modifica aggiunga dati, aggiorni i dati o tronca la tabella. Questo limite include il totale combinato di tutti i job di caricamento, i job di copia e i job di query che aggiungono o sovrascrivono una tabella di destinazione o che utilizzano un'istruzione DML, DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE per scrivere dati in una tabella.

Le istruzioni DML vengono conteggiate per il numero di modifiche alle tabelle al giorno, ma non sono limitate da questo limite. Per ulteriori informazioni sui limiti DML, consulta Istruzioni per la lingua per la manipolazione dei dati.

Frequenza massima di operazioni di aggiornamento dei metadati per tabella 5 operazioni ogni 10 secondi Il tuo progetto può eseguire fino a cinque operazioni di aggiornamento dei metadati di una tabella ogni 10 secondi per tabella. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati della tabella, eseguite da: Questo limite include anche il totale combinato di tutti i job di caricamento, dei job di copia e dei job di query che aggiungono o sovrascrivono una tabella di destinazione. Questo limite non si applica alle operazioni DML.

Se superi questo limite, riceverai un messaggio di errore come Exceeded rate limits: too many table update operations for this table. Questo errore è temporaneo; puoi riprovare con un backoff esponenziale.

Per identificare le operazioni che incidono su questo limite, puoi esaminare i log.

Numero massimo di colonne per tabella 10.000 colonne Ogni tabella, risultato di query o definizione di vista può avere fino a 10.000 colonne.

Tabelle esterne

I seguenti limiti si applicano alle tabelle BigQuery con dati archiviati in Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON:

Limite Predefinito Note
Numero massimo di URI di origine per tabella esterna 10.000 URI Ogni tabella esterna può avere fino a 10.000 URI di origine.
Numero massimo di file per tabella esterna 10.000.000 di file Una tabella esterna può contenere fino a 10 milioni di file, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly.
Dimensione massima dei dati archiviati in Cloud Storage per tabella esterna 600 TB Una tabella esterna può avere fino a 600 terabyte in tutti i file di input. Questo limite si applica alle dimensioni dei file archiviate in Cloud Storage; queste dimensioni non corrispondono a quelle utilizzate nella formula per la determinazione dei prezzi della query. Per le tabelle partizionate esternamente, il limite viene applicato dopo l' eliminazione della partizione.
Numero massimo di file nel bucket Cloud Storage di origine Circa 60.000.000 file Una tabella esterna può fare riferimento a un bucket Cloud Storage contenente circa 60.000.000 di file. Per le tabelle partizionate esternamente, questo limite viene applicato prima dell' eliminazione delle partizioni.

Tabelle partizionate

I seguenti limiti si applicano alle tabelle partizionate di BigQuery.

I limiti di partizionamento si applicano al totale combinato di tutti i job di caricamento, dei job di copia e dei job di query che aggiungono o sovrascrivono una partizione di destinazione o che usano un'istruzione DML DELETE, INSERT, MERGE,TRUNCATE TABLE o UPDATE per influire sui dati in una tabella.

Le istruzioni DML vengono conteggiate ai fini dei limiti di partizione, ma non sono limitate da queste. Per ulteriori informazioni sui limiti DML, consulta le istruzioni per la lingua per la manipolazione dei dati.

Un singolo job può interessare più partizioni. Ad esempio, un'istruzione DML può aggiornare i dati in più partizioni (sia per le tabelle partizionate che per quelle partite). I job di query e i job di caricamento possono anche scrivere su più partizioni, ma solo per le tabelle partizionate.

BigQuery utilizza il numero di partizioni interessate da un job per determinare quanto del limite occupa il job. Gli inserimenti di flussi di dati non influiscono su questo limite.

Per informazioni sulle strategie per rimanere entro i limiti per le tabelle partizionate, consulta Risoluzione dei problemi relativi agli errori di quota.

Limite Predefinito Note
Numero di partizioni per tabella partizionata 4000 partizioni Ogni tabella partizionata può avere fino a 4000 partizioni. Se superi questo limite, valuta l'utilizzo del clustering in aggiunta o come partizione al partizionamento.
Numero di partizioni modificate da un singolo job 4000 partizioni Ogni operazione del job (query o caricamento) può interessare fino a 4000 partizioni. BigQuery rifiuta qualsiasi job di query o caricamento che tenta di modificare più di 4000 partizioni.
Numero di modifiche alle partizioni per tabella partizionata per data di importazione al giorno 5000 modifiche

Il tuo progetto può apportare fino a 5000 modifiche alle partizioni al giorno, indipendentemente dal fatto che la modifica aggiunga dati, aggiorni i dati o tronca una tabella partizionata per data di importazione.

Le istruzioni DML vengono conteggiate per il numero di modifiche alle partizioni al giorno, ma non sono limitate da questo limite. Per ulteriori informazioni sui limiti DML, consulta Istruzioni per la lingua per la manipolazione dei dati.

Numero di modifiche alle partizioni al giorno per tabella partizionata per colonna 30.000 modifiche

Il tuo progetto può apportare fino a 30.000 modifiche alle partizioni al giorno per una tabella partizionata per colonna.

Numero di modifiche ogni 10 secondi per tabella 50 modifiche Il tuo progetto può eseguire fino a 50 modifiche per tabella partizionata ogni 10 secondi.
Numero di possibili intervalli per il partizionamento degli intervalli 10.000 intervalli Una tabella partizionata da intervalli può avere fino a 10.000 intervalli possibili. Questo limite si applica alla specifica della partizione quando crei la tabella. Dopo aver creato la tabella, il limite si applica anche al numero effettivo di partizioni.

Cloni di tabelle

I seguenti limiti si applicano ai cloni di tabelle di BigQuery:

Limite Predefinito Note
Numero massimo di cloni e snapshot in una catena 3 cloni o snapshot delle tabelle I cloni e gli snapshot in combinazione sono limitati a 3. Quando cloni o crei snapshot di una tabella di base, puoi clonare o creare snapshot del risultato solo altre due volte; il tentativo di clonazione o creazione di uno snapshot del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e creare il clone C dello snapshot B. Per creare duplicati duplicati del clone o dello snapshot di terzo livello, utilizza invece un'operazione di copia.
Numero massimo di cloni e snapshot per una tabella di base 1000 cloni o snapshot delle tabelle Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite.

Snapshot tabella

I seguenti limiti si applicano agli istantanea della tabella BigQuery:

Limite Predefinito Note
Numero massimo di job di snapshot delle tabelle simultanei 100 job Il tuo progetto può eseguire fino a 100 job di snapshot delle tabelle simultanei.
Numero massimo di job di snapshot delle tabelle al giorno 50.000 posti di lavoro Il tuo progetto può eseguire fino a 50.000 job di snapshot delle tabelle al giorno.
Numero massimo di job di snapshot delle tabelle per tabella al giorno 50 job Il tuo progetto può eseguire fino a 50 job di snapshot per tabella al giorno.
Numero massimo di snapshot in una catena. 5 aggiornamenti Il tuo progetto può aggiornare i metadati di uno snapshot della tabella fino a cinque volte ogni 10 secondi.
Numero massimo di cloni e snapshot in una catena 3 cloni o snapshot delle tabelle I cloni e gli snapshot in combinazione sono limitati a 3. Quando cloni o crei snapshot di una tabella di base, puoi clonare o creare snapshot del risultato solo altre due volte; il tentativo di clonazione o creazione di uno snapshot del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e creare il clone C dello snapshot B. Per creare duplicati duplicati del clone o dello snapshot di terzo livello, utilizza invece un'operazione di copia.
Numero massimo di cloni e snapshot per una tabella di base 1000 cloni o snapshot delle tabelle Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite.

Visualizzazioni

Le seguenti quote e limiti si applicano alle viste e alle viste materializzate.

Viste logiche

I seguenti limiti si applicano alle visualizzazioni standard di BigQuery:

Limite Predefinito Note
Numero massimo di livelli di viste nidificate 16 livelli BigQuery supporta fino a 16 livelli di viste nidificate. Se sono presenti più di 16 livelli, viene restituito un errore INVALID_INPUT.
Lunghezza massima di una query GoogleSQL utilizzata per definire una vista 256.000 caratteri Il testo di una query GoogleSQL che definisce una vista può contenere fino a 256.000 caratteri.
Numero massimo di visualizzazioni autorizzate per set di dati Consulta Set di dati.

Viste materializzate

I seguenti limiti si applicano alle viste materializzate di BigQuery:

Limite Predefinito Note
Riferimenti della tabella di base (stesso set di dati) 20 visualizzazioni materializzate È possibile fare riferimento a ogni tabella di base fino a 20 viste materializzate dello stesso set di dati.
Riferimenti della tabella di base (stesso progetto) 100 visualizzazioni materializzate È possibile fare riferimento a ogni tabella di base fino a 100 viste materializzate dello stesso progetto.
Riferimenti della tabella di base (intera organizzazione) 500 visualizzazioni materializzate È possibile fare riferimento a ogni tabella di base fino a 500 viste materializzate dell'intera organizzazione.
Numero massimo di visualizzazioni autorizzate per set di dati Consulta Set di dati.

Indici

Agli indici BigQuery si applicano i limiti seguenti:

Limite Predefinito Note
Numero di istruzioni DDL INDEX INDEX per progetto per regione al giorno 500 operazioni Il tuo progetto può emettere fino a 500 operazioni DDL INDEX ogni giorno all'interno di una regione.
Numero di istruzioni DDL di indice per tabella al giorno 20 operazioni Il tuo progetto può eseguire fino a 20 operazioni DDL INDEX o DROP INDEX DDL per tabella al giorno.
Dimensione totale massima dei dati della tabella per organizzazione consentita per la creazione di indici che non viene eseguita in una prenotazione 100 TB in più regioni; 20 TB in tutte le altre regioni Puoi creare un indice per una tabella se la dimensione complessiva delle tabelle con indici nella tua organizzazione è inferiore al limite della tua regione: 100 TB per le regioni multiple US e EU e 20 TB per tutte le altre. Se i job di gestione dell'indice vengono eseguiti nella tua prenotazione, questo limite non viene applicato.

Routine

Le seguenti quote e limiti si applicano alle routine.

Funzioni definite dall'utente

I seguenti limiti si applicano alle funzioni definite dall'utente (UDF) temporanee e permanenti nelle query GoogleSQL.

Limite Predefinito Note
Output massimo per riga 5 MB La quantità massima di dati che può generare l'UDF JavaScript durante l'elaborazione di una singola riga è di circa 5 MB.
Numero massimo di query SQL precedente simultanee con JavaScript UDF 6 query Il tuo progetto può avere fino a sei query SQL precedente in parallelo che contengono funzioni definite dall'utente in JavaScript. Questo limite include sia le query interattive che batch. Anche le query interattive che contengono funzioni definite dall'utente vengono conteggiate ai fini del limite di frequenza per le query interattive in parallelo. Questo limite non si applica alle query di Google SQL.
Numero massimo di risorse UDF JavaScript per query 50 risorse Un job di query può avere fino a 50 risorse UDF JavaScript, come blob di codice inline o file esterni.
Dimensione massima del blob di codice inline 32 kB I blob di codice inline di una funzione definita dall'utente possono avere una dimensione massima di 32 kB.
Dimensione massima di ogni risorsa di codice esterno 1 MB La dimensione massima di ogni risorsa di codice JavaScript è un MB.

I seguenti limiti si applicano agli UDF permanenti:

Limite Predefinito Note
Lunghezza massima del nome di una UDF 256 caratteri Un nome UDF può contenere fino a 256 caratteri.
Numero massimo di argomenti 256 argomenti Una funzione definita dall'utente può avere fino a 256 argomenti.
Lunghezza massima del nome di un argomento 128 caratteri Il nome di un argomento UDF può contenere fino a 128 caratteri.
Profondità massima di una catena di riferimento UDF 16 riferimenti Una catena di riferimenti UDF può contenere fino a 16 riferimenti.
Profondità massima di un argomento o di un output di tipo STRUCT 15 livelli Un argomento o un output di tipo UDF STRUCT può avere una profondità massima di 15 livelli.
Numero massimo di campi in STRUCT argomenti di tipo o output per UDF 1024 campi Una funzione definita dall'utente può avere fino a 1024 campi in argomenti di tipo STRUCT e output.
Numero massimo di librerie JavaScript in un'istruzione CREATE FUNCTION 50 biblioteche Un'istruzione CREATE FUNCTION può avere fino a 50 librerie JavaScript.
Lunghezza massima dei percorsi della libreria JavaScript inclusi 5000 caratteri Il percorso di una libreria JavaScript inclusa in una funzione definita dall'utente può contenere fino a 5000 caratteri.
Frequenza di aggiornamento massima per funzione definita dall'utente ogni 10 secondi 5 aggiornamenti Il tuo progetto può aggiornare una funzione definita dall'utente fino a cinque volte ogni 10 secondi.
Numero massimo di UDF autorizzate per set di dati Consulta Set di dati.

Funzioni remote

I seguenti limiti si applicano alle funzioni remote in BigQuery.

Limite Predefinito Note
Numero massimo di query in parallelo che contengono funzioni remote 10 query Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto.
Dimensione massima input 5 MB La dimensione totale massima di tutti gli argomenti di input da una singola riga è di 5 MB.
Limite dimensioni risposta HTTP (Cloud Functions (1a generazione)) 10 MB Il corpo della risposta HTTP dalla funzione Cloud Functions di 1a generazione è fino a 10 MB. Il superamento di questo valore causa errori nella query.
Limite dimensioni risposta HTTP (Cloud Functions (2nd gen) o Cloud Run) 15 MB Il corpo della risposta HTTP da Cloud Function di 2ª generazione o Cloud Run ha una dimensione massima di 15 MB. Il superamento di questo valore provoca errori della query.
Limite di tempo di chiamata HTTP massimo (Cloud Functions di 1a generazione) 9 minuti Puoi impostare un tuo limite di tempo per una funzione Cloud Functions (1st gen) per una singola chiamata HTTP, ma il limite massimo è di 9 minuti. Il superamento del limite di tempo impostato per la tua funzione Cloud Functions di 1a generazione può causare errori di chiamata HTTP e query non riuscite dopo un numero limitato di nuovi tentativi.
Limite di tempo di chiamata HTTP (Cloud Functions di seconda generazione o Cloud Run) 20 minuti Il limite di tempo per una singola chiamata HTTP alla tua funzione Cloud Functions di seconda generazione o Cloud Run. Il superamento di questo valore può causare errori delle chiamate HTTP e delle query dopo un numero limitato di nuovi tentativi.

Funzioni tabella

I seguenti limiti si applicano alle funzioni della tabella di BigQuery:

Limite Predefinito Note
Lunghezza massima del nome di una funzione di tabella 256 caratteri Il nome di una funzione tabella può contenere fino a 256 caratteri.
Lunghezza massima del nome di un argomento 128 caratteri Il nome di un argomento della funzione tabella può contenere fino a 128 caratteri.
Numero massimo di argomenti 256 argomenti Una funzione tabella può avere fino a 256 argomenti.
Profondità massima della catena di riferimento di una funzione tabella 16 riferimenti Una catena di riferimento di funzioni di tabella può contenere fino a 16 riferimenti di profondità.
Profondità massima dell'argomento o output di tipo STRUCT 15 livelli Un argomento STRUCT per una funzione di tabella può avere una profondità massima di 15 livelli. Analogamente, un record STRUCT nell'output di una funzione della tabella può avere una profondità massima di 15 livelli.
Numero massimo di campi nell'argomento o nella tabella di ritorno di tipo STRUCT per funzione tabella 1024 campi Un argomento STRUCT per una funzione di tabella può avere fino a 1024 campi. Analogamente, un record STRUCT nell'output di una funzione della tabella può avere fino a 1024 campi.
Numero massimo di colonne nella tabella di ritorno 1024 colonne Una tabella restituita da una funzione tabella può avere fino a 1024 colonne.
Lunghezza massima dei nomi delle colonne della tabella di reso 128 caratteri I nomi delle colonne nelle tabelle restituite possono contenere fino a 128 caratteri.
Numero massimo di aggiornamenti per funzione tabella ogni 10 secondi 5 aggiornamenti Il tuo progetto può aggiornare una funzione tabella fino a cinque volte ogni 10 secondi.

stored procedure per Apache Spark

I seguenti limiti si applicano a BigQuery stored procedure per Apache Spark:

Limite Predefinito Notes
Numero massimo di query di stored procedure simultanee 50 Puoi eseguire fino a 50 query di stored procedure simultanee per ogni progetto.
Numero massimo di CPU simultanee 12.000 Puoi utilizzare fino a 12.000 CPU simultanee per ogni progetto.

Puoi utilizzare fino a 2400 CPU simultanee per ogni località,per ogni progetto, tranne che nelle seguenti località:

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

In queste località puoi utilizzare fino a 500 CPU contemporanee per ogni località per ogni progetto.

Se esegui query simultanee in una località a più aree geografiche e in una singola area geografica che si trova nella stessa area geografica, le query potrebbero utilizzare la stessa quota di CPU simultanee.

Dimensione totale massima dei dischi permanenti standard 204,8 TB

Puoi utilizzare fino a 204,8 TB di dischi permanenti standard per ogni località per ogni progetto.

Se esegui query simultanee in una località a più aree geografiche e in una singola area geografica che si trova nella stessa area geografica, le query potrebbero utilizzare la stessa quota di disco permanente standard.

Data Manipulation Language (DML)

I seguenti limiti si applicano alle istruzioni DML (Data Manipulation Language) di BigQuery:

Limite Predefinito Note
Istruzioni DML al giorno Illimitato Le istruzioni DML vengono conteggiate per il numero di modifiche alla tabella al giorno (o per il numero di modifiche alle tabelle partizionate al giorno per le tabelle partizionate). Tuttavia, il numero di istruzioni DML che il tuo progetto può essere eseguito al giorno è illimitato e non è vincolato dalla quota di modifiche al giorno (o dalla quota di modifiche partizionate). Dopo aver esaurito il limite giornaliero di modifiche delle tabelle (o modifiche apportate alle tabelle partizionate), riceverai errori per le modifiche non DML come i job di caricamento o i job di copia, ma potrai continuare a eseguire le istruzioni DML senza ricevere errori.

Ad esempio, supponiamo che esista una tabella partizionata per data di importazione denominata mytable. Se esegui 3000 job di copia che aggiungono dati a mytable$20210720 e 2000 job DML query che utilizzano INSERT per aggiungere dati a mytable$20210720, raggiungerai il limite giornaliero di modifiche alle partizioni. Una volta raggiunto questo limite, qualsiasi altro job di copia non riuscirà, ma i job di query basati su DML, come DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE, continueranno ad avere esito positivo. Le istruzioni DML hanno a disposizione le seguenti limitazioni.
Istruzioni DML mutanti in parallelo per tabella 2 estratti conto BigQuery esegue fino a due istruzioni DML mutanti in contemporanea (UPDATE, DELETE e MERGE) per ogni tabella. Ulteriori istruzioni DML mutanti per una tabella sono in coda.
Istruzioni DML mutanti in coda per tabella 20 estratti conto Una tabella può avere fino a 20 istruzioni DML mutanti in coda in attesa di esecuzione. Se invii ulteriori istruzioni DML mutanti per la tabella, tali istruzioni non andranno a buon fine.
Tempo massimo in coda per l'istruzione DML 6 ore Un'istruzione DML con priorità interattiva può attendere fino a sei ore in coda. Se non viene eseguita dopo sei ore, l'istruzione non riesce.

Per maggiori informazioni sulla modifica delle istruzioni DML, consulta INSERT Contemporaneità DML e UPDATE, DELETE, MERGE Contemporaneità DML.

Query con più dichiarazioni

I seguenti limiti si applicano alle query con più istruzioni in BigQuery.

Limite Predefinito Note
Limite di tempo cumulativo 24 ore Il limite di tempo cumulativo per una query con più dichiarazioni è di 24 ore.
Limite di tempo per gli estratti conto 6 ore Il limite di tempo per una singola istruzione in una query con più istruzioni è di 6 ore.

CTE ricorrenti nelle query

I limiti seguenti si applicano alle espressioni di tabella comuni ricorrenti in BigQuery.

Limite Predefinito Note
Limite di iterazione 500 iterazioni Il CTE ricorsivo può eseguire questo numero di iterazioni. Se questo limite viene superato, viene generato un errore. Per aggirare i limiti di iterazione, consulta Risolvere gli errori di limite di iterazione.

Sicurezza a livello di riga

I seguenti limiti si applicano ai criteri di accesso a livello di riga di BigQuery:

Limite Predefinito Notes
Numero massimo di criteri di accesso alle righe per tabella Criteri 400 Una tabella può avere fino a 400 criteri di accesso alle righe.
Numero massimo di criteri di accesso alle righe per query Criteri 6000 Una query può accedere a un massimo di 6000 criteri di accesso alle righe.
Numero massimo di istruzioni DDL CREATE / DROP per criterio per 10 secondi 5 estratti conto Il tuo progetto può eseguire fino a cinque istruzioni CREATE o DROP per risorsa di criteri di accesso alle righe ogni 10 secondi.
DROP ALL ROW ACCESS POLICIES istruzioni per tabella ogni 10 secondi 5 estratti conto Il tuo progetto può effettuare fino a cinque istruzioni DROP ALL ROW ACCESS POLICIES per tabella ogni 10 secondi.

Norme sui dati

I seguenti limiti si applicano al mascheramento dei dati dinamici a livello di colonna:

Limite Predefinito Note
Numero massimo di criteri dei dati per tag di criteri. 3

BigQuery ML

Tutte le quote e i limiti dei job di query si applicano ai job di query di Google SQL che utilizzano istruzioni e funzioni BigQuery. I seguenti limiti si applicano anche ai job CREATE MODEL:

Limite Predefinito Note
CREATE MODEL query sull'istruzione ogni 48 ore per progetto 20.000 query sugli estratti conto Alcuni modelli vengono addestrati utilizzando i servizi AI AI che hanno una propria gestione di risorse e quote.

BI Engine

I limiti seguenti si applicano a BigQuery BI Engine.

Limite Predefinito Note
Dimensione massima della prenotazione per progetto per località (interfaccia SQL) 250 GB Si applica quando si utilizza BI Engine con strumenti di business intelligence (BI) diversi da Looker Studio.

Puoi richiedere un aumento della capacità di prenotazione massima per i tuoi progetti. Gli aumenti delle prenotazioni sono disponibili nella maggior parte delle aree geografiche e potrebbero richiedere da tre giorni a una settimana per essere elaborati.
Dimensione massima della prenotazione per progetto per località (Looker Studio) 100 GB Si applica quando si utilizza BI Engine con Looker Studio. Questo limite non influisce sulle dimensioni delle tabelle su cui viene eseguita la query, perché BI Engine carica in memoria solo le colonne utilizzate nelle query, non l'intera tabella.
Dimensione massima del modello dei dati per tabella (Looker Studio) 10 GB Si applica quando si utilizza BI Engine con Looker Studio. Se hai una prenotazione di 100 GB per progetto per località, BI Engine limita la prenotazione per tabella a 10 GB. Il resto della prenotazione disponibile viene utilizzato per le altre tabelle nel progetto.
Partizioni massime per tabella (Looker Studio) 500 partizioni BI Engine per Looker Studio supporta fino a un massimo di 500 partizioni per tabella.
Numero massimo di righe per query (Looker Studio) 150 milioni BI Engine per Looker Studio supporta fino a 150 milioni di righe di dati oggetto di query, a seconda della complessità della query.

Analytics Hub

A Analytics Hub si applicano i seguenti limiti:

Limite Predefinito Note
Numero massimo di scambi di dati per progetto 500 piattaforme di scambio pubblicitario Puoi creare fino a 500 scambi di dati in un progetto.
Numero massimo di schede per scambio di dati 1000 schede Puoi creare fino a 1000 schede in uno scambio di dati.
Numero massimo di set di dati collegati per set di dati condiviso 1000 set di dati collegati Tutti i sottoscrittori di Analytics Hub, combinati, possono avere un massimo di 1000 set di dati collegati per set di dati condiviso.

Quote e limiti delle API

Queste quote e limiti si applicano alle richieste dell'API BigQuery.

API BigQuery

Le seguenti quote si applicano alle richieste di API BigQuery (core):

Quota Predefinito Note
Richieste al giorno Illimitato Il tuo progetto può effettuare un numero illimitato di richieste API BigQuery al giorno.
Visualizza la quota nella console Google Cloud
Massimo tabledata.list byte al minuto 7,5 GB in più regioni; 3,7 GB in tutte le altre Il tuo progetto può restituire un massimo di 7,5 GB di dati di righe di tabelle al minuto tramite tabledata.list nelle regioni multiple di us e eu e 3,7 GB di dati di righe di tabella al minuto in tutte le altre aree geografiche. Questa quota si applica al progetto che contiene la tabella letta. Anche altre API, tra cui jobs.getQueryResults, e il recupero dei risultati da jobs.query e jobs.insert possono consumare questa quota.
Visualizza la quota nella console Google Cloud

I seguenti limiti si applicano alle richieste (core) di API BigQuery:

Limite Predefinito Note
Numero massimo di richieste API al secondo per utente per metodo 100 richieste Un utente può effettuare fino a 100 richieste API al secondo a un metodo API. Se un utente invia più di 100 richieste al secondo a un metodo, può verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati.
Numero massimo di richieste API simultanee per utente 300 richieste Se un utente effettua più di 300 richieste in parallelo, può verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati.
Dimensione massima intestazione della richiesta 16 KiB La richiesta API BigQuery può arrivare fino a 16 KiB, inclusi l'URL della richiesta e tutte le intestazioni. Questo limite non si applica al corpo della richiesta, ad esempio in una richiesta POST.
Massimo jobs.get richieste al secondo 1000 richieste Il tuo progetto può effettuare fino a 1000 richieste jobs.get al secondo.
Dimensione massima della risposta jobs.query 20 MB Per impostazione predefinita, non esiste un numero massimo di righe per il numero di righe di dati restituite da jobs.query per ogni pagina di risultati. Tuttavia, hai un limite massimo di 20 MB per le dimensioni delle risposte. Puoi modificare il numero di righe da restituire utilizzando il parametro maxResults.
Massimo projects.list richieste al secondo 2 richieste Il tuo progetto può effettuare fino a due richieste projects.list al secondo.
Numero massimo di richieste tabledata.list al secondo 1000 richieste Il tuo progetto può effettuare fino a 1000 richieste tabledata.list al secondo.
Numero massimo di righe restituite da tabledata.list richieste al secondo 150.000 righe Il tuo progetto può restituire fino a 150.000 righe al secondo utilizzando le richieste tabledata.list. Questo limite si applica al progetto che contiene la tabella letta.
Numero massimo di righe per risposta tabledata.list 100.000 righe Una chiamata tabledata.list può restituire fino a 100.000 righe di tabella. Per ulteriori informazioni, consulta la sezione Paging dei risultati tramite l'API.
Massimo tables.insert richieste al secondo 10 richieste Il tuo progetto può effettuare fino a 10 richieste tables.insert al secondo. Il metodo tables.insert crea una nuova tabella vuota in un set di dati. Il limite include le istruzioni SQL che creano tabelle, come CREATE TABLE e query che scrivono risultati nelle tabelle di destinazione.

API BigQuery Connection

Le seguenti quote si applicano alle richieste di API BigQuery Connection:

Quota Predefinito Note
Richieste di lettura al minuto 1000 richieste al minuto Il tuo progetto può effettuare fino a 1000 richieste al minuto ai metodi dell'API BigQuery Connection che leggono i dati di connessione.
Visualizza la quota nella console Google Cloud
Richieste di scrittura al minuto 100 richieste al minuto Il tuo progetto può effettuare fino a 100 richieste al minuto ai metodi dell'API BigQuery Connection per creare o aggiornare le connessioni.
Visualizza la quota nella console Google Cloud

API BigQuery Migration

I seguenti limiti si applicano all'API BigQuery Migration:

Limite Predefinito Note
Dimensioni del singolo file per la traduzione SQL in batch 10 MB La dimensione massima di ogni singolo file di origine e di metadati può essere di 10 MB. Questo limite non si applica al file ZIP dei metadati prodotto dallo strumento a riga di comando dwh-migration-dumper.
Dimensioni totali dei file di origine per la traduzione batch batch 1 GB Le dimensioni totali di tutti i file di input caricati su Cloud Storage possono essere al massimo pari a 1 GB. inclusi tutti i file sorgente e tutti i file di metadati se scegli di includerli.
Dimensioni stringa di input per la traduzione interattiva di SQL 1 MB La stringa inserita per la traduzione interattiva di SQL non deve superare 1 MB.
Dimensione massima del file di configurazione per la traduzione interattiva di SQL 50 MB I singoli file di metadati (compressi) e i file di configurazione YAML in Cloud Storage non devono superare i 50 MB. Se le dimensioni del file superano i 50 MB, il traduttore interattivo salta il file di configurazione durante la traduzione e genera un messaggio di errore. Un metodo per ridurre le dimensioni del file di metadati consiste nell'utilizzare i flag —database o –schema per filtrare i database quando generi i metadati.

Le seguenti quote si applicano all'API BigQuery Migration. Nella maggior parte dei casi, sono validi i seguenti valori predefiniti. I valori predefiniti per il tuo progetto potrebbero essere diversi:

Quota Predefinito Note

Richieste EDWMigration Service List al minuto

Richieste di elenchi di servizi EDWMigration al minuto per utente

12.000 richieste

2500 richieste

Il tuo progetto può effettuare fino a 12.000 richieste Elenco API di migrazione al minuto.

Ciascun utente può effettuare fino a 2500 richieste di Elenco API di migrazione al minuto.

Visualizza le quote nella console Google Cloud

Richieste EDWMigration Service al minuto

Richieste EDWMigration Service Get al minuto per utente

25.000 richieste

2500 richieste

Il tuo progetto può effettuare fino a 25.000 richieste API Get al minuto.

Ogni utente può effettuare fino a 2500 richieste API Get al minuto.

Visualizza le quote nella console Google Cloud

Altre richieste al minuto per il servizio EDWMigration

Altre richieste di EDWMigration Service per minuto per utente

25 richieste

5 richieste

Il tuo progetto può effettuare fino a 25 altre richieste dell'API Migration al minuto.

Ogni utente può effettuare fino a cinque altre richieste dell'API Migration al minuto.

Visualizza le quote nella console Google Cloud

Richieste di traduzione SQL interattive al minuto

Richieste di traduzione SQL interattive al minuto per utente

200 richieste

50 richieste

Il tuo progetto può effettuare fino a 200 richieste al servizio di traduzione SQL al minuto.

Ogni utente può effettuare fino a 50 altre richieste del servizio di traduzione SQL al minuto.

Visualizza le quote nella console Google Cloud

API BigQuery Reservation

Le seguenti quote si applicano alle richieste di API BigQuery Reservation:

Quota Predefinito Note
Richieste al minuto per regione 100 richieste Il tuo progetto può effettuare un totale di massimo 100 chiamate ai metodi dell'API BigQuery Reservation al minuto per regione.
Visualizza le quote nella console Google Cloud
Numero di chiamate SearchAllAssignments al minuto per regione 100 richieste Il tuo progetto può effettuare fino a 100 chiamate al metodo SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud
Richieste per SearchAllAssignments al minuto per regione per utente 10 richieste Ogni utente può effettuare fino a 10 chiamate al metodo SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud
(nei risultati di ricerca della console Google Cloud, cerca per utente).

API BigQuery Data Policy

I seguenti limiti si applicano all'API Data Policy (anteprima):

Limite Predefinito Note
Numero massimo di chiamate dataPolicy.list. 400 richieste al minuto per progetto

600 richieste al minuto per organizzazione
Numero massimo di chiamate dataPolicy.testIamPermissions. 400 richieste al minuto per progetto

600 richieste al minuto per organizzazione
Numero massimo di richieste di lettura. 1200 richieste al minuto per progetto

1800 richieste al minuto per organizzazione
Sono incluse le chiamate a dataPolicy.get e dataPolicy.getIamPolicy.
Numero massimo di richieste di scrittura. 600 richieste al minuto per progetto

900 richieste al minuto per organizzazione

Sono incluse le chiamate a:

API IAM

Le quote seguenti si applicano quando utilizzi la funzionalità di Identity and Access Management in BigQuery per recuperare e impostare i criteri IAM e per testare le autorizzazioni IAM.

Quota Predefinito Note
Richieste IamPolicy al minuto 3000 richieste Il tuo progetto può effettuare fino a 3000 richieste IAM al secondo.
Visualizza la quota nella console Google Cloud
Richieste IamPolicy al minuto per utente 1500 richieste Ogni utente può effettuare fino a 1500 richieste IAM al minuto per progetto.
Visualizza la quota nella console Google Cloud

API Storage Read

Le seguenti quote si applicano alle richieste di API BigQuery Storage Read:

Quota Predefinito Note
Richieste di piano dati lette al minuto per utente 25.000 richieste Ogni utente può effettuare fino a 25.000 ReadRows chiamate al minuto per progetto.
Visualizza la quota nella console Google Cloud
Lettura di richieste del piano di controllo al minuto per utente 5000 richieste Ogni utente può effettuare fino a 5000 chiamate alle operazioni relative ai metadati dell'API Storage Read al minuto per progetto. Le chiamate dei metadati includono i metodi CreateReadSession e SplitReadStream.
Visualizza la quota nella console Google Cloud

I seguenti limiti si applicano alle richieste API BigQuery Storage Read:

Limite Predefinito Note
Lunghezza massima riga/filtro 1 MB Quando utilizzi la chiamata CreateReadSession all'API Storage Read, la lunghezza massima è di 1 MB per ogni riga o filtro.
Dimensione massima dei dati serializzati 128 MB Quando utilizzi la chiamata ReadRows dell'API Storage Read, la rappresentazione serializzata dei dati in un singolo messaggio ReadRowsResponse non può superare i 128 MB.
Numero massimo di connessioni simultanee 2000 in più regioni; 400 in regioni Puoi aprire un massimo di 2000 connessioni ReadRows simultanee per progetto nelle regioni multiple us e eu e 400 connessioni ReadRows simultanee in altre aree geografiche. In alcuni casi, il limite potrebbe essere limitato a quelle simultanee.

API Storage Write

Le seguenti quote si applicano alle richieste di API Storage Write. Le seguenti quote possono essere applicate a livello di cartella. Queste quote vengono quindi aggregate e condivise tra tutti i progetti secondari. Per attivare questa configurazione, contatta l'assistenza clienti Google Cloud.

Se intendi richiedere un limite di quota più alto, includi il messaggio di errore della quota nella richiesta per accelerare l'elaborazione.

Quota Predefinito Note
Connessioni simultanee 10.000 in più regioni; 1000 in regioni

La quota delle connessioni simultanee si basa sul progetto client che avvia la richiesta di API Storage Write, non su quello che contiene la risorsa del set di dati BigQuery. Il progetto di avvio è il progetto associato alla chiave API o all'account di servizio.

Il tuo progetto può operare su 10.000 connessioni simultanee nelle us e eu regioni multiple e su 1000 in altre regioni.

Visualizza la quota nella console Google Cloud

Puoi visualizzare le metriche relative alla quota di utilizzo e ai limiti per i tuoi progetti in Cloud Monitoring. Seleziona il nome del limite di connessioni simultanee in base alla tua area geografica. Le opzioni sono ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU e ConcurrentWriteConnectionsPerProjectRegion rispettivamente per us, eu e altre regioni.

Puoi anche configurare avvisi per monitorare l'utilizzo e i limiti delle quote.

Velocità effettiva Velocità effettiva di 3 GB al secondo nelle regioni multiple; 300 MB al secondo nelle regioni Puoi trasmettere fino a 3 GBps in più aree geografiche us e eu e 300 MBp in altre aree geografiche per progetto.
Visualizza la quota nella console Google Cloud

Puoi visualizzare le metriche relative alla quota di utilizzo e ai limiti per i tuoi progetti in Cloud Monitoring. Seleziona il nome del limite di velocità effettiva in base all'area geografica. Le opzioni sono AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU e AppendBytesThroughputPerProjectRegion rispettivamente per us, eu e altre regioni.

Puoi anche configurare gli avvisi per monitorare l'utilizzo e i limiti delle quote.


Richieste CreateWriteStream 30.000 flussi ogni 4 ore per progetto Puoi chiamare CreateWriteStream fino a 30.000 volte ogni 4 ore per progetto. Prendi in considerazione l'utilizzo dello stream predefinito se non hai bisogno della semantica esatta.
Visualizza la quota nella console Google Cloud
Byte di streaming in attesa 10 TB in più regioni; 1 TB nelle regioni Per ogni commit attivato, puoi eseguire il commit di un massimo di 10 TB nelle più aree geografiche us e eu e 1 TB in altre aree geografiche.
Visualizza la quota nella console Google Cloud

I seguenti limiti si applicano alle richieste di API Write Write:

Limite Predefinito Note
Commit batch 10.000 flussi per tabella Puoi eseguire il commit di un massimo di 10.000 flussi in ogni chiamata BatchCommitWriteStream.
AppendRows dimensione richiesta 10 MB La dimensione massima della richiesta è 10 MB.

Inserimento di flussi di dati

Le quote e i limiti seguenti si applicano quando trasmetti flussi di dati in BigQuery utilizzando l'API Streaming legacy. Per informazioni sulle strategie per rimanere entro questi limiti, consulta la sezione Risolvere gli errori di quota. Se superi queste quote, ricevi quotaExceeded errori.

Limite Predefinito Note
Numero massimo di byte al secondo per progetto nelle regioni multiple us e eu 1 GB al secondo

Il tuo progetto può trasmettere in streaming fino a 1 GB al secondo. Questa quota è cumulativa all'interno di una specifica località a più aree geografiche. In altre parole, la somma di byte al secondo trasmessi a tutte le tabelle per un determinato progetto all'interno di più aree geografiche è limitata a 1 GB.

Il superamento di questo limite provoca un errore di quotaExceeded.

Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi l'aumento del prezzo nel più breve tempo possibile, con almeno due settimane di anticipo. L'aumento della quota richiede del tempo, soprattutto nel caso di un aumento significativo.

Numero massimo di byte al secondo per progetto in tutte le altre località 300 MB al secondo

Il tuo progetto può trasmettere in streaming fino a 300 MB al secondo in tutte le località, ad eccezione di quelle multiple us e eu. Questa quota è cumulativa all'interno di una specifica località a più aree geografiche. In altre parole, la somma di byte al secondo trasmessi a tutte le tabelle per un determinato progetto all'interno di una regione è limitata a 300 MB.

Il superamento di questo limite provoca un errore di quotaExceeded.

Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi l'aumento del prezzo nel più breve tempo possibile, con almeno due settimane di anticipo. L'aumento della quota richiede del tempo, soprattutto nel caso di un aumento significativo.

Dimensione massima riga 10 MB Il superamento di questo valore provoca invalid errori.
Limite dimensioni richiesta HTTP 10 MB

Il superamento di questo valore provoca invalid errori.

Internamente la richiesta è tradotta da HTTP JSON in una struttura di dati interna. La struttura dei dati tradotti ha un proprio limite di dimensioni applicato. È difficile prevedere la dimensione della struttura di dati interna risultante, ma se mantieni le richieste HTTP a 10 MB o meno, la probabilità di raggiungere il limite interno è bassa.

Numero massimo di righe per richiesta 50.000 righe Consigliamo di utilizzare un limite massimo di 500 righe. Il batch può aumentare le prestazioni e la velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Un numero insufficiente di righe per richiesta e il sovraccarico di ciascuna richiesta possono rendere inefficiente l'importazione. Troppe righe per richiesta e la velocità effettiva può diminuire. Sperimenta con dati rappresentativi (dimensioni di schema e dati) per determinare la dimensione ideale del batch per i tuoi dati.
Lunghezza campo: insertId 128 caratteri Il superamento di questo valore provoca invalid errori.

Per ulteriore quota di streaming, consulta Richiedere un aumento della quota.