Quote e limiti
Questo documento elenca le quote e i limiti applicabili a BigQuery.
Una quota limita la quantità di una determinata risorsa Google Cloud condivisa che può essere utilizzata dal tuo progetto Cloud, inclusi l'hardware, il software e i componenti di rete.
Le quote fanno parte di un sistema che:
- Monitora l'utilizzo o il consumo di prodotti e servizi Google Cloud.
- Limita il consumo di tali risorse per motivi quali l'equità e la riduzione dei picchi di utilizzo.
- Gestisce le configurazioni che applicano automaticamente le limitazioni prescritte.
- Consente di apportare o richiedere modifiche alla quota.
Quando una quota viene superata, nella maggior parte dei casi il sistema blocca immediatamente l'accesso alla risorsa Google pertinente e l'attività che stai tentando di eseguire non riesce. Nella maggior parte dei casi, le quote si applicano a ogni progetto Cloud e vengono condivise tra tutte le applicazioni e gli indirizzi IP che utilizzano il progetto Cloud.
Esistono anche dei limiti per le risorse BigQuery. Questi limiti non sono correlati al sistema delle quote. I limiti non possono essere modificati, se non diversamente indicato.
Per impostazione predefinita, le quote e i limiti di BigQuery si applicano per progetto. Le quote e i limiti che si applicano su base diversa vengono indicati come tali; ad esempio, il numero massimo di colonne per tabella o il numero massimo di richieste API simultanee per utente. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di utilizzo dei servizi e di altri fattori e sono soggetti a modifica senza preavviso.
Rifornimento della quota
Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.
Richiedi un aumento della quota
Per aumentare o diminuire la quota, usa la console Google Cloud. Per saperne di più, consulta Richiedere una quota più elevata.
Per istruzioni dettagliate sulla procedura per richiedere un aumento della quota nella console Google Cloud, fai clic su Procedura guidata:
Limite quota utilizzo
Per scoprire come limitare l'utilizzo di una determinata risorsa specificando una quota più piccola rispetto a quella predefinita, vedi Limitazione dell'utilizzo.
Autorizzazioni obbligatorie
Per visualizzare e aggiornare le quote di BigQuery nella console Google Cloud, devi disporre delle stesse autorizzazioni valide per qualsiasi quota di Google Cloud. Per ulteriori informazioni, consulta Autorizzazioni per le quote di Google Cloud.
Risolvere i problemi
Per informazioni sulla risoluzione degli errori relativi a quote e limiti, consulta Risoluzione degli errori di quota di BigQuery.
Job
Le quote e i limiti si applicano ai job che BigQuery esegue per tuo conto, indipendentemente dal fatto che vengano eseguiti utilizzando la console Google Cloud, lo strumento a riga di comando bq
o in modo programmatico utilizzando l'API REST o le librerie client.
Job di query
Le seguenti quote si applicano ai job di query creati in modo automatico eseguendo query interattive, query pianificate e job inviate utilizzando i metodi API jobs.query
e di tipo jobs.insert
:
Quota | Predefinito | Note |
---|---|---|
Utilizzo query giornaliero | Illimitato | Non esiste un limite al numero di byte che possono essere elaborati dalle query in un progetto. Visualizza la quota nella console Google Cloud |
Utilizzo delle query al giorno per utente | Illimitato | Non c'è limite al numero di byte che le query di un utente possono
elaborare ogni giorno. Visualizza la quota nella console Google Cloud |
Byte di query per regioni federate Cloud SQL al giorno | 1 TB | Se la
località di elaborazione delle query in BigQuery e la
località dell'istanza Cloud SQL sono diverse, la query
è composta da
query su più aree geografiche. Il tuo progetto può eseguire fino a 1 TB di query tra aree geografiche al giorno. Vedi
Query federate
Cloud SQL. Visualizza la quota nella console Google Cloud |
Byte trasferiti cross-cloud al giorno | 1 TB |
Puoi trasferire fino a 1 TB di dati al giorno da un bucket Amazon S3 o da Azure Blob Storage. Per maggiori informazioni, consulta la pagina
Trasferimento cross-cloud
da Amazon S3 e Azure.
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano ai job di query creati in modo automatico eseguendo query interattive, query pianificate e job inviate utilizzando i metodi API jobs.query
e di tipo jobs.insert
:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query interattive simultanee | 100 query |
Il tuo progetto può eseguire fino a 100 query interattive simultanee.
Le query con risultati restituiti dalla
cache delle query vengono conteggiate
nella quota di durata specificata per BigQuery per determinare che si tratta di un successo della cache. Le query di prova non vengono conteggiate per questo limite. Puoi specificare una query di prova utilizzando il flag --dry_run . Per informazioni sulle strategie per rimanere entro questo limite, consulta la sezione Risolvere gli errori di quota.
Un approccio per mitigare questi errori è abilitare le coda di query (anteprima). Le code di query
offrono un limite di contemporaneità dinamico e la coda di massimo 1000
query interattive oltre a quelle in esecuzione.
|
Numero massimo di query interattive in coda | 1000 query | Se le coda di query (anteprima) sono abilitate, il tuo progetto può mettere in coda fino a 1000 query interattive. Le query interattive aggiuntive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query batch simultanee | 10 query | Il tuo progetto può eseguire fino a 10 query in batch simultanee. |
Numero massimo di query batch in coda | 20.000 query | Il tuo progetto può mettere in coda fino a 20.000 query in batch. Le query batch aggiuntive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query interattive simultanee rispetto alle origini dati esterne di Cloud Bigtable | 16 query | Il tuo progetto può eseguire fino a sedici query in parallelo su un'origine dati esterna di Bigtable. |
Numero massimo di query in parallelo che contengono funzioni remote | 10 query | Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto. |
Numero massimo di query con più istruzioni simultanee | 1000 query con più dichiarazioni | Il tuo progetto può eseguire fino a 1000 query multi-istruzione simultanee. |
Numero massimo di query SQL precedente in parallelo che contengono funzioni definite dall'utente | 6 query | Il tuo progetto può eseguire fino a sei query SQL precedente in parallelo con funzioni definite dall'utente (UDF). Questo limite include le query interattive e batch. Anche le query interattive che contengono funzioni definite dall'utente vengono conteggiate per il limite simultaneo di query interattive. Questo limite non si applica alle query GoogleSQL. |
Limite di dimensione delle query giornaliere | Illimitato | Per impostazione predefinita, non esiste un limite giornaliero per le dimensioni delle query. Tuttavia, puoi impostare limiti per la quantità di dati su cui gli utenti possono eseguire query creando quote personalizzate per controllare l'utilizzo delle query al giorno o l'utilizzo delle query al giorno per utente. |
Limite giornaliero di aggiornamento delle tabelle di destinazione | Consulta la pagina Numero massimo di operazioni con tabella al giorno. |
Gli aggiornamenti alle tabelle di destinazione in un job di query vengono conteggiati per il limite relativo al numero massimo di operazioni di tabella giornaliere per le tabelle di destinazione. Gli aggiornamenti delle tabelle di destinazione includono le operazioni di aggiunta e sovrascrittura eseguite dalle query in esecuzione tramite la console Google Cloud, lo strumento a riga di comando bq o i metodi API jobs.insert di tipo jobs.query e di tipo query.
|
Limite di tempo di esecuzione per query/query con più dichiarazioni | 6 ore | Una query o una query multi-istruzione può essere eseguita per un massimo di sei ore, dopodiché non riesce. Tuttavia, a volte vengono eseguiti nuovi tentativi di esecuzione delle query. Una query può essere provata fino a tre volte e ogni tentativo può essere eseguito per un massimo di sei ore. Di conseguenza, è possibile che una query abbia un tempo di esecuzione totale superiore a sei ore. |
Numero massimo di risorse a cui viene fatto riferimento per query | 1.000 risorse |
Una query può fare riferimento a un massimo di 1000 totali di tabelle univoche, visualizzazioni uniche,
funzioni definite dall'utente (UDF) univoche e funzioni di tabella univoche dopo l'espansione completa. Questo limite include quanto segue:
|
Lunghezza massima delle query SQL precedente non risolte | 256 kB |
Una query SQL precedente non risolta può contenere fino a 256 kB. Se
la tua query è più lunga, riceverai il seguente errore: The query
is too large.
Per rispettare questo limite, ti consigliamo di sostituire gli array o gli elenchi di grandi dimensioni con
parametri di ricerca.
|
Lunghezza massima della query GoogleSQL irrisolta | 1 MB |
Una query GoogleSQL non risolta può contenere fino a 1 MB. Se
la tua query è più lunga, riceverai il seguente errore: The query is too
large.
Per rispettare questo limite, ti consigliamo di sostituire gli array o gli elenchi di grandi dimensioni con parametri di ricerca.
|
Lunghezza massima delle query legacy e GoogleSQL risolte | 12 MB | Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query. |
Numero massimo di parametri di ricerca GoogleSQL | 10.000 parametri | Una query Google SQL può avere fino a 10.000 parametri. |
Dimensione massima richiesta | 10 MB | La dimensione della richiesta può essere fino a 10 MB, comprese proprietà aggiuntive come i parametri di ricerca. |
Dimensione massima della risposta | 10 GB compressi | Le dimensioni variano in base ai rapporti di compressione dei dati. Le dimensioni effettive della risposta potrebbero essere notevolmente superiori a 10 GB. La dimensione massima della risposta è illimitata quando scrivi risultati di query di grandi dimensioni in una tabella di destinazione. |
Dimensione massima del risultato della query BigQuery Omni | 20 GiB non compresso | La dimensione massima del risultato è 20 byte logici durante l'esecuzione di query sui dati Azure o AWS. Per saperne di più, consulta Limitazioni di BigQuery Omni. |
Dimensione massima riga | 100 MB | La dimensione massima per la riga è approssimativa, perché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query. |
Numero massimo di colonne in una tabella, un risultato di query o una definizione di visualizzazione | 10.000 colonne | Una tabella, un risultato di query o una definizione di visualizzazione possono avere fino a 10.000 colonne. |
Dimensione del risultato della query BigQuery Omni | 1 TB | Le dimensioni totali dei risultati di una query per un progetto sono di 1 TB al giorno.
Per saperne di più, consulta le limitazioni di BigQuery Omni. |
Numero massimo di slot contemporanei per prezzi on demand | 2000 slot | Con i prezzi on demand, il tuo progetto può avere fino a 2000 slot contemporanei. Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe consentire il bursting oltre tale limite per accelerare le query. Per verificare quanti slot stai utilizzando, consulta la pagina relativa al monitoraggio di BigQuery tramite Cloud Monitoring. |
Utilizzo massimo della CPU per dati scansionati per i prezzi on demand | 256 secondi di CPU per MiB scansionati |
Con i prezzi on demand, la tua query può utilizzare fino a circa 256 secondi di CPU per MiB di dati scansionati. Se la query utilizza una quantità eccessiva di CPU per la quantità di dati in fase di elaborazione, viene generata un errore billingTierLimitExceeded .
Per saperne di più,
consulta
billingTierLimitExceeded.
|
Mutazioni della tabella delle transazioni con più dichiarazioni | 100 tabelle | Una transazione può mutare i dati in un massimo di 100 tabelle. |
Modifiche alla partizione di transazione con più dichiarazioni | 100.000 modifiche alle partizioni | Una transazione può eseguire al massimo 100.000 modifiche alle partizioni. |
Anche se le query pianificate utilizzano funzionalità di BigQuery Data Transfer Service, le query pianificate non sono trasferimenti e non sono soggette ai limiti di job di caricamento.
Job di esportazione
I seguenti limiti si applicano ai job che
esportano dati
da BigQuery utilizzando lo strumento a riga di comando bq
, la console Google Cloud
o il metodo API jobs.insert
di tipo esportazione.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte esportati al giorno | 50 TB |
Puoi esportare gratuitamente fino a 50 TB(Tebibyte) di dati al giorno da un progetto utilizzando il pool di slot condiviso. Puoi configurare un criterio di avviso di Cloud Monitoring
che fornisce notifiche sul numero di byte esportati.
Per esportare più di 50 TB(Tebibyte) di dati al giorno, esegui una delle seguenti operazioni:
|
Numero massimo di esportazioni al giorno | 100.000 esportazioni |
Puoi eseguire fino a 100.000 esportazioni al giorno in un progetto.
Per eseguire più di 100.000 esportazioni al giorno, esegui una delle seguenti operazioni:
|
Dimensione massima della tabella esportata in un singolo file | 1 GB | Puoi esportare fino a 1 GB di dati tabella in un singolo file. Per esportare più di 1 GB di dati, utilizza un carattere jolly per esportare i dati in più file. Quando esporti i dati in più file, le dimensioni dei file variano. In alcuni casi, le dimensioni dei file di output superano i 1 GB. |
URI con caratteri jolly per esportazione | 500 URI | Un'esportazione può avere fino a 500 URI di caratteri jolly. |
Per ulteriori informazioni sulla visualizzazione dell'utilizzo attuale dei job di esportazione, vedi Visualizzare l'utilizzo attuale delle quote.
Job di caricamento
I seguenti limiti si applicano quando carichi dati in BigQuery, utilizzando la console Google Cloud, lo strumento a riga di comando bq
o il metodo API jobs.insert
di tipo load.
Limite | Predefinito | Note |
---|---|---|
Carica job per tabella al giorno | I job di caricamento, inclusi i job di caricamento non riuscito, vengono conteggiati per il limite del numero di operazioni di tabella giornaliere per la tabella di destinazione. Per informazioni sui limiti al numero di operazioni delle tabelle al giorno per tabelle standard e tabelle partizionate, consulta Tabelle. | |
Job di caricamento al giorno | 100.000 posti di lavoro | Il tuo progetto può eseguire fino a 100.000 job di caricamento al giorno. I job di caricamento non riusciti vengono conteggiati per questo limite. |
Numero massimo di colonne per tabella | 10.000 colonne | Una tabella può avere fino a 10.000 colonne. |
Dimensione massima per job di caricamento | 15 TB | La dimensione totale di tutti i file di input CSV, JSON, Avro, Parquet e ORC può essere fino a 15 TB. |
Numero massimo di URI di origine nella configurazione del job | 10.000 URI | Una configurazione del job può avere fino a 10.000 URI di origine. |
Numero massimo di file per job di caricamento | 10.000.000 di file | Un job di caricamento può avere fino a 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 file | Un job di caricamento può leggere da un bucket Cloud Storage fino a circa 60.000.000 di file. |
Limite del tempo di esecuzione del job di caricamento | 6 ore | Un job di caricamento non riesce se viene eseguito per più di sei ore. |
Avro: dimensioni massime per i blocchi di dati dei file | 16 MB | La dimensione massima consentita per i blocchi di dati del file Avro è 16 MB. |
CSV: dimensione massima cella | 100 MB | Le celle CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensione massima riga | 100 MB | Le righe in formato CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensione massima dei file - compressa | 4 GB | Le dimensioni massime per un file CSV compresso sono di 4 GB. |
CSV: dimensione massima dei file non compresso | 5 TB | Le dimensioni massime per un file CSV non compresso sono pari a 5 TB. |
JSON: dimensione massima riga | 100 MB | Le righe JSON possono avere una dimensione massima di 100 MB. |
JSON: dimensione massima del file compressa | 4 GB | Le dimensioni massime per un file JSON compresso sono di 4 GB. |
JSON: dimensione massima dei file non compresso | 5 TB | Le dimensioni massime per un file JSON non compresso sono di 5 TB. |
Se superi regolarmente i limiti del job di caricamento a causa di aggiornamenti frequenti, valuta la possibilità di trasmettere i flussi di dati in BigQuery.
Per informazioni sulla visualizzazione dell'utilizzo attuale del job di caricamento, vedi Visualizzare l'utilizzo attuale delle quote.
Considerazioni sulla quota di carico di lavoro di BigQuery Data Transfer Service
I job di carico creati dai trasferimenti di BigQuery Data Transfer Service sono inclusi nelle quote di BigQuery sui job di caricamento. È importante considerare quanti trasferimenti si abilitano in ciascun progetto per evitare che trasferimenti e altri job di caricamento restituiscano errori quotaExceeded
.
Puoi utilizzare la seguente equazione per stimare il numero di job di caricamento richiesti dai tuoi trasferimenti:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
Dove:
Number of transfers
è il numero di configurazioni di trasferimento che abiliti nel tuo progetto.Number of tables
è il numero di tabelle create da ogni tipo di trasferimento specifico. Il numero di tabelle varia in base al tipo di trasferimento:- I trasferimenti di Campaign Manager creano circa 25 tabelle.
- I trasferimenti di Google Ads creano circa 60 tabelle.
- I trasferimenti di Google Ad Manager creano circa 40 tabelle.
- I trasferimenti di Google Play creano circa 25 tabelle.
- I trasferimenti di Search Ads 360 creano circa 50 tabelle.
- I trasferimenti di YouTube creano circa 50 tabelle.
Schedule frequency
indica la frequenza di esecuzione del trasferimento. Per ogni tipo di trasferimento, vengono fornite le programmazioni di esecuzione:Refresh window
è il numero di giorni da includere nel trasferimento dei dati. Se immetti 1, il backfill giornaliero non viene eseguito.
Job di copia
I seguenti limiti si applicano ai job BigQuery per la copia di tabelle, inclusi i job che creano una copia, clonazione o snapshot di una tabella, un clone di una tabella o uno snapshot di tabella standard.
I limiti si applicano ai job creati utilizzando la console Google Cloud, lo strumento a riga di comando bq
o il metodo jobs.insert
di tipo copia.
I job di copia vengono conteggiati per questi limiti, indipendentemente dal fatto che abbiano esito positivo o negativo.
Limite | Predefinito | Note |
---|---|---|
Copia job per tabella di destinazione al giorno | Vedi Operazioni della tabella al giorno. | |
Copia job al giorno | 100.000 posti di lavoro | Il tuo progetto può eseguire fino a 100.000 job di copia al giorno. |
Job di copia tra regioni per tabella di destinazione al giorno | 100 job | Il tuo progetto può eseguire fino a 100 job di copia tra regioni per una tabella di destinazione al giorno. |
Job di copia tra regioni al giorno | 2000 posti di lavoro | Il tuo progetto può eseguire fino a 2000 job di copia tra regioni al giorno. |
Numero di tabelle di origine da copiare | 1200 tabelle di origine | Puoi copiare da un massimo di 1200 tabelle di origine per job di copia. |
Per informazioni sulla visualizzazione dell'utilizzo corrente del job di copia, vedi Job di copia - Visualizza l'utilizzo attuale della quota.
I seguenti limiti si applicano alla copia dei set di dati:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di tabelle nel set di dati di origine | 20.000 tabelle | Un set di dati di origine può contenere fino a 20.000 tabelle. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione nella stessa regione | 20.000 tabelle | Il tuo progetto può copiare 20.000 tabelle per esecuzione su un set di dati di destinazione che si trova nella stessa regione. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione in un'altra regione | 1000 tabelle | Il tuo progetto può copiare 1000 tabelle per esecuzione in un set di dati di destinazione che si trova in un'altra area geografica. Ad esempio, se configuri una copia tra regioni di un set di dati con 8000 tabelle, BigQuery Data Transfer Service crea automaticamente otto esecuzioni in sequenza. Nella prima esecuzione vengono copiate 1000 tabelle. 24 ore dopo, la seconda esecuzione copia 1000 tabelle. Questo processo continua fino a quando tutte le tabelle nel set di dati vengono copiate, fino a un massimo di 20.000 per set di dati. |
Prenotazioni
Le seguenti quote si applicano alle prenotazioni:
Quota | Predefinito | Note |
---|---|---|
Numero totale di slot per la regione UE | 2000 slot |
Il numero massimo di slot BigQuery che puoi acquistare nell'UE con più regioni utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per la regione USA | 4000 slot |
Il numero massimo di slot BigQuery che puoi acquistare
negli Stati Uniti in più aree geografiche utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per le seguenti regioni: asia-northeast1, asia-northeast3, australia-southeast1, europe-west2 e nordamerica-northeast1 | 1000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per le regioni Omni (aws-us-east-1 e azure-eastus2) | 100 slot |
Il numero massimo di slot BigQuery che puoi acquistare nelle regioni Omni utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per tutte le altre regioni | 500 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ogni altra regione utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Alle prenotazioni si applicano i limiti seguenti:
Limite | Valore | Note |
---|---|---|
Numero di progetti di amministrazione per le prenotazioni di slot | 5 progetti per organizzazione | Il numero massimo di progetti all'interno di un'organizzazione che possono contenere una prenotazione o un impegno attivo per gli slot per una località o regione specifica. |
Set di dati
I seguenti limiti si applicano ai set di dati di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di set di dati | Illimitato | Non esiste alcun limite al numero di set di dati che un progetto può contenere. |
Numero di tabelle per set di dati | Illimitato | Quando utilizzi una chiamata API, le prestazioni dell'enumerazione rallentano man mano che ti avvicini a 50.000 tabelle in un set di dati. La console Google Cloud può mostrare fino a 50.000 tabelle per ogni set di dati. |
Numero di risorse autorizzate nell'elencocontrollo dell'accessoo di un set di dati | 2500 risorse | L'elenco di controllo dell'accesso di un set di dati può avere fino a 2500 risorse autorizzate totali, tra cui viste autorizzate, set di dati autorizzati e funzioni autorizzate. Se superi questo limite a causa di un numero elevato di visualizzazioni autorizzate, valuta la possibilità di raggruppare le viste in set di dati autorizzati. |
Numero di operazioni di aggiornamento del set di dati per set di dati ogni 10 secondi | 5 operazioni |
Il tuo progetto può eseguire fino a cinque operazioni di aggiornamento del set di dati ogni 10 secondi.
Il limite di aggiornamento del set di dati include tutte le operazioni di aggiornamento dei metadati eseguite da quanto segue:
|
Lunghezza massima della descrizione di un set di dati | 16.384 caratteri | Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri. |
Tabelle
Tutte le tabelle
I limiti seguenti si applicano a tutte le tabelle BigQuery.
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima della descrizione di una colonna | 1024 caratteri | Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 1024 caratteri. |
Profondità massima dei record nidificati | 15 livelli |
Le colonne di tipo RECORD possono contenere tipi RECORD nidificati, chiamati anche record secondari. Il limite massimo di profondità nidificato è di 15 livelli.
Questo limite è indipendente dal fatto che i record siano scalari o basati su array (ripetuti).
|
Tabelle standard
I seguenti limiti si applicano alle tabelle standard (integrate) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Modifiche alle tabelle al giorno | 1500 modifiche |
Il tuo progetto può apportare fino a 1500 modifiche di tabella al giorno, indipendentemente dal fatto che la modifica aggiunga dati, aggiorni i dati o tronca la tabella. Questo limite include il totale combinato di tutti i job di caricamento, i job di copia e i job di query che aggiungono o sovrascrivono una tabella di destinazione o che utilizzano un'istruzione DML, Le istruzioni DML vengono conteggiate per il numero di modifiche alle tabelle al giorno, ma non sono limitate da questo limite. Per ulteriori informazioni sui limiti DML, consulta Istruzioni per la lingua per la manipolazione dei dati. |
Frequenza massima di operazioni di aggiornamento dei metadati per tabella | 5 operazioni ogni 10 secondi |
Il tuo progetto può eseguire fino a cinque operazioni di aggiornamento dei metadati di una tabella ogni 10 secondi per tabella. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati della tabella, eseguite da:
Se superi questo limite, riceverai un messaggio di errore come Per identificare le operazioni che incidono su questo limite, puoi esaminare i log. |
Numero massimo di colonne per tabella | 10.000 colonne | Ogni tabella, risultato di query o definizione di vista può avere fino a 10.000 colonne. |
Tabelle esterne
I seguenti limiti si applicano alle tabelle BigQuery con dati archiviati in Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di URI di origine per tabella esterna | 10.000 URI | Ogni tabella esterna può avere fino a 10.000 URI di origine. |
Numero massimo di file per tabella esterna | 10.000.000 di file | Una tabella esterna può contenere fino a 10 milioni di file, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Dimensione massima dei dati archiviati in Cloud Storage per tabella esterna | 600 TB | Una tabella esterna può avere fino a 600 terabyte in tutti i file di input. Questo limite si applica alle dimensioni dei file archiviate in Cloud Storage; queste dimensioni non corrispondono a quelle utilizzate nella formula per la determinazione dei prezzi della query. Per le tabelle partizionate esternamente, il limite viene applicato dopo l' eliminazione della partizione. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 file | Una tabella esterna può fare riferimento a un bucket Cloud Storage contenente circa 60.000.000 di file. Per le tabelle partizionate esternamente, questo limite viene applicato prima dell' eliminazione delle partizioni. |
Tabelle partizionate
I seguenti limiti si applicano alle tabelle partizionate di BigQuery.
I limiti di partizionamento si applicano al totale combinato di tutti i job di caricamento, dei job di copia e dei job di query che aggiungono o sovrascrivono una partizione di destinazione o che usano un'istruzione DML DELETE
, INSERT
, MERGE
,TRUNCATE TABLE
o UPDATE
per influire sui dati in una tabella.
Le istruzioni DML vengono conteggiate ai fini dei limiti di partizione, ma non sono limitate da queste. Per ulteriori informazioni sui limiti DML, consulta le istruzioni per la lingua per la manipolazione dei dati.
Un singolo job può interessare più partizioni. Ad esempio, un'istruzione DML può aggiornare i dati in più partizioni (sia per le tabelle partizionate che per quelle partite). I job di query e i job di caricamento possono anche scrivere su più partizioni, ma solo per le tabelle partizionate.
BigQuery utilizza il numero di partizioni interessate da un job per determinare quanto del limite occupa il job. Gli inserimenti di flussi di dati non influiscono su questo limite.
Per informazioni sulle strategie per rimanere entro i limiti per le tabelle partizionate, consulta Risoluzione dei problemi relativi agli errori di quota.
Limite | Predefinito | Note |
---|---|---|
Numero di partizioni per tabella partizionata | 4000 partizioni | Ogni tabella partizionata può avere fino a 4000 partizioni. Se superi questo limite, valuta l'utilizzo del clustering in aggiunta o come partizione al partizionamento. |
Numero di partizioni modificate da un singolo job | 4000 partizioni | Ogni operazione del job (query o caricamento) può interessare fino a 4000 partizioni. BigQuery rifiuta qualsiasi job di query o caricamento che tenta di modificare più di 4000 partizioni. |
Numero di modifiche alle partizioni per tabella partizionata per data di importazione al giorno | 5000 modifiche | Il tuo progetto può apportare fino a 5000 modifiche alle partizioni al giorno, indipendentemente dal fatto che la modifica aggiunga dati, aggiorni i dati o tronca una tabella partizionata per data di importazione. Le istruzioni DML vengono conteggiate per il numero di modifiche alle partizioni al giorno, ma non sono limitate da questo limite. Per ulteriori informazioni sui limiti DML, consulta Istruzioni per la lingua per la manipolazione dei dati. |
Numero di modifiche alle partizioni al giorno per tabella partizionata per colonna | 30.000 modifiche |
Il tuo progetto può apportare fino a 30.000 modifiche alle partizioni al giorno per una tabella partizionata per colonna. |
Numero di modifiche ogni 10 secondi per tabella | 50 modifiche | Il tuo progetto può eseguire fino a 50 modifiche per tabella partizionata ogni 10 secondi. |
Numero di possibili intervalli per il partizionamento degli intervalli | 10.000 intervalli | Una tabella partizionata da intervalli può avere fino a 10.000 intervalli possibili. Questo limite si applica alla specifica della partizione quando crei la tabella. Dopo aver creato la tabella, il limite si applica anche al numero effettivo di partizioni. |
Cloni di tabelle
I seguenti limiti si applicano ai cloni di tabelle di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di cloni e snapshot in una catena | 3 cloni o snapshot delle tabelle | I cloni e gli snapshot in combinazione sono limitati a 3. Quando cloni o crei snapshot di una tabella di base, puoi clonare o creare snapshot del risultato solo altre due volte; il tentativo di clonazione o creazione di uno snapshot del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e creare il clone C dello snapshot B. Per creare duplicati duplicati del clone o dello snapshot di terzo livello, utilizza invece un'operazione di copia. |
Numero massimo di cloni e snapshot per una tabella di base | 1000 cloni o snapshot delle tabelle | Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Snapshot tabella
I seguenti limiti si applicano agli istantanea della tabella BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di job di snapshot delle tabelle simultanei | 100 job | Il tuo progetto può eseguire fino a 100 job di snapshot delle tabelle simultanei. |
Numero massimo di job di snapshot delle tabelle al giorno | 50.000 posti di lavoro | Il tuo progetto può eseguire fino a 50.000 job di snapshot delle tabelle al giorno. |
Numero massimo di job di snapshot delle tabelle per tabella al giorno | 50 job | Il tuo progetto può eseguire fino a 50 job di snapshot per tabella al giorno. |
Numero massimo di snapshot in una catena. | 5 aggiornamenti | Il tuo progetto può aggiornare i metadati di uno snapshot della tabella fino a cinque volte ogni 10 secondi. |
Numero massimo di cloni e snapshot in una catena | 3 cloni o snapshot delle tabelle | I cloni e gli snapshot in combinazione sono limitati a 3. Quando cloni o crei snapshot di una tabella di base, puoi clonare o creare snapshot del risultato solo altre due volte; il tentativo di clonazione o creazione di uno snapshot del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e creare il clone C dello snapshot B. Per creare duplicati duplicati del clone o dello snapshot di terzo livello, utilizza invece un'operazione di copia. |
Numero massimo di cloni e snapshot per una tabella di base | 1000 cloni o snapshot delle tabelle | Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Visualizzazioni
Le seguenti quote e limiti si applicano alle viste e alle viste materializzate.
Viste logiche
I seguenti limiti si applicano alle visualizzazioni standard di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di livelli di viste nidificate | 16 livelli |
BigQuery supporta fino a 16 livelli di viste nidificate. Se sono presenti più di 16 livelli, viene restituito un errore INVALID_INPUT .
|
Lunghezza massima di una query GoogleSQL utilizzata per definire una vista | 256.000 caratteri | Il testo di una query GoogleSQL che definisce una vista può contenere fino a 256.000 caratteri. |
Numero massimo di visualizzazioni autorizzate per set di dati | Consulta Set di dati. |
Viste materializzate
I seguenti limiti si applicano alle viste materializzate di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Riferimenti della tabella di base (stesso set di dati) | 20 visualizzazioni materializzate | È possibile fare riferimento a ogni tabella di base fino a 20 viste materializzate dello stesso set di dati. |
Riferimenti della tabella di base (stesso progetto) | 100 visualizzazioni materializzate | È possibile fare riferimento a ogni tabella di base fino a 100 viste materializzate dello stesso progetto. |
Riferimenti della tabella di base (intera organizzazione) | 500 visualizzazioni materializzate | È possibile fare riferimento a ogni tabella di base fino a 500 viste materializzate dell'intera organizzazione. |
Numero massimo di visualizzazioni autorizzate per set di dati | Consulta Set di dati. |
Indici
Agli indici BigQuery si applicano i limiti seguenti:
Limite | Predefinito | Note |
---|---|---|
Numero di istruzioni DDL INDEX INDEX per progetto per regione al giorno | 500 operazioni | Il tuo progetto può emettere fino a 500 operazioni DDL INDEX ogni giorno all'interno di una regione. |
Numero di istruzioni DDL di indice per tabella al giorno | 20 operazioni | Il tuo progetto può eseguire fino a 20 operazioni DDL INDEX o DROP INDEX DDL per tabella al giorno. |
Dimensione totale massima dei dati della tabella per organizzazione consentita per la creazione di indici che non viene eseguita in una prenotazione | 100 TB in più regioni; 20 TB in tutte le altre regioni |
Puoi creare un indice per una tabella se la dimensione complessiva delle tabelle con indici nella tua organizzazione è inferiore al limite della tua regione: 100 TB per le regioni multiple US e EU e 20 TB per tutte le altre. Se i job di gestione dell'indice vengono eseguiti nella tua prenotazione, questo limite non viene applicato.
|
Routine
Le seguenti quote e limiti si applicano alle routine.
Funzioni definite dall'utente
I seguenti limiti si applicano alle funzioni definite dall'utente (UDF) temporanee e permanenti nelle query GoogleSQL.
Limite | Predefinito | Note |
---|---|---|
Output massimo per riga | 5 MB | La quantità massima di dati che può generare l'UDF JavaScript durante l'elaborazione di una singola riga è di circa 5 MB. |
Numero massimo di query SQL precedente simultanee con JavaScript UDF | 6 query | Il tuo progetto può avere fino a sei query SQL precedente in parallelo che contengono funzioni definite dall'utente in JavaScript. Questo limite include sia le query interattive che batch. Anche le query interattive che contengono funzioni definite dall'utente vengono conteggiate ai fini del limite di frequenza per le query interattive in parallelo. Questo limite non si applica alle query di Google SQL. |
Numero massimo di risorse UDF JavaScript per query | 50 risorse | Un job di query può avere fino a 50 risorse UDF JavaScript, come blob di codice inline o file esterni. |
Dimensione massima del blob di codice inline | 32 kB | I blob di codice inline di una funzione definita dall'utente possono avere una dimensione massima di 32 kB. |
Dimensione massima di ogni risorsa di codice esterno | 1 MB | La dimensione massima di ogni risorsa di codice JavaScript è un MB. |
I seguenti limiti si applicano agli UDF permanenti:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una UDF | 256 caratteri | Un nome UDF può contenere fino a 256 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una funzione definita dall'utente può avere fino a 256 argomenti. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome di un argomento UDF può contenere fino a 128 caratteri. |
Profondità massima di una catena di riferimento UDF | 16 riferimenti | Una catena di riferimenti UDF può contenere fino a 16 riferimenti. |
Profondità massima di un argomento o di un output di tipo STRUCT
|
15 livelli |
Un argomento o un output di tipo UDF STRUCT può avere una profondità massima di 15 livelli.
|
Numero massimo di campi in STRUCT argomenti di tipo o output per UDF
|
1024 campi |
Una funzione definita dall'utente può avere fino a 1024 campi in argomenti di tipo STRUCT e output.
|
Numero massimo di librerie JavaScript in un'istruzione CREATE FUNCTION
|
50 biblioteche |
Un'istruzione CREATE FUNCTION può avere fino a 50 librerie JavaScript.
|
Lunghezza massima dei percorsi della libreria JavaScript inclusi | 5000 caratteri | Il percorso di una libreria JavaScript inclusa in una funzione definita dall'utente può contenere fino a 5000 caratteri. |
Frequenza di aggiornamento massima per funzione definita dall'utente ogni 10 secondi | 5 aggiornamenti | Il tuo progetto può aggiornare una funzione definita dall'utente fino a cinque volte ogni 10 secondi. |
Numero massimo di UDF autorizzate per set di dati | Consulta Set di dati. |
Funzioni remote
I seguenti limiti si applicano alle funzioni remote in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query in parallelo che contengono funzioni remote | 10 query | Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto. |
Dimensione massima input | 5 MB | La dimensione totale massima di tutti gli argomenti di input da una singola riga è di 5 MB. |
Limite dimensioni risposta HTTP (Cloud Functions (1a generazione)) | 10 MB | Il corpo della risposta HTTP dalla funzione Cloud Functions di 1a generazione è fino a 10 MB. Il superamento di questo valore causa errori nella query. |
Limite dimensioni risposta HTTP (Cloud Functions (2nd gen) o Cloud Run) | 15 MB | Il corpo della risposta HTTP da Cloud Function di 2ª generazione o Cloud Run ha una dimensione massima di 15 MB. Il superamento di questo valore provoca errori della query. |
Limite di tempo di chiamata HTTP massimo (Cloud Functions di 1a generazione) | 9 minuti | Puoi impostare un tuo limite di tempo per una funzione Cloud Functions (1st gen) per una singola chiamata HTTP, ma il limite massimo è di 9 minuti. Il superamento del limite di tempo impostato per la tua funzione Cloud Functions di 1a generazione può causare errori di chiamata HTTP e query non riuscite dopo un numero limitato di nuovi tentativi. |
Limite di tempo di chiamata HTTP (Cloud Functions di seconda generazione o Cloud Run) | 20 minuti | Il limite di tempo per una singola chiamata HTTP alla tua funzione Cloud Functions di seconda generazione o Cloud Run. Il superamento di questo valore può causare errori delle chiamate HTTP e delle query dopo un numero limitato di nuovi tentativi. |
Funzioni tabella
I seguenti limiti si applicano alle funzioni della tabella di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una funzione di tabella | 256 caratteri | Il nome di una funzione tabella può contenere fino a 256 caratteri. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome di un argomento della funzione tabella può contenere fino a 128 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una funzione tabella può avere fino a 256 argomenti. |
Profondità massima della catena di riferimento di una funzione tabella | 16 riferimenti | Una catena di riferimento di funzioni di tabella può contenere fino a 16 riferimenti di profondità. |
Profondità massima dell'argomento o output di tipo STRUCT
|
15 livelli |
Un argomento STRUCT per una funzione di tabella può avere una profondità massima di 15 livelli. Analogamente, un record STRUCT nell'output di una funzione
della tabella può avere una profondità massima di 15 livelli.
|
Numero massimo di campi nell'argomento o nella tabella di ritorno di tipo STRUCT per funzione tabella
|
1024 campi |
Un argomento STRUCT per una funzione di tabella può avere fino a 1024 campi.
Analogamente, un record STRUCT nell'output di una funzione della tabella può avere fino a 1024 campi.
|
Numero massimo di colonne nella tabella di ritorno | 1024 colonne | Una tabella restituita da una funzione tabella può avere fino a 1024 colonne. |
Lunghezza massima dei nomi delle colonne della tabella di reso | 128 caratteri | I nomi delle colonne nelle tabelle restituite possono contenere fino a 128 caratteri. |
Numero massimo di aggiornamenti per funzione tabella ogni 10 secondi | 5 aggiornamenti | Il tuo progetto può aggiornare una funzione tabella fino a cinque volte ogni 10 secondi. |
stored procedure per Apache Spark
I seguenti limiti si applicano a BigQuery stored procedure per Apache Spark:
Limite | Predefinito | Notes |
---|---|---|
Numero massimo di query di stored procedure simultanee | 50 | Puoi eseguire fino a 50 query di stored procedure simultanee per ogni progetto. |
Numero massimo di CPU simultanee | 12.000 | Puoi utilizzare fino a 12.000 CPU simultanee per ogni progetto.
Puoi utilizzare fino a 2400 CPU simultanee per ogni località,per ogni progetto, tranne che nelle seguenti località:
In queste località puoi utilizzare fino a 500 CPU contemporanee per ogni località per ogni progetto. Se esegui query simultanee in una località a più aree geografiche e in una singola area geografica che si trova nella stessa area geografica, le query potrebbero utilizzare la stessa quota di CPU simultanee. |
Dimensione totale massima dei dischi permanenti standard | 204,8 TB | Puoi utilizzare fino a 204,8 TB di dischi permanenti standard per ogni località per ogni progetto. Se esegui query simultanee in una località a più aree geografiche e in una singola area geografica che si trova nella stessa area geografica, le query potrebbero utilizzare la stessa quota di disco permanente standard. |
Data Manipulation Language (DML)
I seguenti limiti si applicano alle istruzioni DML (Data Manipulation Language) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Istruzioni DML al giorno | Illimitato |
Le istruzioni DML vengono conteggiate per il numero di modifiche alla tabella al giorno (o per il numero di modifiche alle tabelle partizionate al giorno per le tabelle partizionate).
Tuttavia, il numero di istruzioni DML che il tuo progetto può essere eseguito al giorno è illimitato e non è vincolato dalla quota di modifiche al giorno (o dalla quota di modifiche partizionate).
Dopo aver esaurito il limite giornaliero di modifiche delle tabelle (o modifiche apportate alle tabelle partizionate), riceverai errori per le modifiche non DML come i job di caricamento o i job di copia, ma potrai continuare a eseguire le istruzioni DML senza ricevere errori. Ad esempio, supponiamo che esista una tabella partizionata per data di importazione denominata mytable . Se esegui 3000 job di copia che aggiungono dati a mytable$20210720 e 2000 job DML query che utilizzano INSERT per aggiungere dati a mytable$20210720 , raggiungerai il limite giornaliero di modifiche alle partizioni. Una volta raggiunto questo limite,
qualsiasi altro job di copia non riuscirà, ma i job di query basati su DML, come
DELETE , INSERT , MERGE ,
TRUNCATE TABLE o UPDATE , continueranno
ad avere esito positivo. Le istruzioni DML hanno a disposizione le seguenti
limitazioni.
|
Istruzioni DML mutanti in parallelo per tabella | 2 estratti conto |
BigQuery esegue fino a due istruzioni DML mutanti in contemporanea (UPDATE , DELETE e MERGE ) per ogni tabella. Ulteriori istruzioni DML mutanti per una tabella sono in coda.
|
Istruzioni DML mutanti in coda per tabella | 20 estratti conto | Una tabella può avere fino a 20 istruzioni DML mutanti in coda in attesa di esecuzione. Se invii ulteriori istruzioni DML mutanti per la tabella, tali istruzioni non andranno a buon fine. |
Tempo massimo in coda per l'istruzione DML | 6 ore | Un'istruzione DML con priorità interattiva può attendere fino a sei ore in coda. Se non viene eseguita dopo sei ore, l'istruzione non riesce. |
Per maggiori informazioni sulla modifica delle istruzioni DML, consulta
INSERT
Contemporaneità DML e
UPDATE, DELETE, MERGE
Contemporaneità DML.
Query con più dichiarazioni
I seguenti limiti si applicano alle query con più istruzioni in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Limite di tempo cumulativo | 24 ore | Il limite di tempo cumulativo per una query con più dichiarazioni è di 24 ore. |
Limite di tempo per gli estratti conto | 6 ore | Il limite di tempo per una singola istruzione in una query con più istruzioni è di 6 ore. |
CTE ricorrenti nelle query
I limiti seguenti si applicano alle espressioni di tabella comuni ricorrenti in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Limite di iterazione | 500 iterazioni | Il CTE ricorsivo può eseguire questo numero di iterazioni. Se questo limite viene superato, viene generato un errore. Per aggirare i limiti di iterazione, consulta Risolvere gli errori di limite di iterazione. |
Sicurezza a livello di riga
I seguenti limiti si applicano ai criteri di accesso a livello di riga di BigQuery:
Limite | Predefinito | Notes |
---|---|---|
Numero massimo di criteri di accesso alle righe per tabella | Criteri 400 | Una tabella può avere fino a 400 criteri di accesso alle righe. |
Numero massimo di criteri di accesso alle righe per query | Criteri 6000 | Una query può accedere a un massimo di 6000 criteri di accesso alle righe. |
Numero massimo di istruzioni DDL CREATE / DROP per criterio per 10 secondi |
5 estratti conto |
Il tuo progetto può eseguire fino a cinque istruzioni CREATE o DROP per risorsa di criteri di accesso alle righe ogni 10 secondi.
|
DROP ALL ROW ACCESS POLICIES istruzioni per tabella ogni 10 secondi |
5 estratti conto |
Il tuo progetto può effettuare fino a cinque istruzioni DROP ALL ROW ACCESS POLICIES per tabella ogni 10 secondi.
|
Norme sui dati
I seguenti limiti si applicano al mascheramento dei dati dinamici a livello di colonna:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di criteri dei dati per tag di criteri. | 3 |
BigQuery ML
Tutte le quote e i limiti dei job di query si applicano ai job di query di Google SQL che utilizzano istruzioni e funzioni BigQuery. I seguenti limiti si applicano anche ai job CREATE MODEL
:
Limite | Predefinito | Note |
---|---|---|
CREATE MODEL query sull'istruzione ogni 48 ore per progetto
|
20.000 query sugli estratti conto | Alcuni modelli vengono addestrati utilizzando i servizi AI AI che hanno una propria gestione di risorse e quote. |
BI Engine
I limiti seguenti si applicano a BigQuery BI Engine.
Limite | Predefinito | Note |
---|---|---|
Dimensione massima della prenotazione per progetto per località (interfaccia SQL) | 250 GB | Si applica quando si utilizza BI Engine con strumenti di business intelligence (BI) diversi da Looker Studio.
Puoi richiedere un aumento della capacità di prenotazione massima per i tuoi progetti. Gli aumenti delle prenotazioni sono disponibili nella maggior parte delle aree geografiche e potrebbero richiedere da tre giorni a una settimana per essere elaborati. |
Dimensione massima della prenotazione per progetto per località (Looker Studio) | 100 GB | Si applica quando si utilizza BI Engine con Looker Studio. Questo limite non influisce sulle dimensioni delle tabelle su cui viene eseguita la query, perché BI Engine carica in memoria solo le colonne utilizzate nelle query, non l'intera tabella. |
Dimensione massima del modello dei dati per tabella (Looker Studio) | 10 GB | Si applica quando si utilizza BI Engine con Looker Studio. Se hai una prenotazione di 100 GB per progetto per località, BI Engine limita la prenotazione per tabella a 10 GB. Il resto della prenotazione disponibile viene utilizzato per le altre tabelle nel progetto. |
Partizioni massime per tabella (Looker Studio) | 500 partizioni | BI Engine per Looker Studio supporta fino a un massimo di 500 partizioni per tabella. |
Numero massimo di righe per query (Looker Studio) | 150 milioni | BI Engine per Looker Studio supporta fino a 150 milioni di righe di dati oggetto di query, a seconda della complessità della query. |
Analytics Hub
A Analytics Hub si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di scambi di dati per progetto | 500 piattaforme di scambio pubblicitario | Puoi creare fino a 500 scambi di dati in un progetto. |
Numero massimo di schede per scambio di dati | 1000 schede | Puoi creare fino a 1000 schede in uno scambio di dati. |
Numero massimo di set di dati collegati per set di dati condiviso | 1000 set di dati collegati | Tutti i sottoscrittori di Analytics Hub, combinati, possono avere un massimo di 1000 set di dati collegati per set di dati condiviso. |
Quote e limiti delle API
Queste quote e limiti si applicano alle richieste dell'API BigQuery.
API BigQuery
Le seguenti quote si applicano alle richieste di API BigQuery (core):
Quota | Predefinito | Note |
---|---|---|
Richieste al giorno | Illimitato |
Il tuo progetto può effettuare un numero illimitato di richieste API BigQuery al giorno.
Visualizza la quota nella console Google Cloud |
Massimo
tabledata.list byte al minuto
|
7,5 GB in più regioni; 3,7 GB in tutte le altre |
Il tuo progetto può restituire un massimo di 7,5 GB di dati di righe di tabelle al minuto tramite tabledata.list nelle regioni multiple di us e eu e 3,7 GB di dati di righe di tabella al minuto in tutte le altre aree geografiche. Questa quota si applica al progetto che contiene la tabella letta. Anche altre API, tra cui
jobs.getQueryResults , e
il recupero dei risultati da
jobs.query e
jobs.insert possono consumare questa quota.
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano alle richieste (core) di API BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di richieste API al secondo per utente per metodo | 100 richieste | Un utente può effettuare fino a 100 richieste API al secondo a un metodo API. Se un utente invia più di 100 richieste al secondo a un metodo, può verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati. |
Numero massimo di richieste API simultanee per utente | 300 richieste | Se un utente effettua più di 300 richieste in parallelo, può verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati. |
Dimensione massima intestazione della richiesta | 16 KiB |
La richiesta API BigQuery può arrivare fino a 16 KiB, inclusi l'URL della richiesta e tutte le intestazioni. Questo limite non si applica al corpo della richiesta, ad esempio in una richiesta POST .
|
Massimo
jobs.get richieste al secondo
|
1000 richieste |
Il tuo progetto può effettuare fino a 1000 richieste
jobs.get al secondo.
|
Dimensione massima della risposta
jobs.query
|
20 MB |
Per impostazione predefinita, non esiste un numero massimo di righe per il numero di righe
di dati restituite da jobs.query per ogni pagina di risultati. Tuttavia, hai un limite massimo di 20 MB per le dimensioni delle risposte. Puoi modificare il numero di righe da restituire utilizzando il parametro maxResults .
|
Massimo
projects.list richieste al secondo
|
2 richieste |
Il tuo progetto può effettuare fino a due richieste projects.list al secondo.
|
Numero massimo di richieste
tabledata.list al secondo
|
1000 richieste |
Il tuo progetto può effettuare fino a 1000 richieste tabledata.list al secondo.
|
Numero massimo di righe restituite da
tabledata.list richieste al secondo
|
150.000 righe |
Il tuo progetto può restituire fino a 150.000 righe al secondo utilizzando le richieste tabledata.list . Questo limite si applica al progetto che contiene la tabella letta.
|
Numero massimo di righe per
risposta tabledata.list
|
100.000 righe |
Una chiamata tabledata.list può restituire fino a 100.000 righe di tabella.
Per ulteriori informazioni, consulta la sezione Paging dei risultati tramite l'API.
|
Massimo
tables.insert richieste al secondo
|
10 richieste |
Il tuo progetto può effettuare fino a 10 richieste tables.insert al secondo.
Il metodo tables.insert crea una nuova tabella vuota in un set di dati. Il limite include le istruzioni SQL che creano tabelle, come
CREATE TABLE e
query che scrivono risultati nelle tabelle di destinazione.
|
API BigQuery Connection
Le seguenti quote si applicano alle richieste di API BigQuery Connection:
Quota | Predefinito | Note |
---|---|---|
Richieste di lettura al minuto | 1000 richieste al minuto |
Il tuo progetto può effettuare fino a 1000 richieste al minuto ai
metodi dell'API BigQuery Connection che leggono i dati di connessione.
Visualizza la quota nella console Google Cloud |
Richieste di scrittura al minuto | 100 richieste al minuto |
Il tuo progetto può effettuare fino a 100 richieste al minuto ai metodi dell'API BigQuery Connection per creare o aggiornare le connessioni.
Visualizza la quota nella console Google Cloud |
API BigQuery Migration
I seguenti limiti si applicano all'API BigQuery Migration:
Limite | Predefinito | Note |
---|---|---|
Dimensioni del singolo file per la traduzione SQL in batch | 10 MB |
La dimensione massima di ogni singolo file di origine e di metadati può essere di 10 MB.
Questo limite non si applica al file ZIP dei metadati prodotto dallo strumento a riga di comando
dwh-migration-dumper .
|
Dimensioni totali dei file di origine per la traduzione batch batch | 1 GB | Le dimensioni totali di tutti i file di input caricati su Cloud Storage possono essere al massimo pari a 1 GB. inclusi tutti i file sorgente e tutti i file di metadati se scegli di includerli. |
Dimensioni stringa di input per la traduzione interattiva di SQL | 1 MB | La stringa inserita per la traduzione interattiva di SQL non deve superare 1 MB. |
Dimensione massima del file di configurazione per la traduzione interattiva di SQL | 50 MB |
I singoli file di metadati (compressi) e i file di configurazione YAML in Cloud Storage non devono superare i 50 MB. Se le dimensioni del file superano i 50 MB, il traduttore interattivo salta il file di configurazione durante la traduzione e genera un messaggio di errore. Un metodo per ridurre le dimensioni del file di metadati consiste nell'utilizzare i flag —database o –schema per filtrare i database quando generi i metadati.
|
Le seguenti quote si applicano all'API BigQuery Migration. Nella maggior parte dei casi, sono validi i seguenti valori predefiniti. I valori predefiniti per il tuo progetto potrebbero essere diversi:
Quota | Predefinito | Note |
---|---|---|
Richieste EDWMigration Service List al minuto Richieste di elenchi di servizi EDWMigration al minuto per utente |
12.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 12.000 richieste Elenco API di migrazione al minuto. Ciascun utente può effettuare fino a 2500 richieste di Elenco API di migrazione al minuto. Visualizza le quote nella console Google Cloud |
Richieste EDWMigration Service al minuto Richieste EDWMigration Service Get al minuto per utente |
25.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 25.000 richieste API Get al minuto. Ogni utente può effettuare fino a 2500 richieste API Get al minuto. Visualizza le quote nella console Google Cloud |
Altre richieste al minuto per il servizio EDWMigration Altre richieste di EDWMigration Service per minuto per utente |
25 richieste 5 richieste |
Il tuo progetto può effettuare fino a 25 altre richieste dell'API Migration al minuto. Ogni utente può effettuare fino a cinque altre richieste dell'API Migration al minuto. Visualizza le quote nella console Google Cloud |
Richieste di traduzione SQL interattive al minuto Richieste di traduzione SQL interattive al minuto per utente |
200 richieste 50 richieste |
Il tuo progetto può effettuare fino a 200 richieste al servizio di traduzione SQL al minuto. Ogni utente può effettuare fino a 50 altre richieste del servizio di traduzione SQL al minuto. Visualizza le quote nella console Google Cloud |
API BigQuery Reservation
Le seguenti quote si applicano alle richieste di API BigQuery Reservation:
Quota | Predefinito | Note |
---|---|---|
Richieste al minuto per regione | 100 richieste |
Il tuo progetto può effettuare un totale di massimo 100 chiamate ai metodi dell'API BigQuery Reservation
al minuto per regione.
Visualizza le quote nella console Google Cloud |
Numero di chiamate SearchAllAssignments al minuto per regione
|
100 richieste |
Il tuo progetto può effettuare fino a 100 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud |
Richieste per SearchAllAssignments al minuto per regione per utente
|
10 richieste |
Ogni utente può effettuare fino a 10 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud (nei risultati di ricerca della console Google Cloud, cerca per utente). |
API BigQuery Data Policy
I seguenti limiti si applicano all'API Data Policy (anteprima):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di chiamate
dataPolicy.list .
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di chiamate dataPolicy.testIamPermissions .
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di richieste di lettura. |
1200 richieste al minuto per progetto 1800 richieste al minuto per organizzazione |
Sono incluse le chiamate a
dataPolicy.get
e
dataPolicy.getIamPolicy .
|
Numero massimo di richieste di scrittura. |
600 richieste al minuto per progetto 900 richieste al minuto per organizzazione |
Sono incluse le chiamate a: |
API IAM
Le quote seguenti si applicano quando utilizzi la funzionalità di Identity and Access Management in BigQuery per recuperare e impostare i criteri IAM e per testare le autorizzazioni IAM.
Quota | Predefinito | Note |
---|---|---|
Richieste IamPolicy al minuto | 3000 richieste |
Il tuo progetto può effettuare fino a 3000 richieste IAM al secondo.
Visualizza la quota nella console Google Cloud |
Richieste IamPolicy al minuto per utente | 1500 richieste |
Ogni utente può effettuare fino a 1500 richieste IAM al minuto per progetto.
Visualizza la quota nella console Google Cloud |
API Storage Read
Le seguenti quote si applicano alle richieste di API BigQuery Storage Read:
Quota | Predefinito | Note |
---|---|---|
Richieste di piano dati lette al minuto per utente | 25.000 richieste |
Ogni utente può effettuare fino a 25.000 ReadRows chiamate al minuto
per progetto.
Visualizza la quota nella console Google Cloud |
Lettura di richieste del piano di controllo al minuto per utente | 5000 richieste |
Ogni utente può effettuare fino a 5000 chiamate alle operazioni relative ai metadati dell'API Storage Read al minuto per progetto. Le chiamate dei metadati includono i metodi
CreateReadSession e SplitReadStream .
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano alle richieste API BigQuery Storage Read:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima riga/filtro | 1 MB |
Quando utilizzi la chiamata CreateReadSession all'API Storage Read, la lunghezza massima è di 1 MB per ogni riga o filtro.
|
Dimensione massima dei dati serializzati | 128 MB |
Quando utilizzi la chiamata ReadRows dell'API Storage Read, la rappresentazione serializzata dei dati in un singolo messaggio ReadRowsResponse non può superare i 128 MB.
|
Numero massimo di connessioni simultanee | 2000 in più regioni; 400 in regioni |
Puoi aprire un massimo di 2000 connessioni ReadRows simultanee per progetto nelle regioni multiple us e eu e 400 connessioni ReadRows simultanee in altre aree geografiche. In alcuni casi, il limite potrebbe essere limitato a quelle simultanee.
|
API Storage Write
Le seguenti quote si applicano alle richieste di API Storage Write. Le seguenti quote possono essere applicate a livello di cartella. Queste quote vengono quindi aggregate e condivise tra tutti i progetti secondari. Per attivare questa configurazione, contatta l'assistenza clienti Google Cloud.
Se intendi richiedere un limite di quota più alto, includi il messaggio di errore della quota nella richiesta per accelerare l'elaborazione.
Quota | Predefinito | Note |
---|---|---|
Connessioni simultanee | 10.000 in più regioni; 1000 in regioni |
La quota delle connessioni simultanee si basa sul progetto client che avvia la richiesta di API Storage Write, non su quello che contiene la risorsa del set di dati BigQuery. Il progetto di avvio è il progetto associato alla chiave API o all'account di servizio. Il tuo progetto può operare su 10.000 connessioni simultanee nelle
Puoi visualizzare le metriche relative alla quota di utilizzo e ai limiti per i tuoi progetti in
Cloud Monitoring. Seleziona il nome del limite di connessioni simultanee in base alla tua area geografica. Le opzioni sono |
Velocità effettiva | Velocità effettiva di 3 GB al secondo nelle regioni multiple; 300 MB al secondo nelle regioni |
Puoi trasmettere fino a 3 GBps in più aree geografiche us e eu e 300 MBp in altre aree geografiche per progetto.
Visualizza la quota nella console Google Cloud Puoi visualizzare le metriche relative alla quota di utilizzo e ai limiti per i tuoi progetti in
Cloud Monitoring. Seleziona il nome del limite di velocità effettiva in base all'area geografica. Le opzioni sono |
Richieste CreateWriteStream
|
30.000 flussi ogni 4 ore per progetto |
Puoi chiamare CreateWriteStream fino a 30.000 volte ogni 4 ore per progetto. Prendi in considerazione l'utilizzo dello stream predefinito se non hai bisogno della semantica esatta.
Visualizza la quota nella console Google Cloud |
Byte di streaming in attesa | 10 TB in più regioni; 1 TB nelle regioni |
Per ogni commit attivato, puoi eseguire il commit di un massimo di 10 TB nelle
più aree geografiche us e eu e
1 TB in altre aree geografiche.
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano alle richieste di API Write Write:
Limite | Predefinito | Note |
---|---|---|
Commit batch | 10.000 flussi per tabella |
Puoi eseguire il commit di un massimo di 10.000 flussi in ogni
chiamata BatchCommitWriteStream .
|
AppendRows
dimensione richiesta
|
10 MB | La dimensione massima della richiesta è 10 MB. |
Inserimento di flussi di dati
Le quote e i limiti seguenti si applicano quando trasmetti flussi di dati in BigQuery utilizzando l'API Streaming legacy.
Per informazioni sulle strategie per rimanere entro questi limiti, consulta la sezione Risolvere gli errori di quota.
Se superi queste quote, ricevi quotaExceeded
errori.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte al secondo per progetto nelle regioni multiple us e eu
|
1 GB al secondo |
Il tuo progetto può trasmettere in streaming fino a 1 GB al secondo. Questa quota è cumulativa all'interno di una specifica località a più aree geografiche. In altre parole, la somma di byte al secondo trasmessi a tutte le tabelle per un determinato progetto all'interno di più aree geografiche è limitata a 1 GB.
Il superamento di questo limite provoca un errore di Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi l'aumento del prezzo nel più breve tempo possibile, con almeno due settimane di anticipo. L'aumento della quota richiede del tempo, soprattutto nel caso di un aumento significativo. |
Numero massimo di byte al secondo per progetto in tutte le altre località | 300 MB al secondo |
Il tuo progetto può trasmettere in streaming fino a 300 MB al secondo in tutte le località, ad eccezione di quelle multiple
Il superamento di questo limite provoca un errore di Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi l'aumento del prezzo nel più breve tempo possibile, con almeno due settimane di anticipo. L'aumento della quota richiede del tempo, soprattutto nel caso di un aumento significativo. |
Dimensione massima riga | 10 MB |
Il superamento di questo valore provoca invalid errori.
|
Limite dimensioni richiesta HTTP | 10 MB |
Il superamento di questo valore provoca Internamente la richiesta è tradotta da HTTP JSON in una struttura di dati interna. La struttura dei dati tradotti ha un proprio limite di dimensioni applicato. È difficile prevedere la dimensione della struttura di dati interna risultante, ma se mantieni le richieste HTTP a 10 MB o meno, la probabilità di raggiungere il limite interno è bassa. |
Numero massimo di righe per richiesta | 50.000 righe | Consigliamo di utilizzare un limite massimo di 500 righe. Il batch può aumentare le prestazioni e la velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Un numero insufficiente di righe per richiesta e il sovraccarico di ciascuna richiesta possono rendere inefficiente l'importazione. Troppe righe per richiesta e la velocità effettiva può diminuire. Sperimenta con dati rappresentativi (dimensioni di schema e dati) per determinare la dimensione ideale del batch per i tuoi dati. |
Lunghezza campo: insertId
|
128 caratteri |
Il superamento di questo valore provoca invalid errori.
|
Per ulteriore quota di streaming, consulta Richiedere un aumento della quota.