Quote e limiti
Questo documento elenca le quote e i limiti di sistema che si applicano a BigQuery.
- Le quote specificano la quantità di una risorsa condivisa e conteggiabile che puoi utilizzare. Le quote sono definite dai servizi Google Cloud come BigQuery.
- I limiti di sistema sono valori fissi che non possono essere modificati.
Google Cloud utilizza le quote per contribuire a garantire l'equità e ridurre gli picchi di utilizzo e disponibilità delle risorse. Una quota limita la quantità di una risorsa Google Cloud che può essere utilizzata nel progetto Google Cloud. Le quote si applicano a una serie di tipi di risorse, inclusi hardware, software e componenti di rete. Ad esempio, le quote possono limitare il numero di chiamate API a un servizio, il numero di bilanciatori del carico utilizzati contemporaneamente dal tuo progetto o il numero di progetti che puoi creare. Le quote proteggono la community degli utenti di Google Cloud impedendo il sovraccarico dei servizi. Le quote ti aiutano anche a gestire le tue risorse Google Cloud.
Il sistema delle quote di Cloud esegue le seguenti operazioni:
- Monitora il tuo consumo di prodotti e servizi Google Cloud
- Limita il consumo di queste risorse
- Fornisce un modo per richiedere modifiche al valore della quota
Nella maggior parte dei casi, quando provi a utilizzare una risorsa per un volume maggiore di quello consentito dalla quota, il sistema blocca l'accesso alla risorsa e l'attività che stai tentando di eseguire non va a buon fine.
In genere, le quote si applicano a livello di progetto Google Cloud. L'utilizzo di una risorsa in un progetto non influisce sulla quota disponibile in un altro progetto. All'interno di un progetto Google Cloud, le quote sono condivise tra tutte le applicazioni e gli indirizzi IP.
Esistono anche limiti di sistema per le risorse BigQuery. I limiti di sistema non possono essere modificati.
Per impostazione predefinita, le quote e i limiti di BigQuery si applicano in base al singolo progetto. Le quote e i limiti che si applicano in base a criteri diversi sono indicati come tali; ad esempio, il numero massimo di colonne per tabella o il numero massimo di richieste API simultanee per utente. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di Service Usage e di altri fattori e sono soggetti a modifiche senza preavviso.
Rifornimento della quota
Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.
Richiedi un aumento della quota
Per modificare la maggior parte delle quote, utilizza la console Google Cloud. Per ulteriori informazioni, consulta Richiedere un aggiustamento della quota.
Per istruzioni dettagliate sulla procedura di richiesta di un aumento della quota nella console Google Cloud, fai clic su Procedura guidata:
Limita l'utilizzo delle quote
Per scoprire come limitare l'utilizzo di una risorsa specifica creando un'override della quota, consulta Creare un'override della quota.
Autorizzazioni obbligatorie
Per visualizzare e aggiornare le quote BigQuery nella console Google Cloud, devi disporre delle stesse autorizzazioni richieste per qualsiasi quota Google Cloud. Per ulteriori informazioni, consulta Autorizzazioni per le quote di Google Cloud.
Risoluzione dei problemi
Per informazioni sulla risoluzione degli errori relativi a quote e limiti, consulta Risoluzione degli errori di quota di BigQuery.
Job
Le quote e i limiti si applicano ai job eseguiti da BigQuery per tuo conto, che vengano eseguiti utilizzando la console Google Cloud, lo strumento a riga di comando bq o tramite programmazione utilizzando l'API REST o le librerie client.
Job di query
Le seguenti quote si applicano ai job di query creati automaticamente eseguendo query interattive, query pianificate e job inviati utilizzando i metodi API jobs.query
e jobs.insert
di tipo query:
Quota | Predefinito | Note |
---|---|---|
Utilizzo delle query al giorno | Illimitato | Non esiste alcun limite al numero di byte che possono essere elaborati dalle query in un progetto. Visualizza la quota nella console Google Cloud |
Utilizzo delle query al giorno per utente | Illimitato | Non esiste un limite al numero di byte che le query di un utente possono elaborare ogni giorno. Visualizza la quota nella console Google Cloud |
Byte al giorno di query federate Cloud SQL tra regioni | 1 TB | Se la
località di elaborazione della query BigQuery e la
località dell'istanza Cloud SQL sono diverse, la query è una query
tra regioni. Il tuo progetto può eseguire fino a 1 TB di query tra regioni
al giorno. Consulta
query federate Cloud SQL. Visualizza la quota nella console Google Cloud |
Byte trasferiti cross-cloud al giorno | 1 TB |
Puoi trasferire fino a 1 TB di dati al giorno da un bucket Amazon S3 o
da Azure Blob Storage. Per ulteriori informazioni, consulta Trasferimento tra cloud da Amazon S3 e Azure.
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano ai job di query creati automaticamente eseguendo query interattive, query pianificate e job inviati utilizzando i metodi API jobs.query
e jobs.insert
di tipo query:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query interattive in coda | 1000 query | Il progetto può mettere in coda fino a 1000 query interattive. Ulteriori query interattive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query batch in coda | 20.000 query | Il progetto può mettere in coda fino a 20.000 query batch. Ulteriori query batch che superano questo limite restituiscono un errore di quota. |
Numero massimo di query interattive in parallelo rispetto alle origini dati esterne di Bigtable | 16 query | Il progetto può eseguire fino a sedici query in parallelo su un'origine dati esterna di Bigtable. |
Numero massimo di query simultanee che contengono funzioni remote | 10 query | Puoi eseguire fino a dieci query simultanee con funzioni remote per progetto. |
Numero massimo di query con più istruzioni in parallelo | 1000 query con più istruzioni | Il progetto può eseguire fino a 1000 query con più istruzioni simultanee. Per altre quote e limiti relativi alle query con più istruzioni, consulta Query con più istruzioni. |
Numero massimo di query SQL precedente in parallelo che contengono funzioni definite dall'utente | 6 query | Il progetto può eseguire fino a sei query SQL precedente in parallelo con funzioni definite dall'utente (UDF). Questo limite include sia le query interattive sia quelle batch. Anche le query interattive che contengono funzioni definite dall'utente incidono sul limte di query interattive in parallelo. Questo limite non si applica alle query GoogleSQL. |
Dimensione massima giornaliera delle query | Illimitato | Per impostazione predefinita, non esiste un limite di dimensione giornaliera delle query. Tuttavia, puoi impostare dei limiti per la quantità di dati su cui gli utenti possono eseguire query creando quote personalizzate per controllare l'utilizzo delle query al giorno o l'utilizzo delle query al giorno per utente. |
Limite di aggiornamento giornaliero della tabella di destinazione | Consulta Numero massimo di operazioni per tabella al giorno. |
Gli aggiornamenti alle tabelle di destinazione in un job di query vengono conteggiati ai fini del limite sul numero massimo di operazioni per tabella al giorno per le tabelle di destinazione. Gli aggiornamenti della tabella di destinazione includono operazioni di accodamento e sovrascrittura eseguite tramite query da Cloud Console, usando lo strumento a riga di comando bq oppure chiamando i metodi API jobs.insert di tipo query e jobs.query .
|
Limite di tempo di esecuzione delle query/query con più istruzioni | 6 ore |
L'esecuzione di una query o di una query con più istruzioni può continuare per un massimo di 6 ore prima di essere interrotta. Tuttavia, a volte vengono eseguiti nuovi tentativi di esecuzione delle query. Una query può essere tentata fino a tre volte e l'esecuzione di ogni tentativo può durare fino a 6 ore. Di conseguenza, è possibile che una query abbia un tempo di esecuzione totale superiore a 6 ore. Il valore predefinito del timeout del job |
Numero massimo di risorse a cui viene fatto riferimento per query | 1000 risorse |
Una query può fare riferimento a un massimo di 1000 tabelle, visualizzazioni,
funzioni definite dall'utente (UDF) e funzioni di tabella univoche dopo l'espansione completa. Questo limite include quanto segue:
|
Lunghezza massima dei caratteri della query SQL | 1024.000 caratteri |
Una query SQL può contenere fino a 1024.000 caratteri. Questo limite include commenti e caratteri di spaziatura. Se la query è più lunga, viene visualizzato il seguente errore: The query is too large. Per rispettare questo limite, ti consigliamo di sostituire array o elenchi di grandi dimensioni con parametri di ricerca e di suddividere una query lunga in più query nella sessione.
|
Dimensione massima delle query SQL precedente non risolte | 256 kB |
Una query SQL precedente non risolta può avere una dimensione massima di 256 KB. Se
la query è più lunga, viene visualizzato il seguente errore: The query
is too large.
Per rispettare questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con parametri di ricerca.
|
Lunghezza massima delle query GoogleSQL non risolte | 1 MB |
Una query GoogleSQL non risolta può avere una dimensione massima di 1 MB. Se la query è più lunga, viene visualizzato il seguente errore: The query is too
large. Per rispettare questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con parametri di query.
|
Dimensione massima delle query GoogleSQL e legacy risolte | 12 MB | Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query. |
Numero massimo di parametri di ricerca GoogleSQL | 10.000 parametri | Una query GoogleSQL può avere fino a 10.000 parametri. |
Dimensioni massime della richiesta | 10 MB | Le dimensioni della richiesta possono essere fino a 10 MB, incluse proprietà aggiuntive come parametri di ricerca. |
Dimensioni massime della risposta | 10 GB compressi | Le dimensioni variano in base ai rapporti di compressione dei dati. La dimensione effettiva della risposta potrebbe essere sensibilmente maggiore di 10 GB. La dimensione massima della risposta è illimitata quando si scrivono risultati di query di grandi dimensioni su una tabella di destinazione. |
Dimensioni massime delle righe | 100 MB | La dimensione massima della riga è approssimativa, poiché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query. |
Numero massimo di colonne in una tabella, un risultato di query o una definizione di vista | 10.000 colonne | Una definizione di tabella, risultato di query o vista può avere fino a 10.000 colonne. Sono incluse le colonne nidificate e ripetute. |
Numero massimo di slot contemporanei per i prezzi on demand |
2000 slot per progetto 20.000 slot per organizzazione |
Con i prezzi on demand, il tuo progetto può avere fino a 2000 slot contemporanei. Esiste anche un limite di 20.000 slot simultanei a livello di organizzazione. BigQuery tenta di allocare gli slot in modo equo tra i progetti all'interno di un'organizzazione se la loro domanda totale è superiore a 20.000 slot. Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe consentire il bursting oltre tale limite per accelerare le query. Per verificare quanti slot stai utilizzando, consulta la documentazione sul monitoraggio di BigQuery tramite Cloud Monitoring. |
Utilizzo massimo della CPU per i dati sottoposti a scansione per i prezzi on demand | 256 secondi di CPU per MiB scansionato |
Con i prezzi on demand, la query può utilizzare fino a circa 256 secondi di CPU per MiB di dati sottoposti a scansione. Se la query richiede una CPU troppo elevata per la quantità di dati
in fase di elaborazione, la query non va a buon fine con un
errore billingTierLimitExceeded .
Per ulteriori informazioni, consulta
billingTierLimitExceeded.
|
Mutazioni della tabella delle transazioni con più istruzioni | 100 tabelle | Una transazione può modificare i dati in un massimo di 100 tabelle. |
Modifiche alla partizione delle transazioni con più istruzioni | 100.000 modifiche delle partizioni | Una transazione può eseguire al massimo 100.000 modifiche delle partizioni. |
Dimensioni massime dei risultati di query di BigQuery Omni | 20 GiB non compressi | La dimensione massima del risultato è 20 GB di byte logici quando esegui query su dati di Azure o AWS. Se il risultato della query è più grande di 20 GiB, ti consigliamo di esportarlo in Amazon S3 o Blob Storage. Per ulteriori informazioni, consulta la sezione Limiti di BigQuery Omni. |
Dimensioni totali dei risultati delle query di BigQuery Omni al giorno | 1 TB | Le dimensioni totali dei risultati di query per un progetto sono pari a 1 TB al giorno.
Per ulteriori informazioni, consulta
Limiti di BigQuery Omni. |
Dimensioni massime delle righe di BigQuery Omni | 10 MiB | La dimensione massima della riga è 10 MiB quando esegui query su dati di Azure o AWS. Per ulteriori informazioni, consulta la sezione Limiti di BigQuery Omni. |
Sebbene le query programmate utilizzino funzionalità di BigQuery Data Transfer Service, esse non sono trasferimenti e non sono soggette ai limiti dei job di caricamento.
Job di esportazione
I seguenti limiti si applicano ai job che
esportano dati
da BigQuery utilizzando lo strumento a riga di comando bq, la console Google Cloud o il metodo API jobs.insert
di tipo export.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte esportati al giorno | 50 TiB |
Puoi esportare fino a 50 TiB(Tebibyte) di dati al giorno da un progetto senza costi utilizzando il pool di slot condiviso. Puoi configurare un criterio di avviso di Cloud Monitoring
che invia una notifica del numero di byte esportati.
Per esportare più di 50 TiB(Tebibyte) di dati al giorno, svolgi una delle seguenti operazioni:
|
Numero massimo di job di esportazione al giorno | 100.000 esportazioni |
In un progetto puoi eseguire fino a 100.000 esportazioni al giorno.
Per eseguire più di 100.000 esportazioni al giorno, effettua una delle seguenti operazioni:
|
Dimensione massima della tabella esportata in un singolo file | 1 GB | Puoi esportare fino a 1 GB di dati di tabelle in un singolo file. Per esportare più di 1 GB di dati, utilizza un'espressione jolly per esportare i dati in più file. Quando esporti i dati in più file, le dimensioni dei file variano. In alcuni casi, le dimensioni dei file di output sono superiori a 1 GB. |
URI con caratteri jolly per esportazione | 500 URI | Un'esportazione può contenere fino a 500 URI con caratteri jolly. |
Per ulteriori informazioni su come visualizzare l'utilizzo attuale dei job di esportazione, vedi Visualizzare l'utilizzo attuale delle quote.
Job di caricamento
I seguenti limiti si applicano quando
carichi dati
in BigQuery utilizzando la console Google Cloud, lo strumento a riga di comando bq o il metodo API
jobs.insert
di tipo load.
Limite | Predefinito | Note |
---|---|---|
Job di caricamento per tabella al giorno | 1500 job | I job di caricamento, inclusi quelli non riusciti, vengono conteggiati ai fini del limite sul numero di operazioni per tabella al giorno per la tabella di destinazione. Per informazioni sui limiti del numero di operazioni per tabella al giorno per le tabelle standard e quelle partizionate, consulta Tables. |
Job di caricamento al giorno | 100.000 job | Il progetto viene reintegrato con una quota massima di 100.000 job di caricamento ogni 24 ore. I job di caricamento non riusciti vengono conteggiati ai fini di questo limite. In alcuni casi, è possibile eseguire più di 100.000 job di caricamento in 24 ore se la quota di un giorno precedente non è stata utilizzata completamente. |
Numero massimo di colonne per tabella | 10.000 colonne | Una tabella può contenere fino a 10.000 colonne. Sono incluse le colonne nidificate e ripetute. |
Dimensioni massime per job di caricamento | 15 TB | Le dimensioni totali di tutti i file di input CSV, JSON, Avro, Parquet e ORC possono arrivare fino a 15 TB. |
Numero massimo di URI di origine nella configurazione del job | 10.000 URI | Una configurazione del job può avere fino a 10.000 URI di origine. |
Numero massimo di file per job di caricamento | 10.000.000 file | Un job di caricamento può contenere fino a 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 file | Un job di caricamento può leggere da un bucket Cloud Storage contenente fino a circa 60.000.000 di file. |
Limite di tempo di esecuzione del job di caricamento | 6 ore | Un job di caricamento non va a buon fine se viene eseguito per più di sei ore. |
Avro: dimensione massima per i blocchi di dati dei file | 16 MB | Il limite di dimensioni per i blocchi di dati dei file Avro è 16 MB. |
CSV: dimensioni massime della cella | 100 MB | Le celle CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensioni massime della riga | 100 MB | Le righe CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensioni massime del file compresso | 4 GB | Il limite di dimensioni per un file CSV compresso è 4 GB. |
CSV: dimensioni massime del file non compresso | 5 TB | Il limite di dimensioni per un file CSV non compresso è 5 TB. |
JSON delimitato da una nuova riga (ndJSON): dimensione massima della riga | 100 MB | Le righe ndJSON possono avere una dimensione massima di 100 MB. |
ndJSON: dimensione massima del file compresso | 4 GB | Il limite di dimensioni per un file ndJSON compresso è 4 GB. |
ndJSON: dimensione massima del file non compresso | 5 TB | Il limite di dimensioni per un file ndJSON non compresso è 5 TB. |
Se superi regolarmente i limiti dei job di caricamento a causa di aggiornamenti frequenti, ti consigliamo di caricare i dati in streaming in BigQuery.
Per informazioni su come visualizzare l'utilizzo attuale dei job di caricamento, consulta Visualizzare l'utilizzo attuale delle quote.
Considerazioni sulle quote dei job di caricamento di BigQuery Data Transfer Service
I job di caricamento creati dai trasferimenti di BigQuery Data Transfer Service sono inclusi nelle quote di BigQuery sui job di caricamento. È importante considerare quanti trasferimenti si abilitano in ciascun progetto per impedire che trasferimenti e altri job di caricamento restituiscano errori di tipo quotaExceeded
.
Puoi utilizzare la seguente equazione per stimare il numero di job di caricamento richiesti dai tuoi trasferimenti:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
Dove:
Number of transfers
è il numero di configurazioni di trasferimento che abiliti nel tuo progetto.Number of tables
è il numero di tabelle create da ogni tipo di trasferimento specifico. Il numero di tabelle varia in base al tipo di trasferimento:- I trasferimenti di Campaign Manager creano circa 25 tabelle.
- I trasferimenti di Google Ads creano circa 60 tabelle.
- I trasferimenti di Google Ad Manager creano circa 40 tabelle.
- I trasferimenti di Google Play creano circa 25 tabelle.
- I trasferimenti di Search Ads 360 creano circa 50 tabelle.
- I trasferimenti di YouTube creano circa 50 tabelle.
Schedule frequency
indica la frequenza di esecuzione del trasferimento. Per ogni tipo di trasferimento, vengono fornite le programmazioni di esecuzione:Refresh window
è il numero di giorni da includere nel trasferimento dei dati. Se immetti 1, il backfill giornaliero non viene eseguito.
Job di copia
I seguenti limiti si applicano ai job BigQuery per la copia di tabelle, inclusi i job che creano una copia, un clone o uno snapshot di una tabella standard, di un clone di tabella o di uno snapshot di tabella.
I limiti si applicano ai job creati utilizzando la console Google Cloud, lo strumento a riga di comando bq o il
metodo jobs.insert
che
specifica il campo copy
nella configurazione del job.
I job di copia vengono conteggiati ai fini di questi limiti, indipendentemente dal fatto che vengano completati o meno.
Limite | Predefinito | Note |
---|---|---|
Job di copia per tabella di destinazione al giorno | Consulta Operazioni per tabella al giorno. | |
Job di copia al giorno | 100.000 job | Il progetto può eseguire fino a 100.000 job di copia al giorno. |
Job di copia tra regioni per tabella di destinazione al giorno | 100 job | Il progetto può eseguire fino a 100 job di copia tra regioni per una tabella di destinazione al giorno. |
Job di copia tra regioni al giorno | 2000 job | Il progetto può eseguire fino a 2000 job di copia tra regioni al giorno. |
Numero di tabelle di origine da copiare | 1200 tabelle di origine | Puoi copiare da un massimo di 1200 tabelle di origine per job di copia. |
Per informazioni su come visualizzare l'utilizzo attuale dei job di copia, consulta Job di copia - Visualizzare l'utilizzo attuale della quota.
I seguenti limiti si applicano alla copia dei set di dati:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di tabelle nel set di dati di origine | 25.000 tabelle | Un set di dati di origine può contenere fino a 25.000 tabelle. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione nella stessa regione | 20.000 tabelle | Il progetto può copiare un massimo di 20.000 tabelle per esecuzione in un set di dati di destinazione all'interno della stessa regione. Se un set di dati di origine contiene più di 20.000 tabelle, BigQuery Data Transfer Service pianifica esecuzioni sequenziali, ciascuna delle quali copia fino a 20.000 tabelle, fino a quando non vengono copiate tutte le tabelle. Queste esecuzioni sono separate da un intervallo predefinito di 24 ore, che gli utenti possono personalizzare fino a un minimo di 12 ore. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione in una regione diversa | 1000 tabelle | Il progetto può copiare un massimo di 1000 tabelle per esecuzione in un set di dati di destinazione in una regione diversa. Se un set di dati di origine contiene più di 1000 tabelle, BigQuery Data Transfer Service pianifica esecuzioni sequenziali, ognuna delle quali copia fino a 1000 tabelle, fino a quando non vengono copiate tutte le tabelle. Queste esecuzioni sono separate da un intervallo predefinito di 24 ore, che gli utenti possono personalizzare fino a un minimo di 12 ore. |
Prenotazioni
Le seguenti quote si applicano alle reservations:
Quota | Predefinito | Note |
---|---|---|
Numero totale di slot per la regione UE | 5000 slot |
Il numero massimo di slot BigQuery che puoi acquistare
nella regione multi-UE utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Numero totale di slot per la regione degli Stati Uniti | 10.000 slot |
Il numero massimo di slot BigQuery che puoi acquistare
nella regione multipla degli Stati Uniti utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Numero totale di slot per la regione us-east1
|
4000 slot |
Il numero massimo di slot BigQuery che puoi acquistare nella regione indicata utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Numero totale di slot per le seguenti regioni:
|
2000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Numero totale di slot per le seguenti regioni:
|
1000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Numero totale di slot per le regioni BigQuery Omni | 100 slot |
Il numero massimo di slot BigQuery che puoi acquistare
nelle regioni BigQuery Omni
utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Numero totale di slot per tutte le altre regioni | 500 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ogni altra regione utilizzando la console Google Cloud.
Visualizzare le quote nella console Google Cloud |
Ai reservations si applicano i seguenti limiti:
Limite | Valore | Note |
---|---|---|
Numero di progetti di amministrazione per le prenotazioni di slot | 5 progetti per organizzazione | Il numero massimo di progetti all'interno di un'organizzazione che possono contenere una prenotazione o un impegno attivo per gli slot per una determinata località o regione. |
Numero massimo di prenotazioni per la versione standard | 10 prenotazioni per progetto | Il numero massimo di prenotazioni della versione standard per progetto di amministrazione all'interno di un'organizzazione per una determinata località / regione. |
Numero massimo di prenotazioni per la versione Enterprise o Enterprise Plus | 200 prenotazioni per progetto | Il numero massimo di prenotazioni della versione Enterprise o Enterprise Plus per progetto di amministrazione all'interno di un'organizzazione per una determinata località / regione. |
Numero massimo di slot in una prenotazione associata a un'assegnazione della prenotazione con un tipo di job CONTINUOUS .
|
500 slot |
Quando vuoi creare un'assegnazione di prenotazione con un tipo di job CONTINUOUS , la prenotazione associata non può avere più di 500 slot.
|
Set di dati
Ai set di dati BigQuery si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di set di dati | Illimitato | Non è previsto alcun limite al numero di set di dati che un progetto può avere. |
Numero di tabelle per set di dati | Illimitato | Quando utilizzi una chiamata API, le prestazioni della creazione di elenchi rallentano man mano che ti avvicini a 50.000 tabelle in un set di dati. La console Google Cloud può visualizzare fino a 50.000 tabelle per ogni set di dati. |
Numero di risorse autorizzate nell'elenco di controllo dell'accesso di un set di dati | 2500 risorse | L'elenco di controllo dell'accesso di un set di dati può contenere fino a 2500 risorse autorizzate, tra cui visualizzazioni autorizzate, set di dati autorizzati e funzioni autorizzate. Se superi questo limite a causa di un numero elevato di visualizzazioni autorizzate, ti consigliamo di raggrupparle in set di dati autorizzati. |
Numero di operazioni di aggiornamento dei set di dati per set di dati ogni 10 secondi | 5 operazioni |
Il progetto può eseguire fino a cinque operazioni di aggiornamento dei set di dati ogni 10 secondi.
Il limite di aggiornamento dei set di dati include tutte le operazioni di aggiornamento dei metadati
eseguite da quanto segue:
|
Lunghezza massima della descrizione di un set di dati | 16.384 caratteri | Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri. |
Tabelle
Tutte le tabelle
I seguenti limiti si applicano a tutte le tabelle BigQuery.
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una colonna | 300 caratteri | Il nome della colonna può contenere al massimo 300 caratteri. |
Lunghezza massima della descrizione di una colonna | 1024 caratteri | Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 1024 caratteri. |
Profondità massima dei record nidificati | 15 livelli |
Le colonne di tipo RECORD possono contenere tipi RECORD nidificati, chiamati anche record secondari. Il limite massimo di profondità nidificata è 15 livelli.
Questo limite è indipendente dal fatto che i record siano scalari o basati su array (ripetuti).
|
Lunghezza massima della descrizione di una tabella | 16.384 caratteri | Quando aggiungi una descrizione a una tabella, il testo può contenere al massimo 16.384 caratteri. |
Tabelle standard
I seguenti limiti si applicano alle tabelle standard (integrate) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Modifiche alla tabella al giorno | 1500 modifiche | Il progetto può apportare fino a 1500 modifiche alla tabella al giorno, indipendentemente dal fatto che la modifica aggiorni i metadati della tabella, aggiunga o aggiorni i dati o tronchi la tabella. Questo limite non può essere modificato e include il totale combinato di tutti i job di caricamento, job di copia e job di query che aggiungono dati a una tabella di destinazione o la sovrascrivono. Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche alla tabella al giorno. I dati in streaming non vengono conteggiati ai fini del numero di modifiche alla tabella al giorno. |
Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella | 5 operazioni ogni 10 secondi |
Il progetto può eseguire fino a cinque operazioni di aggiornamento dei metadati delle tabelle ogni 10 secondi
per tabella. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati delle tabelle,
eseguite da quanto segue:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE o UPDATE per scrivere
dati in una tabella. Tieni presente che, sebbene le istruzioni DML vengano conteggiate per questo limite, non sono soggette al limite se viene raggiunto. Le operazioni DML hanno limiti di frequenza dedicati.
Se superi questo limite, viene visualizzato un messaggio di errore come
Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi esaminare i log. Per indicazioni su come diagnosticare e risolvere questo errore, consulta Risolvere gli errori di quota. |
Numero massimo di colonne per tabella | 10.000 colonne | Ogni tabella, risultato di query o definizione di vista può contenere fino a 10.000 colonne. Sono incluse le colonne nidificate e ripetute. |
Tabelle esterne
I seguenti limiti si applicano alle tabelle BigQuery con dati archiviati in Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di URI di origine per tabella esterna | 10.000 URI | Ogni tabella esterna può avere fino a 10.000 URI di origine. |
Numero massimo di file per tabella esterna | 10.000.000 file | Una tabella esterna può contenere fino a 10 milioni di file, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Dimensione massima dei dati archiviati in Cloud Storage per tabella esterna | 600 TB | Una tabella esterna può avere fino a 600 terabyte in tutti i file di input. Questo limite si applica alle dimensioni dei file archiviati in Cloud Storage; queste dimensioni non coincidono con quelle utilizzate nella formula per la determinazione dei prezzi delle query. Per le tabelle partizionate esternamente, il limite viene applicato dopo l' eliminazione delle partizioni. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 file | Una tabella esterna può fare riferimento a un bucket Cloud Storage contenente fino a circa 60.000.000 di file. Per le tabelle partizionate esternamente, questo limite viene applicato prima dell'eliminazione delle partizioni. |
Tabelle partizionate
I seguenti limiti si applicano alle tabelle partizionate di BigQuery.
I limiti di partizione si applicano al totale combinato di tutti i job di caricamento, job di copia e job di query che aggiungono dati a una partizione di destinazione o la sovrascrivono.
Un singolo job può interessare più partizioni. Ad esempio, i job di query e i job di caricamento possono scrivere in più partizioni.
BigQuery utilizza il numero di partizioni interessate da un job per calcolare la quantità di limite consumata dal job. Gli inserimenti di flussi di dati non influiscono su questo limite.
Per informazioni sulle strategie per rispettare i limiti per le tabelle divise, consulta Risoluzione degli errori di quota.
Limite | Predefinito | Note |
---|---|---|
Numero di partizioni per tabella partizionata | 10.000 partizioni | Ogni tabella partizionata può avere fino a 10.000 partizioni. Se superi questo limite, ti consigliamo di utilizzare il clustering in aggiunta o al posto del partizionamento. |
Numero di partizioni modificate da un singolo job | 4000 partizioni | Ogni operazione di job (query o caricamento) può interessare fino a 4000 partizioni. BigQuery rifiuta qualsiasi job di query o caricamento che tenta di modificare più di 4000 partizioni. |
Numero di modifiche delle partizioni durante la data di importazione per tabella partizionata al giorno | 11.000 modifiche | Il progetto può apportare fino a 11.000 modifiche alle partizioni al giorno, indipendentemente dal fatto che la modifica aggiunga dati, li aggiorni o tronchi una tabella partizionata per data di importazione. Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche delle partizioni al giorno. |
Numero di modifiche delle partizioni per tabella partizionata per colonne al giorno | 30.000 modifiche | Il progetto può apportare fino a 30.000 modifiche alle partizioni al giorno per una tabella partizionata per colonne. Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche delle partizioni al giorno. I dati in streaming non vengono conteggiati ai fini del numero di modifiche delle partizioni al giorno. |
Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella partizionata | 50 modifiche ogni 10 secondi |
Il progetto può apportare fino a 50 modifiche per tabella partizionata ogni
10 secondi. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati tabella partizionata, eseguite da quanto segue:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE o UPDATE per scrivere
dati in una tabella.
Se superi questo limite, viene visualizzato un messaggio di errore come
Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi esaminare i log. |
Numero di intervalli possibili per il partizionamento degli intervalli | 10.000 intervalli | Una tabella partizionata per intervallo può avere fino a 10.000 intervalli possibili. Questo limite si applica alla specifica della partizione quando crei la tabella. Dopo aver creato la tabella, il limite si applica anche al numero effettivo di partizioni. |
Cloni di tabelle
I seguenti limiti si applicano ai cloni di tabelle BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di cloni e istantanee in una catena | 3 cloni o istantanee di tabelle | Le combinazioni di cloni e istantanee sono limitate a una profondità di 3. Quando cloni o acquisisci un'istantanea di una tabella di base, puoi eseguire la clonazione o acquisire un'istantanea del risultato solo altre due volte. Il tentativo di eseguire la clonazione o acquisire un'istantanea del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, lo snapshot B del clone A e il clone C dello snapshot B. Per creare altri duplicati del clone o dello snapshot di terzo livello, utilizza un'operazione di copia. |
Numero massimo di cloni e istantanee per una tabella di base | 1000 snapshot o cloni di tabelle | Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Snapshot delle tabelle
I seguenti limiti si applicano agli snapshot delle tabelle BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di job di snapshot delle tabelle simultanei | 100 job | Il progetto può eseguire fino a 100 job di snapshot delle tabelle simultanei. |
Numero massimo di job di snapshot delle tabelle al giorno | 50.000 job | Il progetto può eseguire fino a 50.000 job di snapshot delle tabelle al giorno. |
Numero massimo di job di snapshot delle tabelle per tabella al giorno | 50 job | Il progetto può eseguire fino a 50 job di snapshot delle tabelle per tabella al giorno. |
Numero massimo di aggiornamenti dei metadati per snapshot della tabella ogni 10 secondi. | 5 aggiornamenti | Il progetto può aggiornare i metadati di uno snapshot di tabella fino a cinque volte ogni 10 secondi. |
Numero massimo di cloni e istantanee in una catena | 3 cloni o istantanee di tabelle | Le combinazioni di cloni e istantanee sono limitate a una profondità di 3. Quando cloni o acquisisci un'istantanea di una tabella di base, puoi eseguire la clonazione o acquisire un'istantanea del risultato solo altre due volte. Il tentativo di eseguire la clonazione o acquisire un'istantanea del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, lo snapshot B del clone A e il clone C dello snapshot B. Per creare altri duplicati del clone o dello snapshot di terzo livello, utilizza un'operazione di copia. |
Numero massimo di cloni e istantanee per una tabella di base | 1000 snapshot o cloni di tabelle | Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Visualizzazioni
Le quote e i limiti seguenti si applicano alle visualizzazioni e alle visualizzazioni con dati aggregati.
Visualizzazioni logiche
I seguenti limiti si applicano alle visualizzazioni standard di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di livelli di visualizzazione nidificati | 16 livelli |
BigQuery supporta fino a 16 livelli di viste nidificate.
È possibile creare viste fino a questo limite, ma le query sono limitate a 15 livelli. Se il limite viene superato, BigQuery restituisce un errore INVALID_INPUT .
|
Lunghezza massima di una query GoogleSQL utilizzata per definire una visualizzazione | 256 K caratteri | Una singola query GoogleSQL che definisce una vista può avere una lunghezza massima di 256.000 caratteri. Questo limite si applica a una singola query e non include la lunghezza delle viste a cui fa riferimento la query. |
Numero massimo di viste autorizzate per set di dati | Consulta la sezione Set di dati. | |
Lunghezza massima della descrizione di una visualizzazione | 16.384 caratteri | Quando aggiungi una descrizione a una vista, il testo può contenere al massimo 16.384 caratteri. |
Viste materializzate
I seguenti limiti si applicano alle viste materializzate di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Riferimenti alle tabelle di base (stesso set di dati) | 20 viste materializzate | A ogni tabella di base possono fare riferimento fino a 20 visualizzazioni materializzate dello stesso set di dati. |
Riferimenti alle tabelle di base (stesso progetto) | 100 viste materializzate | A ogni tabella di base possono fare riferimento fino a 100 visualizzazioni materializzate dello stesso progetto. |
Riferimenti alle tabelle di base (intera organizzazione) | 500 viste materializzate | A ogni tabella di base possono fare riferimento fino a 500 visualizzazioni materializzate dell'intera organizzazione. |
Numero massimo di viste autorizzate per set di dati | Consulta la sezione Set di dati. | |
Lunghezza massima della descrizione di una vista materializzata | 16.384 caratteri | Quando aggiungi una descrizione a una vista materializzata, il testo può contenere al massimo 16.384 caratteri. |
Indici di ricerca
I seguenti limiti si applicano agli indici di ricerca di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero di istruzioni DDL CREATE INDEX per progetto per
regione al giorno
|
500 operazioni |
Il tuo progetto può emettere fino a 500 operazioni DDL
di CREATE INDEX ogni giorno all'interno di una regione.
|
Numero di istruzioni DDL dell'indice di ricerca per tabella al giorno | 20 operazioni |
Il progetto può emettere fino a 20 operazioni DDL CREATE INDEX o
DROP INDEX per tabella al giorno.
|
Dimensioni totali massime dei dati di tabella per organizzazione consentite per la creazione di indici di ricerca che non vengono eseguiti in una prenotazione | 100 TB in più regioni; 20 TB in tutte le altre regioni |
Puoi creare un indice di ricerca per una tabella se le dimensioni complessive delle tabelle con indici nella tua organizzazione sono inferiori al limite della tua regione: 100 TB per le regioni multiple US e EU e 20 TB per tutte le altre regioni. Se i job di gestione dell'indice vengono eseguiti
nella
tua prenotazione, questo limite non si applica.
|
Indici di vettori
I seguenti limiti si applicano agli indici di vettori di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero minimo di righe della tabella di base | 5000 righe | Per creare un indice di vettori,una tabella deve contenere almeno 5000 righe. |
Numero massimo di righe della tabella di base |
10.000.000.000 righe per il tipo di indice IVF 200.000.000 per il tipo di indice TREE_AH |
Una tabella può avere al massimo 10.000.000.000 righe per creare un indice vettoriale IVF e 200.000.000 righe per creare un indice vettoriale TREE_AH. |
Dimensione massima dell'array nella colonna indicizzata | 1600 elementi | La colonna da indicizzare può avere al massimo 1600 elementi nell'array. |
Dimensioni minime della tabella per la compilazione dell'indice vettoriale | 10 MB | Se crei un indice vettoriale in una tabella di dimensioni inferiori a 10 MB, l'indice non viene compilato. Analogamente, se elimini i dati da una tabella con indice vettoriale in modo che le dimensioni della tabella siano inferiori a 10 MB, l'indice vettoriale viene disattivato temporaneamente. Ciò avviene indipendentemente dal fatto che tu utilizzi la tua prenotazione per i job di gestione dell'indice. Quando le dimensioni di una tabella con indice vettoriale superano di nuovo i 10 MB, l'indice viene compilato automaticamente. |
Numero di istruzioni DDL CREATE VECTOR INDEX per progetto
per regione al giorno
|
500 operazioni |
Per ogni progetto, puoi emettere fino a 500 operazioni
CREATE VECTOR INDEX al giorno per ogni regione.
|
Numero di istruzioni DDL per gli indici vettoriali per tabella al giorno | 10 operazioni |
Puoi emettere fino a 10 operazioni CREATE VECTOR INDEX o
DROP VECTOR INDEX per tabella al giorno.
|
Dimensioni totali massime dei dati della tabella per organizzazione consentite per la creazione di indici vettoriali che non vengono eseguiti in una prenotazione | 6 TB | Puoi creare un indice vettoriale per una tabella se le dimensioni totali delle tabelle con indici nella tua organizzazione sono inferiori a 6 TB. Se i job di gestione dell'indice vengono eseguiti nella tua prenotazione, questo limite non si applica. |
Routine
Alle routine si applicano le quote e i limiti seguenti.
Funzioni definite dall'utente
I seguenti limiti si applicano sia alle funzioni definite dall'utente temporanee che a quelle permanenti nelle query GoogleSQL.
Limite | Predefinito | Note |
---|---|---|
Output massimo per riga | 5 MB | La quantità massima di dati che la funzione JavaScript definita dall'utente può produrre durante l'elaborazione di una singola riga è di circa 5 MB. |
Numero massimo di query SQL precedente in parallelo con funzioni definite dall'utente JavaScript | 6 query | Il progetto può contenere fino a sei query SQL precedente in parallelo che contengono funzioni definite dall'utente in JavaScript. Questo limite include sia le query interattive che quelle batch. Questo limite non si applica alle query GoogleSQL. |
Risorse UDF JavaScript massime per query | 50 risorse | Un job di query può avere fino a 50 risorse JavaScript delle funzioni definite dall'utente, come blob di codice inline o file esterni. |
Dimensione massima del blob di codice in linea | 32 kB | Un blob di codice inline in una FDU può avere una dimensione massima di 32 KB. |
Dimensione massima di ogni risorsa di codice esterna | 1 MB | La dimensione massima di ogni risorsa di codice JavaScript è di 1 MB. |
Ai seguenti limiti si applicano le funzioni definite dall'utente permanenti:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una UDF | 256 caratteri | Un nome di funzione UDF può contenere fino a 256 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una UDF può avere fino a 256 argomenti. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome dell'argomento di una UDF può contenere fino a 128 caratteri. |
Profondità massima di una catena di riferimento di una FDU | 16 riferimenti | Una catena di riferimenti UDF può contenere fino a 16 riferimenti. |
Profondità massima di un argomento o output di tipo STRUCT
|
15 livelli |
Un argomento o un output di tipo UDF STRUCT può avere fino a
15 livelli di profondità.
|
Numero massimo di campi negli argomenti o nell'output di tipo STRUCT
per UDF
|
1024 campi |
Un'UDF può avere fino a 1024 campi negli argomenti e nell'output di tipo STRUCT .
|
Numero massimo di librerie JavaScript in un'istruzione CREATE FUNCTION
|
50 biblioteche |
Un'istruzione CREATE FUNCTION può avere fino a 50 librerie
JavaScript.
|
Lunghezza massima dei percorsi della libreria JavaScript inclusi | 5000 caratteri | Il percorso di una libreria JavaScript inclusa in una UDF può avere una lunghezza massima di 5000 caratteri. |
Frequenza di aggiornamento massima per UDF ogni 10 secondi | 5 aggiornamenti | Il progetto può aggiornare una UDF fino a cinque volte ogni 10 secondi. |
Numero massimo di funzioni UDF autorizzate per set di dati | Consulta la sezione Set di dati. |
Funzioni remote
I seguenti limiti si applicano alle funzioni remote in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query simultanee che contengono funzioni remote | 10 query | Puoi eseguire fino a dieci query simultanee con funzioni remote per progetto. |
Dimensioni massime dell'input | 5 MB | La dimensione totale massima di tutti gli argomenti di input di una singola riga è 5 MB. |
Limite di dimensione della risposta HTTP (funzioni Cloud Run 1ª generazione.) | 10 MB | Il corpo della risposta HTTP della funzione Cloud Run (1ª generazione.) può avere un massimo di 10 MB. Il superamento di questo valore causa errori di query. |
Limite di dimensione della risposta HTTP (funzioni Cloud Run 2ª generazione. o Cloud Run) | 15 MB | Il corpo della risposta HTTP della funzione Cloud Run 2ª generazione. o Cloud Run può avere un massimo di 15 MB. Il superamento di questo valore provoca errori di query. |
Tempo massimo di chiamata HTTP (funzioni Cloud Run 1ª generazione.) | 9 minuti | Puoi impostare un limite di tempo personalizzato per la funzione Cloud Run 1ª gen. per una singola chiamata HTTP, ma il limite di tempo massimo è di 9 minuti. Il superamento del limite di tempo impostato per la funzione Cloud Run 1ª generazione. può causare errori di richiamo HTTP ed errori di query. |
Limite di tempo per l'invocazione HTTP (funzioni Cloud Run 2ª generazione. o Cloud Run) | 20 minuti | Il limite di tempo per una singola chiamata HTTP alla funzione Cloud Run (2ª generazione.) o Cloud Run. Il superamento di questo valore può causare errori di chiamata HTTP ed errori di query. |
Numero massimo di tentativi di ripetizione dell'invocazione HTTP | 20 | Il numero massimo di tentativi di nuovo tentativo per una singola chiamata HTTP alla funzione Cloud Run 1ª generazione., 2ª generazione. o Cloud Run. Il superamento di questo valore può causare errori di chiamata HTTP ed errori di query. |
Funzioni tabella
I seguenti limiti si applicano alle funzioni tabella di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una funzione della tabella | 256 caratteri | Il nome di una funzione di tabella può contenere fino a 256 caratteri. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome dell'argomento di una funzione di tabella può avere una lunghezza massima di 128 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una funzione tabella può avere fino a 256 argomenti. |
Profondità massima della catena di riferimento di una funzione con valore di tabella | 16 riferimenti | Una catena di riferimenti di funzioni di tabella può contenere fino a 16 riferimenti. |
Profondità massima di un argomento o output di tipo STRUCT
|
15 livelli |
Un argomento STRUCT per una funzione di tabella può avere fino a 15
livelli di profondità. Analogamente, un record STRUCT nell'output di una funzione con valori di tabella può avere fino a 15 livelli di profondità.
|
Numero massimo di campi nell'argomento o nella tabella di ritorno di tipo
STRUCT per funzione tabella
|
1024 campi |
Un argomento STRUCT per
una funzione tabella può avere fino a 1024 campi.
Analogamente, un record STRUCT
nell'output di una funzione di tabella può avere fino a 1024 campi.
|
Numero massimo di colonne nella tabella restituita | 1024 colonne | Una tabella restituita da una funzione tabella può avere fino a 1024 colonne. |
Lunghezza massima dei nomi delle colonne della tabella di ritorno | 128 caratteri | I nomi delle colonne nelle tabelle restituite possono contenere fino a 128 caratteri. |
Numero massimo di aggiornamenti per funzione della tabella ogni 10 secondi | 5 aggiornamenti | Il progetto può aggiornare una funzione di tabella fino a cinque volte ogni 10 secondi. |
Stored procedure per Apache Spark
I seguenti limiti si applicano alle stored procedure BigQuery per Apache Spark:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query sulle procedure archiviate in contemporanea | 50 | Puoi eseguire fino a 50 query sulle procedure memorizzate simultanee per ogni progetto. |
Numero massimo di CPU in uso | 12.000 | Puoi utilizzare fino a 12.000 CPU per ogni progetto. Le query già elaborate non consumano questo limite.
Puoi utilizzare fino a 2400 CPU per ogni località per ogni progetto, tranne nelle seguenti località:
In queste località, puoi utilizzare fino a 500 CPU per ogni località per ogni progetto. Se esegui query simultanee in una località con più regioni e in una località con una sola regione che si trova nella stessa area geografica, le query potrebbero consumare la stessa quota CPU simultanea. |
Dimensioni totali massime dei dischi permanenti standard in uso | 204,8 TB | Puoi utilizzare fino a 204,8 TB di dischi persistenti standard per ogni località per ogni progetto. Le query già elaborate non consumano questo limite. Se esegui query simultanee in una località multiregione e in una località singola regione che si trova nella stessa area geografica, le query potrebbero consumare la stessa quota di dischi permanenti standard. |
Notebooks
A tutti i notebook in BigQuery si applicano tutte le quote e i limiti di Dataform e le quote e i limiti di Colab Enterprise. Si applicano anche i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Dimensioni massime del notebook | 20 MB |
Le dimensioni di un notebook corrispondono al totale dei contenuti, dei metadati e dell'overhead di codifica. Puoi visualizzare le dimensioni dei contenuti del notebook espandendo l'intestazione del notebook, facendo clic su Visualizza e poi su Informazioni sul notebook. |
Numero massimo di richieste al secondo a Dataform | 100 | Notebooks vengono creati e gestiti tramite Dataform. Qualsiasi azione che crea o modifica un notebook viene conteggiata ai fini del calcolo di questa quota. Questa quota è condivisa con le query salvate. Ad esempio, se apporti 50 modifiche ai notebook e 50 alle query salvate entro 1 secondo, raggiungi la quota. |
Query salvate
A tutte le query salvate si applicano tutte le quote e i limiti di Dataform. Si applicano inoltre i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Dimensioni massime delle query salvate | 10 MB | |
Numero massimo di richieste al secondo a Dataform | 100 | Le query salvate vengono create e gestite tramite Dataform. Qualsiasi azione che crea o modifica una query salvata viene conteggiata ai fini del calcolo di questa quota. Questa quota è condivisa con i notebook. Ad esempio, se apporti 50 modifiche ai notebook e 50 alle query salvate entro 1 secondo, raggiungi la quota. |
Data Manipulation Language (DML)
I seguenti limiti si applicano alle istruzioni DML (Data Manipulation Language) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Istruzioni DML al giorno | Illimitato |
Il numero di istruzioni DML che il progetto può eseguire al giorno è illimitato.
Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche alla tabella al giorno o del numero di modifiche alla tabella tabella partizionata al giorno per le tabelle partizionate. Tieni presente le seguenti limitazioni delle istruzioni DML. |
Istruzioni DML INSERT in parallelo per tabella al giorno
|
1500 estratti conto |
Le prime 1500 istruzioni INSERT
vengono eseguite immediatamente dopo l'invio. Una volta raggiunto questo limite,
la concorrenza delle istruzioni INSERT che scrivono in una tabella
è limitata a 10. Vengono aggiunte altre istruzioni INSERT a
una coda PENDING . In qualsiasi momento è possibile mettere in coda fino a 100 istruzioni INSERT per una tabella. Al termine di un'istruzione
INSERT , l'istruzione INSERT
successiva viene rimossa dalla coda ed eseguita.
Se devi eseguire istruzioni INSERT DML più di frequente,
valuta la possibilità di inserire flussi di dati nella tabella utilizzando
l'API Storage Write.
|
Istruzioni DML con mutazioni in parallelo per tabella | 2 estratti conto |
BigQuery esegue fino a due istruzioni DML con modifica (UPDATE , DELETE e
MERGE ) per ogni tabella. Altre istruzioni DML con mutazioni
per una tabella vengono messe in coda.
|
Istruzioni DML con modifica in coda per tabella | 20 estratti conto | Una tabella può avere fino a 20 istruzioni DML con modifica nella coda in attesa di essere eseguite. Se invii altre istruzioni DML con modifica per la tabella, queste istruzioni non andranno a buon fine. |
Tempo massimo in coda per l'istruzione DML | 6 ore | Un'istruzione DML con priorità interattiva può attendere in coda fino a sei ore. Se l'istruzione non viene eseguita dopo sei ore, l'operazione non va a buon fine. |
Frequenza massima delle istruzioni DML per ogni tabella | 25 istruzioni ogni 10 secondi |
Il progetto può eseguire fino a 25 istruzioni DML ogni 10 secondi per ogni tabella. Sia le istruzioni DML INSERT sia quelle con mutazioni contribuiscono a questo limite.
|
Per ulteriori informazioni sulla modifica delle istruzioni DML, consulta
INSERT
Concorrenza DML e
UPDATE, DELETE, MERGE
Concorrenza DML.
Query con più istruzioni
I seguenti limiti si applicano alle query con più istruzioni in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query con più istruzioni in parallelo | 1000 query con più istruzioni | Il progetto può eseguire fino a 1000 query con più istruzioni simultanee. |
Limite di tempo cumulativo | 24 ore | Il limite di tempo cumulativo per una query con più istruzioni è di 24 ore. |
Limite di tempo per l'estratto conto | 6 ore | Il limite di tempo per una singola istruzione all'interno di una query con più istruzioni è di 6 ore. |
CTE ricorsivi nelle query
I seguenti limiti si applicano alle espressioni della tabella comune (CTE) ricorsive in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Limite di iterazioni | 500 iterazioni | La CTE ricorsiva può eseguire questo numero di iterazioni. Se questo limite viene superato, viene generato un errore. Per aggirare i limiti di iterazione, consulta Risolvere gli errori relativi al limite di iterazione. |
Sicurezza a livello di riga
I seguenti limiti si applicano ai criteri di accesso a livello di riga di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di criteri di accesso riga per tabella | Norme relative ai codici 400 | Una tabella può avere fino a 400 criteri di accesso alle righe. |
Numero massimo di criteri di accesso riga per query | 6000 criteri | Una query può accedere a un totale di 6000 criteri di accesso alle righe. |
Numero massimo di istruzioni DDL CREATE / DROP
per criterio ogni 10 secondi |
5 estratti conto |
Il progetto può generare fino a cinque istruzioni CREATE o DROP
per risorsa delle norme di accesso alle righe ogni 10 secondi.
|
DROP ALL ROW ACCESS POLICIES istruzioni per tabella ogni
10 secondi |
5 estratti conto |
Il progetto può eseguire fino a cinque istruzioni DROP ALL ROW ACCESS POLICIES
per tabella ogni 10 secondi.
|
Norme relative ai dati
Per il mascheramento dinamico dei dati a livello di colonna si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di criteri relativi ai dati per tag di criteri. | 8 criteri per tag di criteri | Fino a otto criteri dei dati per tag di criteri. Uno di questi criteri può essere utilizzato per i controlli di accesso a livello di colonna. Le espressioni di mascheramento duplicate non sono supportate. |
BigQuery ML
I seguenti limiti si applicano a BigQuery ML.
Job di query
Tutte le quote e i limiti dei job di query si applicano ai job di query GoogleSQL che utilizzano le istruzioni e le funzioni di BigQuery ML.
CREATE MODEL
estratti conto
Ai job CREATE MODEL
si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
CREATE MODEL
query degli statement ogni 48 ore per ogni progetto |
20.000 query con istruzioni | Alcuni modelli vengono addestrati utilizzando servizi Vertex AI, che dispongono di una propria gestione delle risorse e delle quote. |
Limite di tempo di esecuzione | 24 ore o 72 ore | CREATE MODEL
Il valore predefinito del timeout del job è 24 ore, ad eccezione dei job di serie temporali,
AutoML e di ottimizzazione degli iperparametri, che hanno un timeout di 72
ore. |
Funzioni dei servizi Vertex AI e Cloud AI
I seguenti limiti si applicano alle funzioni che utilizzano i modelli linguistici di grandi dimensioni (LLM) di Vertex AI e i servizi di IA su cloud:
Funzione | Richieste al minuto | Righe per job | Numero di job in esecuzione contemporaneamente |
---|---|---|---|
ML.GENERATE_TEXT quando utilizzi un modello remoto anziché un modello gemini-1.5-pro |
60 | 21.600 | 5 |
ML.GENERATE_TEXT quando utilizzi un modello remoto anziché un modello gemini-1.5-flash |
200 | 72.000 | 5 |
ML.GENERATE_TEXT se utilizzi un modello remoto rispetto al modello gemini-1.0-pro-vision nella regione us-central1 |
100 | 20.000 | 1 |
ML.GENERATE_TEXT quando utilizzi un modello remoto rispetto al modello gemini-1.0-pro-vision in regioni diverse da us-central1 |
10 | 3600 | 1 |
ML.GENERATE_TEXT se utilizzi un modello remoto anziché un
gemini-1.0-pro modello nella regione us-central1 |
300 | 108.000 | 5 |
ML.GENERATE_TEXT se utilizzi un modello remoto anziché un
gemini-1.0-pro modello in regioni diverse da us-central1 |
10 | 3600 | 5 |
ML.GENERATE_TEXT quando utilizzi un modello remoto anziché un modello Anthropic Claude |
30 | 10.800 | 5 |
ML.GENERATE_TEXT se utilizzi un modello remoto anziché un
text-bison |
1600 | 576.000 | 5 |
ML.GENERATE_TEXT se utilizzi un modello remoto anziché un
text-bison-32 |
300 | 108.000 | 5 |
ML.GENERATE_EMBEDDING se utilizzato con modelli remoti su modelli Vertex AI multimodalembedding in regioni europee singole supportate |
120 | 14.000 | 5 |
ML.GENERATE_EMBEDDING se utilizzato con modelli remoti su modelli Vertex AI multimodalembedding in regioni diverse dalle singole regioni europee supportate |
600 | 25.000 | 5 |
ML.GENERATE_EMBEDDING se utilizzato con modelli remoti su
modelli text-embedding e
text-multilingual-embedding di Vertex AI nella regione us-central1 |
1500 | 2.700.000 | 1 |
ML.GENERATE_EMBEDDING se utilizzato con modelli remoti su
modelli text-embedding e
text-multilingual-embedding di Vertex AI in regioni diverse da us-central1 |
100 | 324.000 | 1 |
ML.PROCESS_DOCUMENT con documenti di una pagina in media |
600 | 150.000 | 5 |
ML.PROCESS_DOCUMENT con documenti di dieci pagine in media |
600 | 100.000 | 5 |
ML.PROCESS_DOCUMENT con documenti di media cinquanta pagine |
600 | 15.000 | 5 |
ML.TRANSCRIBE |
200 | 10.000 | 5 |
ML.ANNOTATE_IMAGE |
1800 | 648.000 | 5 |
ML.TRANSLATE |
6000 | 2.160.000 | 5 |
ML.UNDERSTAND_TEXT |
600 | 21.600 | 5 |
Per ulteriori informazioni sulla quota per gli LLM di Vertex AI e le API di servizi Cloud AI, consulta i seguenti documenti:
- Limiti di quota dell'IA generativa su Vertex AI
- Quota e limiti dell'API Cloud Translation
- Quota e limiti dell'API Vision
- Quota e limiti dell'API Natural Language
- Quota e limiti di Document AI
- Quote e limiti di Speech-to-Text
La quota di righe per job rappresenta il numero teorico massimo di righe che il sistema può gestire in un periodo di tempo di 6 ore. Il numero effettivo di рядок elaborate dipende da molti altri fattori, tra cui le dimensioni dell'input e le condizioni della rete.
Ad esempio, ML.TRANSCRIBE
può elaborare più audio brevi rispetto agli audio lunghi.
Per richiedere una quota maggiore per le funzioni BigQuery ML, modifica prima la quota per il servizio LLM o Cloud AI di Vertex AI associato, quindi invia un'email all'indirizzo bqml-feedback@google.com e includi informazioni sulla quota del servizio LLM o Cloud AI modificata. Per ulteriori informazioni su come richiedere una quota maggiore per questi servizi, consulta Richiedere una quota maggiore.
Definizioni delle quote
L'elenco seguente descrive le quote che si applicano alle funzioni dei servizi Vertex AI e Cloud AI:
- Le funzioni che chiamano un modello di base Vertex AI utilizzano una quota Vertex AI, ovvero query al minuto (QPM). In questo contesto, le query sono chiamate di richiesta dalla funzione all'API del modello Vertex AI. La quota QPM si applica a un modello di base e a tutte le versioni, gli identificatori e le versioni ottimizzate di quel modello. Per maggiori informazioni sulle quote dei modelli di base di Vertex AI, consulta Quote per regione e modello.
- Le funzioni che chiamano un servizio Cloud AI utilizzano le quote di richiesta del servizio di destinazione. Per informazioni dettagliate, controlla il riferimento alla quota del servizio Cloud AI in questione.
BigQuery ML utilizza tre quote:
Richieste al minuto. Questa quota è il limite al numero di chiamate di richiesta al minuto che le funzioni possono effettuare all'API del servizio Cloud AI o del modello Vertex AI. Questo limite si applica a ogni progetto.
Per le funzioni che chiamano un modello di base Vertex AI, il numero di chiamate di richiesta al minuto varia a seconda dell'endpoint, della versione e della regione del modello Vertex AI. Questa quota è concettualmente la stessa della quota QPM utilizzata da Vertex AI, ma potrebbe avere un valore inferiore rispetto alla quota QPM per un modello corrispondente.
Righe per job. Questa quota è il limite al numero di righe consentito per ogni job di query.
Numero di job in esecuzione contemporaneamente. Questa quota è il limite per progetto per il numero di query SQL che possono essere eseguite contemporaneamente per la funzione indicata.
Gli esempi riportati di seguito mostrano come interpretare le limitazioni di quota in situazioni comuni:
Ho una quota di 1000 QPM in Vertex AI, quindi una query con 100.000 righe dovrebbe richiedere circa 100 minuti. Perché il job richiede più tempo?
I tempi di esecuzione dei job possono variare anche per gli stessi dati di input. In Vertex AI, le chiamate di procedura remota (RPC) hanno priorità diverse per evitare un calo delle quote. Quando la quota non è sufficiente, le RPC con priorità inferiori rimangono in attesa e potrebbero non riuscire se l'elaborazione richiede troppo tempo.
Come devo interpretare la quota righe per job?
In BigQuery, una query può essere eseguita per un massimo di sei ore. Il numero massimo di righe supportate è una funzione di questa tempistica e della quota QPM di Vertex AI, per garantire che BigQuery possa completare l'elaborazione delle query in sei ore. Poiché solitamente una query non può utilizzare l'intera quota, si tratta di un numero inferiore alla quota QPM moltiplicata per 360.
Cosa succede se eseguo un job di inferenza batch su una tabella con più righe rispetto alla quota di righe per job, ad esempio 10.000.000 di righe?
BigQuery elabora solo il numero di righe specificato dalla quota righe per job. Ti vengono addebitate solo le chiamate API riuscite per quel numero di righe, anziché per tutte le 10.000.000 di righe della tabella. Per il resto delle righe, BigQuery risponde alla richiesta con un errore
A retryable error occurred: the maximum size quota per query has reached
, che viene restituito nella colonnastatus
del risultato. Puoi utilizzare questo insieme di script SQL o questo pacchetto Dataform per eseguire l'iterazione delle chiamate di inferenza finché tutte le righe non vengono elaborate correttamente.Ho molte più righe da elaborare rispetto alla quota di righe per job. Puoi aiutarmi se suddivido le righe in più query ed eseguo contemporaneamente le query?
No, perché queste query consumano la stessa quota di richieste al minuto di BigQuery ML e la stessa quota QPM di Vertex AI. Se esistono più query che rientrano tutte nelle righe per quota di job e nel numero di job in esecuzione contemporaneamente, l'elaborazione cumulativa esaurisce la quota di richieste al minuto.
BI Engine
I seguenti limiti si applicano a BigQuery BI Engine.
Limite | Predefinito | Note |
---|---|---|
Dimensioni massime della prenotazione per progetto per località (interfaccia SQL) | 250 GiB | Si applica quando si utilizza BI Engine con BigQuery. Si applica in tutti i casi, ad eccezione di Looker Studio senza integrazione nativa.
Puoi richiedere un aumento della capacità di prenotazione massima per i tuoi progetti. Gli aumenti delle prenotazioni sono disponibili nella maggior parte delle regioni e l'elaborazione può richiedere da 3 giorni a una settimana. |
Numero massimo di righe per query | 7 miliardi | Numero massimo di righe per query. |
Analytics Hub
I seguenti limiti si applicano ad Analytics Hub:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di scambi di dati per progetto | 500 scambi | In un progetto puoi creare fino a 500 scambi di dati. |
Numero massimo di schede per scambio di dati | 1000 schede | Puoi creare fino a 1000 schede in uno scambio dati. |
Numero massimo di set di dati collegati per set di dati condiviso | 1000 set di dati collegati | Tutti gli abbonati ad Analytics Hub, combinati, possono avere un massimo di 1000 set di dati collegati per set di dati condiviso. |
Quote e limiti dell'API
Queste quote e questi limiti si applicano alle richieste dell'API BigQuery.
API BigQuery
Le seguenti quote si applicano alle richieste dell'API BigQuery (di base):
Quota | Predefinito | Note |
---|---|---|
Richieste al giorno | Illimitato |
Il tuo progetto può inviare un numero illimitato di richieste all'API BigQuery al giorno.
Visualizza la quota nella console Google Cloud |
Massimo
tabledata.list byte al minuto
|
7,5 GB in più regioni; 3,7 GB in tutte le altre regioni |
Il progetto può restituire un massimo di 7,5 GB di dati delle righe di una tabella al minuto tramite tabledata.list nelle regioni multiple us e eu e 3,7 GB di dati delle righe di una tabella al minuto in tutte le altre regioni. Questa quota si applica al progetto che contiene la tabella letta. Anche altre API che includono
jobs.getQueryResults e
recuperano risultati da
jobs.query e
jobs.insert possono consumare questa quota.
Visualizza la quota nella console Google Cloud
L'API BigQuery Storage Read
può supportare un throughput notevolmente superiore rispetto a
|
I seguenti limiti si applicano alle richieste dell'API BigQuery (di base):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di richieste API al secondo per utente per metodo | 100 richieste | Un utente può inviare fino a 100 richieste API al secondo a un metodo API. Se un utente invia più di 100 richieste al secondo a un metodo, può verificarsi il throttling. Questo limite non si applica agli inserimenti di flussi di dati. |
Numero massimo di richieste API in parallelo per utente | 300 richieste | Se un utente effettua più di 300 richieste in parallelo, può verificarsi il throttling. Questo limite non si applica agli inserimenti di flussi di dati. |
Dimensione massima dell'intestazione della richiesta | 16 KiB |
La richiesta dell'API BigQuery può avere un massimo di 16 KiB, incluso l'URL
della richiesta e tutte le intestazioni. Questo limite non si applica al corpo della richiesta, ad esempio in una richiesta POST .
|
Massimo
jobs.get richieste al secondo
|
1000 richieste |
Il tuo progetto può effettuare fino a 1000
jobs.get
richieste al secondo.
|
Dimensioni massime della risposta
jobs.query
|
20 MB |
Per impostazione predefinita, non esiste un numero massimo di righe di
dati restituite da jobs.query per pagina di risultati. Tuttavia, non puoi superare la dimensione massima di risposta pari a 20 MB. Puoi modificare il
numero di righe da restituire utilizzando il parametro maxResults .
|
Dimensione massima della riga
jobs.getQueryResults
|
20 MB | La dimensione massima della riga è approssimativa perché il limite si basa sulla representation interna dei dati di riga. Il limite viene applicato durante la transcodificazione. |
Massimo
projects.list richieste al secondo
|
2 richieste |
Il tuo progetto può effettuare fino a due richieste
projects.list al secondo.
|
Numero massimo di
tabledata.list richieste al secondo
|
1000 richieste |
Il tuo progetto può effettuare fino a 1000 richieste tabledata.list
al secondo.
|
Numero massimo di righe per risposta
tabledata.list
|
100.000 righe |
Una chiamata tabledata.list può restituire fino a 100.000 righe di tabella.
Per ulteriori informazioni, consulta
Eseguire la paginazione dei risultati
utilizzando l'API.
|
Dimensione massima della riga
tabledata.list
|
100 MB | La dimensione massima della riga è approssimativa perché il limite si basa sulla representation interna dei dati di riga. Il limite viene applicato durante la transcodificazione. |
Massimo
tables.insert richieste al secondo
|
10 richieste |
Il tuo progetto può effettuare fino a 10 richieste tables.insert al secondo.
Il metodo tables.insert crea una nuova tabella vuota in un set di dati. Il limite include le istruzioni SQL che creano
le tabelle, ad esempio
CREATE TABLE , e le
query che scrivono i risultati nelle tabelle di destinazione.
|
API BigQuery Connection
Le seguenti quote si applicano alle richieste dell'API BigQuery Connection:
Quota | Predefinito | Note |
---|---|---|
Richieste di lettura al minuto | 1000 richieste al minuto |
Il progetto può inviare fino a 1000 richieste al minuto ai metodi dell'API BigQuery Connection che leggono i dati di connessione.
Visualizza la quota nella console Google Cloud |
Richieste di scrittura al minuto | 100 richieste al minuto |
Il progetto può inviare fino a 100 richieste al minuto ai metodi dell'API BigQuery Connection che creano o aggiornano le connessioni.
Visualizza la quota nella console Google Cloud |
Connessioni BigQuery Omni create al minuto | 10 connessioni create al minuto | Il progetto può creare fino a 10 connessioni BigQuery Omni totali su AWS e Azure al minuto. |
Utilizzi della connessione BigQuery Omni | 100 utilizzi della connessione al minuto | Il progetto può utilizzare una connessione BigQuery Omni fino a 100 volte al minuto. Questo vale per le operazioni che utilizzano la connessione per accedere al tuo account AWS, ad esempio l'esecuzione di query su una tabella. |
API BigQuery Migration
I seguenti limiti si applicano all'API BigQuery Migration:
Limite | Predefinito | Note |
---|---|---|
Dimensioni dei singoli file per la traduzione SQL batch | 10 MB |
Ogni singolo file di origine e metadati può avere una dimensione massima di 10 MB.
Questo limite non si applica al file ZIP dei metadati prodotto dallo
strumento di estrazione a riga di comando dwh-migration-dumper .
|
Dimensioni totali dei file di origine per la traduzione SQL batch | 1 GB | La dimensione totale di tutti i file di input caricati su Cloud Storage può essere fino a 1 GB. Sono inclusi tutti i file di origine e tutti i file di metadati se scegli di includerli. |
Dimensioni della stringa di input per la traduzione SQL interattiva | 1 MB | La stringa inserita per la traduzione SQL interattiva non deve superare i 1 MB. Quando esegui traduzioni interattive utilizzando l'API Translation, questo limite si applica alle dimensioni totali di tutti gli input di stringa. |
Dimensione massima del file di configurazione per la traduzione SQL interattiva | 50 MB |
I singoli file di metadati (compressi) e i file di configurazione YAML in Cloud Storage non devono superare i 50 MB. Se le dimensioni del file superano i 50 MB,
il traduttore interattivo salta il file di configurazione durante
la traduzione e genera un messaggio di errore. Un metodo per ridurre le dimensioni del file dei metadati consiste nell'utilizzare i flag —database o –schema per filtrare i database quando generi i metadati.
|
Le seguenti quote si applicano all'API BigQuery Migration. Nella maggior parte dei casi si applicano i seguenti valori predefiniti. I valori predefiniti per il tuo progetto potrebbero essere diversi:
Quota | Predefinito | Note |
---|---|---|
Richieste di elenco di servizi EDWMigration al minuto Richieste di elenchi di servizi EDWMigration al minuto per utente |
12.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 12.000 richieste di elenco dell'API Migration al minuto. Ogni utente può effettuare fino a 2500 richieste di elenchi API di migrazione al minuto. Visualizzare le quote nella console Google Cloud |
Richieste get del servizio EDWMigration al minuto Richieste get del servizio EDWMigration al minuto per utente |
25.000 richieste 2500 richieste |
Il progetto può effettuare fino a 25.000 richieste GET dell'API Migration al minuto. Ogni utente può effettuare fino a 2500 richieste GET dell'API di migrazione al minuto. Visualizzare le quote nella console Google Cloud |
Altre richieste al servizio EDWMigration al minuto Altre richieste del servizio EDWMigration al minuto per utente |
25 richieste 5 richieste |
Il progetto può effettuare fino a 25 altre richieste all'API Migration al minuto. Ogni utente può effettuare fino a 5 altre richieste all'API di migrazione al minuto. Visualizzare le quote nella console Google Cloud |
Richieste di traduzione SQL interattiva al minuto Richieste di traduzione SQL interattiva al minuto per utente |
200 richieste 50 richieste |
Il progetto può effettuare fino a 200 richieste al minuto al servizio di traduzione SQL. Ogni utente può effettuare fino a 50 altre richieste al servizio di traduzione SQL al minuto. Visualizzare le quote nella console Google Cloud |
API BigQuery Reservation
Le seguenti quote si applicano alle richieste dell'API BigQuery Reservation:
Quota | Predefinito | Note |
---|---|---|
Richieste al minuto per regione | 100 richieste |
Il progetto può effettuare fino a un totale di 100 chiamate ai metodi dell'API BigQuery Reservation al minuto per regione.
Visualizza le quote nella console Google Cloud |
Numero di chiamate SearchAllAssignments al minuto per regione
|
100 richieste |
Il progetto può effettuare fino a 100 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud |
Richieste di SearchAllAssignments al minuto per
regione per utente
|
10 richieste |
Ogni utente può effettuare fino a 10 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud (nei risultati di ricerca della console Google Cloud, cerca per utente.) |
API BigQuery Data Policy
I seguenti limiti si applicano all'API Data Policy (anteprima):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di
chiamate dataPolicies.list .
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di chiamate dataPolicies.testIamPermissions .
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di richieste di lettura. |
1200 richieste al minuto per progetto 1800 richieste al minuto per organizzazione |
Sono incluse le chiamate a
dataPolicies.get
e
dataPolicies.getIamPolicy .
|
Numero massimo di richieste di scrittura. |
600 richieste al minuto per progetto 900 richieste al minuto per organizzazione |
Sono incluse le chiamate a: |
API IAM
Le seguenti quote si applicano quando utilizzi le funzionalità di Gestione di identità e accessi in BigQuery per recuperare e impostare i criteri IAM e per testare le autorizzazioni IAM.
Le istruzioni DCL (Data Control Language) contribuiscono alla quota SetIAMPolicy
.
Quota | Predefinito | Note |
---|---|---|
IamPolicy richieste al minuto per utente |
1500 richieste al minuto per utente | Ogni utente può effettuare fino a 1500 richieste al minuto per progetto. Visualizza la quota nella console Google Cloud |
IamPolicy richieste al minuto per progetto |
3000 richieste al minuto per progetto | Il progetto può effettuare fino a 3000 richieste al minuto. Visualizza la quota nella console Google Cloud |
Singola regione
SetIAMPolicy richieste al minuto per progetto |
1000 richieste al minuto per progetto | Il progetto a una sola regione può effettuare fino a 1000 richieste al
minuto. Visualizza la quota nella console Google Cloud |
Più regioni
SetIAMPolicy richieste al minuto per progetto |
2000 richieste al minuto per progetto | Il progetto multiregione può effettuare fino a 2000 richieste al minuto. Visualizza la quota nella console Google Cloud |
Omni-regione
SetIAMPolicy richieste al minuto per progetto |
200 richieste al minuto per progetto | Il progetto omniregione può effettuare fino a 200 richieste al minuto. Visualizza la quota nella console Google Cloud |
API Storage Read
Le seguenti quote si applicano alle richieste dell'API BigQuery Storage Read:
Quota | Predefinito | Note |
---|---|---|
Richieste di lettura del piano dati al minuto per utente | 25.000 richieste |
Ogni utente può effettuare fino a 25.000 chiamate ReadRows al minuto
per progetto.
Visualizza la quota nella console Google Cloud |
Richieste del piano di controllo di lettura al minuto per utente | 5000 richieste |
Ogni utente può effettuare fino a 5000 chiamate di operazioni di metadata
dell'API Storage Read al minuto per progetto. Le chiamate ai metadati includono i metodi
CreateReadSession e SplitReadStream .
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano alle richieste dell'API BigQuery Storage di lettura:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima di righe/filtri | 1 MB |
Quando utilizzi la chiamata CreateReadSession dell'API Storage Read, la lunghezza massima è limitata a 1 MB per ogni riga o filtro.
|
Dimensioni massime dei dati serializzati | 128 MB |
Quando utilizzi la chiamata ReadRows
dell'API Storage di lettura, la rappresentazione serializzata dei dati in un singolo messaggio
ReadRowsResponse non può essere superiore a 128 MB.
|
Numero massimo di connessioni simultanee | 2000 in più regioni; 400 in una regione |
Puoi aprire un massimo di 2000 connessioni ReadRows
contemporanee per progetto nelle regioni multiple us e eu
e 400 connessioni ReadRows contemporanee in altre regioni. In alcuni casi, il numero di connessioni simultanee potrebbe essere inferiore a questo limite.
|
Utilizzo massimo della memoria per stream | 1,5 GB | La memoria massima per stream è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. Gli stream che utilizzano più di 1,5 GB di memoria per una singola riga potrebbero non riuscire. Per ulteriori informazioni, consulta Risolvere i problemi relativi al superamento delle risorse. |
API Storage Write
Le seguenti quote si applicano alle richieste dell'API Storage Write. Le seguenti quote possono essere applicate a livello di cartella. Queste quote vengono poi aggregate e condivise tra tutti i progetti secondari. Per attivare questa configurazione, contatta l'assistenza clienti Google Cloud.
Se prevedi di richiedere un limite di quota più elevato, includi il messaggio di errore della quota nella richiesta per velocizzare l'elaborazione.
Quota | Predefinito | Note |
---|---|---|
Connessioni simultanee | 1000 in una regione; 10.000 in una multiregione |
La quota di connessioni simultanee si basa sul progetto client che avvia la richiesta all'API Storage Write, non sul progetto contenente la risorsa set di dati BigQuery. Il progetto di invio è il progetto associato alla chiave API o all'account di servizio. Il progetto può gestire 1000 connessioni simultanee in una regione o 10.000 connessioni simultanee nelle regioni con più regioni Quando utilizzi lo stream predefinito
in Java o Go, ti consigliamo di utilizzare
il multiplexing dell'API Storage Write
per scrivere in più tabelle di destinazione con connessioni condivise in modo da
ridurre il numero di connessioni complessive necessarie. Se
utilizzi il connettore
Beam con la semantica almeno una volta, puoi impostare
UseStorageApiConnectionPool
su Puoi visualizzare le metriche relative alle quote e ai limiti di utilizzo per i tuoi progetti in
Cloud Monitoring. Seleziona il nome del limite di connessioni simultanee in base alla tua regione. Le opzioni sono |
Velocità effettiva | Velocità in uscita di 3 GB al secondo in più regioni; 300 MB al secondo nelle regioni |
Puoi trasmettere in streaming fino a 3 Gbps nelle regioni geografiche multiple us e
eu e 300 MBps in altre regioni per progetto.
Visualizza la quota nella console Google Cloud Puoi visualizzare le metriche relative alle quote e ai limiti di utilizzo per i tuoi progetti in
Cloud Monitoring. Seleziona il nome del limite di throughput in base alla tua regione. Le opzioni sono |
Richieste CreateWriteStream
|
10.000 stream ogni ora, per progetto e per regione |
Puoi chiamare CreateWriteStream fino a 10.000 volte all'ora
per progetto per regione. Valuta la possibilità di utilizzare lo
stream predefinito
se non hai bisogno della semantica esattamente una volta.
Questa quota è calcolata su base oraria, ma la metrica visualizzata nella console Google Cloud è calcolata su base minuto.
|
Byte in attesa di invio | 10 TB in più regioni; 1 TB in regioni |
Per ogni commit attivato, puoi eseguire fino a 10 TB nelle regioni multiple us e eu e 1 TB in altre regioni. Non sono disponibili report sulle quote per questa quota.
|
I seguenti limiti si applicano alle richieste dell'API Storage Write:
Limite | Predefinito | Note |
---|---|---|
Commit batch | 10.000 stream per tabella |
Puoi impegnare fino a 10.000 stream in ogni
BatchCommitWriteStream chiamata.
|
AppendRows
dimensioni richiesta
|
10 MB | La dimensione massima della richiesta è 10 MB. |
Inserimento di flussi di dati
Le seguenti quote e limiti si applicano quando inserisci flussi di dati in
BigQuery utilizzando l'API di streaming precedente.
Per informazioni sulle strategie per rispettare questi limiti, consulta Risoluzione degli errori di quota.
Se superi queste quote, vengono visualizzati errori quotaExceeded
.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte al secondo per progetto nelle aree geografiche multiple us e eu
|
1 GB al secondo |
Il tuo progetto può trasmettere in streaming fino a 1 GB al secondo. Questa quota è cumulativa all'interno di una specifica area geografica multipla. In altre parole, il limite della somma dei byte al secondo trasmessi a tutte le tabelle per uno specifico progetto all'interno di una regione geografica multipla è di 1 GB.
Il superamento di questo limite provoca errori di tipo Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi eventuali aumenti il prima possibile, almeno due settimane prima del momento in cui ti servono. L'aumento della quota richiede tempo per essere disponibile, soprattutto nel caso di un aumento significativo. |
Numero massimo di byte al secondo per progetto in tutte le altre località | 300 MB al secondo |
Il progetto può trasmettere fino a 300 MB al secondo in tutte le località
tranne le aree geografiche multiple
Il superamento di questo limite provoca errori di tipo Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi eventuali aumenti il prima possibile, almeno due settimane prima del momento in cui ti servono. L'aumento della quota richiede tempo per essere disponibile, soprattutto nel caso di un aumento significativo. |
Dimensioni massime delle righe | 10 MB |
Il superamento di questo valore provoca errori di tipo invalid .
|
Dimensione massima della richiesta HTTP | 10 MB |
Il superamento di questo valore provoca errori di tipo La richiesta viene tradotta internamente da JSON HTTP in una struttura di dati interna. La struttura di dati tradotta ha la propria dimensione massima applicata. È difficile prevedere la dimensione della struttura di dati interna risultante, ma se mantieni le richieste HTTP entro i 10 MB, la possibilità di raggiungere il limite interno è bassa. |
Numero massimo di righe per richiesta | 50.000 righe | Consigliamo di utilizzare un limite massimo di 500 righe. Il batch può aumentare le prestazioni e la velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Se le righe per richiesta sono troppo poche, il sovraccarico di ciascuna richiesta può rendere inefficiente l'importazione. Se le righe per richiesta sono troppe, la velocità effettiva può diminuire. Fai esperimenti con dati rappresentativi (dimensioni di schema e dati) per determinare la dimensione del batch ideale per i tuoi dati. |
Lunghezza del campo insertId
|
128 caratteri |
Il superamento di questo valore provoca errori di tipo invalid .
|
Per una quota di streaming aggiuntiva, consulta Richiedere un aumento di quota.
Larghezza di banda
Le seguenti quote si applicano alla larghezza di banda di replica:
Quota | Predefinito | Note |
---|---|---|
Larghezza di banda massima della replica di backfill iniziale per ogni regione con uscita di dati tra regioni dalla replica principale alle repliche secondarie. | Quota di 10 GiBps fisici per regione per la maggior parte dei progetti | |
Larghezza di banda massima della replica in corso per ogni regione con uscita di dati tra regioni dalla replica principale alle repliche secondarie. | Quota di 5 GiB fisici per regione per la maggior parte dei progetti | |
Larghezza di banda massima della replica turbo per ogni regione con uscita di dati tra regioni dalla replica principale alle repliche secondarie. | Quota predefinita di 5 GiB fisici per regione per la maggior parte dei progetti | La quota della larghezza di banda della replica turbo non si applica all'operazione di backfill iniziale. |
Quando la larghezza di banda di replica di un progetto supera una determinata quota, la replica dei progetti interessati potrebbe interrompersi con l'errore rateLimitExceeded
che include i dettagli della quota superata.