Quote e limiti
Questo documento elenca le quotas e i quotas che si applicano a BigQuery.
Una quota limita la quantità di una risorsa Google Cloud condivisa che può essere utilizzata dal progetto Google Cloud, inclusi hardware, software e componenti di rete. Pertanto, le quote fanno parte di un sistema che:
- Monitora il tuo utilizzo o consumo di prodotti e servizi Google Cloud.
- Limita il consumo di queste risorse, per motivi che includono la garanzia dell'equità e la riduzione dei picchi di utilizzo.
- Mantiene configurazioni che applicano automaticamente le limitazioni prescritte.
- Offre un mezzo per richiedere o modificare la quota.
Nella maggior parte dei casi, quando viene superata una quota, il sistema blocca immediatamente l'accesso alla risorsa Google pertinente e l'attività che stai tentando di eseguire ha esito negativo. Nella maggior parte dei casi, le quote si applicano a ogni progetto Google Cloud e sono condivise tra tutte le applicazioni e gli indirizzi IP che utilizzano il progetto Google Cloud.
Esistono anche dei limiti per le risorse BigQuery. Questi limiti non sono correlati al sistema di quote. I limiti non possono essere modificati se non diversamente indicato.
Per impostazione predefinita, le quote e i limiti di BigQuery si applicano per progetto. Le quote e i limiti che si applicano su base diversa sono indicati come ad esempio, ad esempio il numero massimo di colonne per tabella o il numero massimo di richieste API in parallelo per utente. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di utilizzo dei servizi e di altri fattori e sono soggetti a modifiche senza preavviso.
Rifornimento quota
Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.
Richiedi un aumento della quota
Per aumentare o diminuire la maggior parte delle quote, utilizza la console Google Cloud. Per ulteriori informazioni, consulta Richiedere una quota più alta.
Per indicazioni dettagliate sulla procedura di richiesta di un aumento della quota nella console Google Cloud, fai clic su Aiuto:
Limite di utilizzo della quota
Per scoprire come limitare l'utilizzo di una determinata risorsa specificando una quota minore rispetto a quella predefinita, consulta Limitazione dell'utilizzo.
Autorizzazioni obbligatorie
Per visualizzare e aggiornare le quote BigQuery nella console Google Cloud, devi disporre delle stesse autorizzazioni delle quote di Google Cloud. Per ulteriori informazioni, consulta Autorizzazioni per le quote di Google Cloud.
Risolvere i problemi
Per informazioni sulla risoluzione degli errori relativi a quote e limiti, consulta Risoluzione degli errori di quota di BigQuery.
Job
Quote e limiti si applicano ai job che BigQuery esegue per tuo conto, indipendentemente dal fatto che vengano eseguiti utilizzando la console Google Cloud, lo strumento a riga di comando bq o in modo programmatico mediante l'API REST o le librerie client.
Job di query
Le seguenti quote si applicano ai job di query creati automaticamente eseguendo query interattive, query pianificate e job inviati tramite i metodi dell'API jobs.query
e jobs.insert
di tipo di query:
Quota | Predefinito | Note |
---|---|---|
Utilizzo delle query al giorno | Illimitato | Non esiste alcun limite al numero di byte che possono essere elaborati dalle query in un progetto. Visualizza la quota nella console Google Cloud |
Utilizzo delle query al giorno per utente | Illimitato | Non esiste un limite al numero di byte che le query di un utente possono elaborare ogni giorno. Visualizza la quota nella console Google Cloud |
Byte di query federate tra regioni di Cloud SQL al giorno | 1 TB | Se la
località di elaborazione delle query BigQuery e la località dell'istanza Cloud SQL sono diverse, la query è una query tra regioni. Il progetto può eseguire fino a 1 TB di query tra regioni al giorno. Consulta Query federate di Cloud SQL. Visualizza la quota nella console Google Cloud |
Byte trasferiti tra cloud al giorno | 1 TB |
Puoi trasferire fino a 1 TB di dati al giorno da un bucket Amazon S3 o da Archiviazione BLOB di Azure. Per maggiori informazioni, consulta
Trasferimento
tra cloud da Amazon S3 e Azure.
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano ai job di query creati automaticamente eseguendo query interattive, query pianificate e job inviati tramite i metodi dell'API jobs.query
e jobs.insert
di tipo di query:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query interattive in coda | 1000 query | Il progetto può mettere in coda fino a 1000 query interattive. Le altre query interattive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query batch in coda | 20.000 query | Il progetto può inserire in coda fino a 20.000 query batch. Le query batch aggiuntive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query interattive in parallelo su origini dati esterne di Bigtable | 16 query | Il progetto può eseguire fino a sedici query in parallelo su un'origine dati esterna di Bigtable. |
Numero massimo di query in parallelo che contengono funzioni remote | 10 query | Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto. |
Numero massimo di query in parallelo a più istruzioni | 1000 query a istruzioni multiple | Il progetto può eseguire fino a 1000 query con più istruzioni simultanee. Per altre quote e limiti relativi alle query con più istruzioni, consulta Query con istruzioni multiple. |
Numero massimo di query SQL precedente simultanee che contengono funzioni definite dall'utente | 6 query | Il tuo progetto può eseguire fino a sei query SQL precedente concomitanti con funzioni definite dall'utente (UDF). Questo limite include le query interattive e batch. Anche le query interattive che contengono funzioni definite dall'utente incidono sul limite in parallelo per le query interattive. Questo limite non si applica alle query GoogleSQL. |
Limite dimensione giornaliera delle query | Illimitato | Per impostazione predefinita, non esiste un limite giornaliero alle dimensioni delle query. Tuttavia, puoi impostare limiti per la quantità di dati su cui gli utenti possono eseguire query creando quote personalizzate per controllare l'utilizzo delle query al giorno o l'utilizzo di query al giorno per utente. |
Limite di aggiornamento giornaliero della tabella di destinazione | Vedi Numero massimo di operazioni per le tabelle al giorno. |
Gli aggiornamenti alle tabelle di destinazione in un job di query vengono conteggiati ai fini del limite del numero massimo di operazioni per la tabella al giorno per le tabelle di destinazione. Gli aggiornamenti delle tabelle di destinazione includono le operazioni di aggiunta e sovrascrittura eseguite dalle query eseguite utilizzando la console Google Cloud, lo strumento a riga di comando bq o la chiamata dei metodi API jobs.query e jobs.insert di tipo query.
|
Limite di tempo di esecuzione delle query/con più istruzioni | 6 ore |
Una query o una query con più istruzioni può essere eseguita per un massimo di 6 ore, dopodiché non avrà esito positivo. Tuttavia, a volte vengono eseguiti nuovi tentativi di esecuzione delle query. Puoi provare una query fino a tre volte e ogni tentativo può essere eseguito per un massimo di 6 ore. Di conseguenza, è possibile che una query abbia un tempo di esecuzione totale superiore a 6 ore. Per impostazione predefinita, il timeout del job |
Numero massimo di risorse a cui viene fatto riferimento per query | 1000 risorse |
Una query può fare riferimento a un massimo di 1000
tabelle,
viste
uniche,
funzioni definite dall'utente
(UDF) uniche e
funzioni
di tabella
univoche dopo l'espansione completa. Questo limite include quanto segue:
|
Durata massima delle query SQL precedente non risolte | 256 kB |
Una query SQL precedente non risolta può avere una lunghezza massima di 256 kB. Se
la query è più lunga, viene visualizzato il seguente errore: The query
is too large.
Per rimanere entro questo limite, puoi sostituire array o elenchi di grandi dimensioni con parametri di ricerca.
|
Durata massima delle query GoogleSQL non risolte | 1 MB |
Una query GoogleSQL non risolta può avere una lunghezza massima di 1 MB. Se
la query è più lunga, viene visualizzato il seguente errore: The query is too
large.
Per non superare questo limite, puoi sostituire array o elenchi di grandi dimensioni con parametri di query.
|
Durata massima delle query precedenti e GoogleSQL risolte | 12 MB | Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query. |
Numero massimo di parametri di ricerca GoogleSQL | 10.000 parametri | Una query GoogleSQL può avere fino a 10.000 parametri. |
Dimensioni massime della richiesta | 10 MB | Le dimensioni della richiesta possono arrivare a 10 MB, incluse proprietà aggiuntive come parametri di ricerca. |
Dimensione massima della risposta | 10 GB compressi | Le dimensioni variano in base ai rapporti di compressione dei dati. La dimensione effettiva della risposta potrebbe essere significativamente maggiore di 10 GB. La dimensione massima della risposta è illimitata quando scrivi risultati di query di grandi dimensioni in una tabella di destinazione. |
Dimensione massima della riga | 100 MB | La dimensione massima della riga è approssimativa, perché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query. |
Numero massimo di colonne in una tabella, un risultato di query o una definizione di visualizzazione | 10.000 colonne | Una tabella, un risultato di query o una definizione di visualizzazione possono avere fino a 10.000 colonne. |
Numero massimo di slot simultanei per i prezzi on demand | 2000 slot | Con i prezzi on demand, il tuo progetto può avere fino a 2000 slot simultanei. Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe consentire il bursting oltre tale limite per accelerare le query. Per verificare quanti slot stai utilizzando, consulta la pagina relativa al monitoraggio di BigQuery tramite Cloud Monitoring. |
Utilizzo massimo della CPU per dati analizzati per i prezzi on demand | 256 secondi di CPU per MiB scansionati |
Grazie ai prezzi on demand, la query può utilizzare fino a circa 256 secondi CPU per MiB di dati scansionati. Se la query consuma troppo CPU per la quantità di dati
da elaborare, la query non riesce e viene visualizzato un
errore billingTierLimitExceeded .
Per ulteriori informazioni, consulta la pagina
billingTierLimitExceeded.
|
Modifiche alla tabella delle transazioni con più istruzioni | 100 tabelle | Una transazione può modificare i dati in un massimo di 100 tabelle. |
Modifiche della partizione delle transazioni con più istruzioni | 100.000 modifiche di partizione | Una transazione può eseguire al massimo 100.000 modifiche alle partizioni. |
Dimensione massima del risultato della query in BigQuery Omni | 20 GiB non compressi | La dimensione massima del risultato è 20 GiB di byte logici quando si eseguono query sui dati di Azure o AWS. Se il risultato della query supera i 20 GiB, valuta la possibilità di esportarlo in Amazon S3 o Archiviazione BLOB. Per saperne di più, consulta la pagina relativa alle limitazioni di BigQuery Omni. |
Dimensioni totali dei risultati delle query in BigQuery Omni al giorno | 1 TB | Le dimensioni totali dei risultati delle query per un progetto sono di 1 TB al giorno.
Per saperne di più, consulta le limitazioni di BigQuery Omni. |
Dimensione massima della riga di BigQuery Omni | 10 MiB | La dimensione massima della riga è 10 MiB quando si eseguono query sui dati di Azure o AWS. Per saperne di più, consulta la pagina relativa alle limitazioni di BigQuery Omni. |
Sebbene le query pianificate utilizzino le funzionalità di BigQuery Data Transfer Service, non sono trasferimenti e non sono soggette ai limiti dei job di caricamento.
Job di esportazione
I seguenti limiti si applicano ai job che esportano dati da BigQuery utilizzando lo strumento a riga di comando bq, la console Google Cloud o il metodo API di tipo esportazione jobs.insert
.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte esportati al giorno | 50 TB |
Puoi esportare gratuitamente fino a 50 TB(tebibyte) di dati al giorno da un progetto utilizzando il pool di slot condiviso. Puoi configurare un criterio di avviso di Cloud Monitoring
che fornisca una notifica sul numero di byte esportati.
Per esportare più di 50 TB(tebibyte) di dati al giorno, esegui una delle seguenti operazioni:
|
Numero massimo di job di esportazione al giorno | 100.000 esportazioni |
Puoi eseguire fino a 100.000 esportazioni al giorno in un progetto.
Per eseguire più di 100.000 esportazioni al giorno:
|
Dimensione massima della tabella esportata in un singolo file | 1 GB | Puoi esportare fino a 1 GB di dati della tabella in un singolo file. Per esportare più di 1 GB di dati, utilizza un carattere jolly per esportare i dati in più file. Quando esporti i dati in più file, le dimensioni dei file variano. In alcuni casi, la dimensione dei file di output è superiore a 1 GB. |
URI con caratteri jolly per esportazione | 500 URI | Un'esportazione può avere fino a 500 URI con caratteri jolly. |
Per ulteriori informazioni sulla visualizzazione dell'utilizzo attuale dei job di esportazione, consulta Visualizzare l'utilizzo attuale della quota.
Job di caricamento
I seguenti limiti si applicano quando carichi dati in BigQuery, utilizzando la console Google Cloud, lo strumento a riga di comando bq o il metodo API jobs.insert
di tipo load.
Limite | Predefinito | Note |
---|---|---|
Job di caricamento per tabella al giorno | 1500 offerte di lavoro | I job di caricamento, inclusi i job di caricamento non riusciti, vengono conteggiati ai fini del limite giornaliero di operazioni della tabella per la tabella di destinazione. Per informazioni sui limiti al numero di operazioni per le tabelle al giorno per tabelle standard e tabelle partizionate, consulta le tabelle. |
Job di caricamento al giorno | 100.000 offerte di lavoro | Il progetto viene reintegrato con una quota massima di 100.000 job di caricamento ogni 24 ore. I job di caricamento non riuscito vengono conteggiati ai fini di questo limite. In alcuni casi è possibile eseguire più di 100.000 job di caricamento in 24 ore se la quota del giorno precedente non è stata utilizzata completamente. |
Numero massimo di colonne per tabella | 10.000 colonne | Una tabella può avere fino a 10.000 colonne. |
Dimensione massima per job di caricamento | 15 TB | Le dimensioni totali di tutti i file di input CSV, JSON, Avro, Parquet e ORC possono non superare i 15 TB. |
Numero massimo di URI di origine nella configurazione del job | 10.000 URI | La configurazione di un job può avere fino a 10.000 URI di origine. |
Numero massimo di file per job di caricamento | 10.000.000 di file | Un job di caricamento può includere fino a 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 di file | Un job di caricamento può leggere da un bucket Cloud Storage contenente fino a circa 60.000.000 di file. |
Limite di tempo di esecuzione del job di caricamento | 6 ore | Un job di caricamento non riesce se viene eseguito per più di sei ore. |
Avro: dimensione massima per i blocchi di dati dei file | 16 MB | Il limite di dimensione per i blocchi di dati dei file Avro è 16 MB. |
CSV: dimensione massima della cella | 100 MB | Le celle CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensione massima della riga | 100 MB | Le righe CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensioni massime del file - compresso | 4 GB | Le dimensioni massime di un file CSV compresso sono pari a 4 GB. |
CSV: dimensioni massime del file - non compresso | 5 TB | Le dimensioni massime di un file CSV non compresso sono pari a 5 TB. |
JSON: dimensione massima della riga | 100 MB | Le righe JSON possono avere una dimensione massima di 100 MB. |
JSON: dimensione massima del file - compresso | 4 GB | Le dimensioni massime di un file JSON compresso sono 4 GB. |
JSON: dimensioni massime del file non compresso | 5 TB | Le dimensioni massime di un file JSON non compresso sono pari a 5 TB. |
Se superi regolarmente i limiti dei job di caricamento a causa di aggiornamenti frequenti, valuta la possibilità di trasmettere i flussi di dati in BigQuery.
Per informazioni sulla visualizzazione dell'utilizzo attuale dei job di caricamento, vedi Visualizzare l'utilizzo attuale della quota.
Considerazioni sulla quota dei job di caricamento di BigQuery Data Transfer Service
I job di caricamento creati dai trasferimenti di BigQuery Data Transfer Service sono inclusi nelle quote di BigQuery sui job di caricamento. È importante considerare quanti trasferimenti puoi abilitare in ogni progetto per impedire che trasferimenti e altri job di caricamento generino errori di tipo quotaExceeded
.
Puoi utilizzare la seguente equazione per stimare il numero di job di caricamento richiesti dai tuoi trasferimenti:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
Dove:
Number of transfers
è il numero di configurazioni di trasferimento che abiliti nel tuo progetto.Number of tables
è il numero di tabelle create da ogni tipo di trasferimento specifico. Il numero di tabelle varia in base al tipo di trasferimento:- I trasferimenti di Campaign Manager creano circa 25 tabelle.
- I trasferimenti di Google Ads creano circa 60 tabelle.
- I trasferimenti di Google Ad Manager creano circa 40 tabelle.
- I trasferimenti di Google Play creano circa 25 tabelle.
- I trasferimenti di Search Ads 360 creano circa 50 tabelle.
- I trasferimenti di YouTube creano circa 50 tabelle.
Schedule frequency
indica la frequenza di esecuzione del trasferimento. Per ogni tipo di trasferimento, vengono fornite le programmazioni di esecuzione:Refresh window
è il numero di giorni da includere nel trasferimento dei dati. Se immetti 1, il backfill giornaliero non viene eseguito.
Job di copia
I seguenti limiti si applicano ai job BigQuery per la copia di tabelle, inclusi i job che creano una copia, il clone o lo snapshot di una tabella standard, un clone di tabella o uno snapshot di tabella.
I limiti si applicano ai job creati utilizzando la console Google Cloud, lo strumento a riga di comando bq o il metodo jobs.insert
di tipo copy.
I job di copia vengono conteggiati ai fini di questi limiti indipendentemente dal fatto che abbiano esito positivo o negativo.
Limite | Predefinito | Note |
---|---|---|
Job di copia per tabella di destinazione al giorno | Consulta Operazioni sulle tabelle al giorno. | |
Job di copia al giorno | 100.000 offerte di lavoro | Il progetto può eseguire fino a 100.000 job di copia al giorno. |
Job di copia tra regioni per tabella di destinazione al giorno | 100 lavori | Il progetto può eseguire fino a 100 job di copia tra regioni per una tabella di destinazione al giorno. |
Job di copia tra regioni al giorno | 2000 offerte di lavoro | Il progetto può eseguire fino a 2000 job di copia tra regioni al giorno. |
Numero di tabelle di origine da copiare | 1200 tabelle di origine | Puoi copiare fino a 1200 tabelle di origine per job di copia. |
Per informazioni sulla visualizzazione dell'utilizzo attuale dei job di copia, consulta Job di copia - Visualizzazione dell'utilizzo attuale della quota.
Alla copia di set di dati si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di tabelle nel set di dati di origine | 20.000 tabelle | Un set di dati di origine può avere fino a 20.000 tabelle. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione nella stessa regione | 20.000 tabelle | Il progetto può copiare 20.000 tabelle per esecuzione in un set di dati di destinazione che si trova nella stessa regione. |
Numero massimo di tabelle che è possibile copiare per esecuzione in un set di dati di destinazione in una regione diversa | 1000 tabelle | Il progetto può copiare 1000 tabelle per esecuzione in un set di dati di destinazione che si trova in un'altra regione. Ad esempio, se configuri una copia tra regioni di un set di dati con 8000 tabelle al suo interno, BigQuery Data Transfer Service crea automaticamente otto esecuzioni in modo sequenziale. La prima esecuzione copia 1000 tabelle. Ventiquattro ore dopo, la seconda esecuzione copia 1000 tabelle. Questo processo continua fino a quando non vengono copiate tutte le tabelle nel set di dati, fino a un massimo di 20.000 tabelle per set di dati. |
Prenotazioni
Le seguenti quote si applicano alle prenotazioni:
Quota | Predefinito | Note |
---|---|---|
Numero totale di slot per la regione dell'UE | 5000 slot |
Il numero massimo di slot BigQuery che puoi acquistare nella località multiregionale dell'UE utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per la regione degli Stati Uniti | 10.000 slot |
Il numero massimo di slot BigQuery che puoi acquistare nella località multiregionale degli Stati Uniti utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per la regione us-east1
|
4000 slot |
Il numero massimo di slot BigQuery che puoi acquistare nella regione elencata utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per le seguenti regioni:
|
2000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per le seguenti regioni:
|
1000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per le regioni BigQuery Omni | 100 slot |
Il numero massimo di slot BigQuery che puoi acquistare nelle regioni BigQuery Omni utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Numero totale di slot per tutte le altre regioni | 500 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ogni altra regione utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud |
Alle prenotazioni si applicano i seguenti limiti:
Limite | Valore | Note |
---|---|---|
Numero di progetti di amministrazione per le prenotazioni di slot | 5 progetti per organizzazione | Il numero massimo di progetti all'interno di un'organizzazione che possono contenere una prenotazione o un impegno attivo per gli slot per una località/regione specifica. |
Numero massimo di prenotazioni per la versione standard | 10 prenotazioni per progetto | Il numero massimo di prenotazioni della versione Standard per progetto di amministrazione all'interno di un'organizzazione per una località / regione specifica. |
Numero massimo di prenotazioni per la versione Enterprise o Enterprise Plus | 200 prenotazioni per progetto | Il numero massimo di prenotazioni della versione Enterprise o Enterprise Plus per progetto di amministrazione all'interno di un'organizzazione per una località / regione specifica. |
Set di dati
Ai set di dati BigQuery si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di set di dati | Illimitato | Non esiste un limite al numero di set di dati che un progetto può avere. |
Numero di tabelle per set di dati | Illimitato | Quando utilizzi una chiamata API, le prestazioni di enumerazione rallentano man mano che ti avvicini a 50.000 tabelle in un set di dati. La console Google Cloud può visualizzare fino a 50.000 tabelle per ogni set di dati. |
Numero di risorse autorizzate nell'elenco di controllo dell'accesso di un set di dati | 2500 risorse | L'elenco di controllo dell'accesso di un set di dati può includere fino a 2500 risorse autorizzate totali, tra cui viste autorizzate, set di dati autorizzati e funzioni autorizzate. Se superi questo limite a causa di un numero elevato di viste autorizzate, valuta la possibilità di raggruppare le viste in set di dati autorizzati. |
Numero di operazioni di aggiornamento del set di dati per set di dati ogni 10 secondi | 5 operazioni |
Il progetto può eseguire fino a cinque operazioni di aggiornamento del set di dati ogni 10 secondi.
Il limite di aggiornamento del set di dati include tutte le operazioni di aggiornamento dei metadati eseguite come segue:
|
Lunghezza massima della descrizione di un set di dati | 16.384 caratteri | Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri. |
Tables
Tutte le tabelle
I seguenti limiti si applicano a tutte le tabelle BigQuery.
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una colonna | 300 caratteri | Il nome della colonna può contenere al massimo 300 caratteri. |
Lunghezza massima della descrizione di una colonna | 1024 caratteri | Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 1024 caratteri. |
Profondità massima dei record nidificati | 15 livelli |
Le colonne di tipo RECORD possono contenere tipi
RECORD nidificati, denominati anche record
child. Il limite massimo di profondità nidificata è 15 livelli.
Questo limite è indipendente dal fatto che i record siano scalari o basati su array (ripetuti).
|
Tabelle standard
I seguenti limiti si applicano alle tabelle standard (integrate) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Modifiche alle tabelle al giorno | 1500 modifiche | Il tuo progetto può apportare fino a 1500 modifiche alla tabella al giorno, indipendentemente dal fatto che la modifica aggiunga dati, aggiorni i dati o tronchi la tabella. Questo limite non può essere modificato e include il totale combinato di tutti i job di caricamento, i job di copia e i job di query che aggiungono o sovrascrivono una tabella di destinazione. Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche giornaliere della tabella. |
Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella | 5 operazioni ogni 10 secondi |
Il progetto può eseguire fino a cinque operazioni di aggiornamento dei metadati delle tabelle ogni 10 secondi per tabella. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati delle tabelle,
eseguite come segue:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE o UPDATE per scrivere dati in una tabella. Tieni presente che anche se le istruzioni DML contano per questo limite, non sono soggette a questo se viene raggiunto. Le operazioni DML hanno limiti di frequenza dedicati.
Se superi questo limite, riceverai un messaggio di errore come Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi esaminare i log. Per istruzioni su come diagnosticare e risolvere questo errore, consulta l'articolo Risolvere gli errori di quota. |
Numero massimo di colonne per tabella | 10.000 colonne | Ogni tabella, risultato di query o definizione di visualizzazione può avere fino a 10.000 colonne. |
Tabelle esterne
I seguenti limiti si applicano alle tabelle BigQuery con dati archiviati in Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di URI di origine per tabella esterna | 10.000 URI | Ogni tabella esterna può avere fino a 10.000 URI di origine. |
Numero massimo di file per tabella esterna | 10.000.000 di file | Una tabella esterna può contenere fino a 10 milioni di file, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Dimensione massima dei dati archiviati su Cloud Storage per tabella esterna | 600 TB | Una tabella esterna può avere fino a 600 TB di tutti i file di input. Questo limite si applica alle dimensioni dei file archiviati in Cloud Storage; questa dimensione non corrisponde a quella utilizzata nella formula della query per la pricing. Per le tabelle partizionate esternamente, il limite viene applicato dopo l' eliminazione delle partizioni. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 di file | Una tabella esterna può fare riferimento a un bucket Cloud Storage contenente fino a circa 60.000.000 di file. Per le tabelle partizionate esternamente, questo limite viene applicato prima dell' eliminazione delle partizioni. |
Tabelle partizionate
I seguenti limiti si applicano alle tabelle partizionate BigQuery.
I limiti di partizione si applicano al totale combinato di tutti i job di caricamento, i job di copia e i job di query che aggiungono o sovrascrivono una partizione di destinazione.
Un singolo job può influire su più partizioni. Ad esempio, job di query e job di caricamento possono scrivere su più partizioni.
BigQuery utilizza il numero di partizioni interessate da un job per determinare la quantità di limite utilizzata dal job. Gli inserti di flussi di dati non influiscono su questo limite.
Per informazioni sulle strategie per rimanere entro i limiti delle tabelle partizionate, consulta Risoluzione dei problemi relativi agli errori di quota.
Limite | Predefinito | Note |
---|---|---|
Numero di partizioni per tabella partizionata | 4000 partizioni | Ogni tabella partizionata può avere fino a 4000 partizioni. Se superi questo limite, valuta la possibilità di utilizzare il clustering in aggiunta o al posto del partizionamento. |
Numero di partizioni modificate da un singolo job | 4000 partizioni | Ogni operazione di job (query o caricamento) può interessare fino a 4000 partizioni. BigQuery rifiuta qualsiasi job di query o caricamento che tenti di modificare più di 4000 partizioni. |
Numero di modifiche delle partizioni per tabella partizionata per data di importazione al giorno | 5000 modifiche | Il tuo progetto può apportare fino a 5000 modifiche alle partizioni al giorno, sia che la modifica aggiunga dati, aggiorni i dati o tronchi una tabella partizionata per data di importazione. Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche delle partizioni al giorno. |
Numero di modifiche delle partizioni per tabella partizionata per colonne al giorno | 30.000 modifiche | Il progetto può apportare fino a 30.000 modifiche alle partizioni al giorno per una tabella partizionata a colonne. Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche delle partizioni al giorno. |
Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella partizionata | 50 modifiche ogni 10 secondi |
Il tuo progetto può apportare fino a 50 modifiche per tabella partizionata ogni 10 secondi. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati tabella partizionata, eseguite come segue:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE o UPDATE per scrivere dati in una tabella.
Se superi questo limite, riceverai un messaggio di errore come Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi esaminare i log. |
Numero di intervalli possibili per il partizionamento dell'intervallo | 10.000 intervalli | Una tabella partizionata in intervalli può avere fino a 10.000 intervalli possibili. Questo limite si applica alla specifica della partizione quando crei la tabella. Dopo aver creato la tabella, il limite si applica anche al numero effettivo di partizioni. |
Cloni di tabelle
I seguenti limiti si applicano ai cloni di tabelle BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di cloni e snapshot in una catena | 3 cloni o snapshot di tabelle | La combinazione di cloni e snapshot è limitata a una profondità di 3. Quando cloni o crei lo snapshot di una tabella di base, puoi clonare o creare snapshot del risultato solo altre due volte; il tentativo di clonare o creare snapshot del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e il clone C dello snapshot B. Per creare ulteriori duplicati dello snapshot o del clone di terzo livello, utilizza invece un'operazione di copia. |
Numero massimo di cloni e snapshot per una tabella di base | 1000 cloni o snapshot di tabelle | Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Snapshot tabella
I seguenti limiti si applicano agli snapshot di tabella di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di job di snapshot della tabella simultanei | 100 lavori | Il progetto può eseguire fino a 100 job simultanei di snapshot delle tabelle. |
Numero massimo di job di snapshot delle tabelle al giorno | 50.000 offerte di lavoro | Il progetto può eseguire fino a 50.000 job di snapshot delle tabelle al giorno. |
Numero massimo di job di snapshot delle tabelle per tabella al giorno | 50 job | Il progetto può eseguire fino a 50 job di snapshot delle tabelle al giorno per tabella. |
Numero massimo di aggiornamenti dei metadati per snapshot della tabella ogni 10 secondi. | 5 aggiornamenti | Il progetto può aggiornare i metadati di uno snapshot della tabella fino a cinque volte ogni 10 secondi. |
Numero massimo di cloni e snapshot in una catena | 3 cloni o snapshot di tabelle | La combinazione di cloni e snapshot è limitata a una profondità di 3. Quando cloni o crei lo snapshot di una tabella di base, puoi clonare o creare snapshot del risultato solo altre due volte; il tentativo di clonare o creare snapshot del risultato una terza volta genera un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e il clone C dello snapshot B. Per creare ulteriori duplicati dello snapshot o del clone di terzo livello, utilizza invece un'operazione di copia. |
Numero massimo di cloni e snapshot per una tabella di base | 1000 cloni o snapshot di tabelle | Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Viste
Le quote e i limiti seguenti si applicano alle viste e viste materializzate.
Visualizzazioni logiche
I seguenti limiti si applicano alle viste standard di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di livelli di visualizzazioni nidificate | 16 livelli |
BigQuery supporta fino a 16 livelli di viste nidificate. Se sono presenti più di 16 livelli, viene restituito un errore INVALID_INPUT .
|
Lunghezza massima di una query GoogleSQL utilizzata per definire una vista | 256.000 caratteri | Una singola query GoogleSQL che definisce una vista può contenere fino a 256.000 caratteri. Questo limite si applica a una singola query e non include la lunghezza delle visualizzazioni a cui viene fatto riferimento nella query. |
Numero massimo di visualizzazioni autorizzate per set di dati | Consulta Set di dati. |
Viste materializzate
I seguenti limiti si applicano alle viste materializzate di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Riferimenti tabella di base (stesso set di dati) | 20 viste materializzate | A ogni tabella di base è possibile fare riferimento a un massimo di 20 viste materializzate dello stesso set di dati. |
Riferimenti tabella di base (stesso progetto) | 100 viste materializzate | A ogni tabella di base è possibile fare riferimento a un massimo di 100 viste materializzate dello stesso progetto. |
Riferimenti tabella di base (intera organizzazione) | 500 viste materializzate | A ogni tabella di base è possibile fare riferimento a un massimo di 500 viste materializzate dell'intera organizzazione. |
Numero massimo di visualizzazioni autorizzate per set di dati | Consulta Set di dati. |
Cerca indici
I seguenti limiti si applicano agli indici di ricerca di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero di istruzioni DDL CREATE INDEX per progetto per regione al giorno
|
500 operazioni |
Il tuo progetto può eseguire fino a 500 operazioni DDL CREATE INDEX al giorno all'interno di una regione.
|
Numero di istruzioni DDL dell'indice di ricerca per tabella al giorno | 20 operazioni |
Il progetto può eseguire fino a 20 operazioni DDL CREATE INDEX o DROP INDEX per tabella al giorno.
|
Dimensione totale massima dei dati della tabella per organizzazione consentita per la creazione di indici di ricerca che non vengono eseguiti in una prenotazione | 100 TB in più regioni; 20 TB in tutte le altre regioni |
Puoi creare un indice di ricerca per una tabella se la dimensione complessiva delle tabelle con indici nella tua organizzazione è inferiore al limite della tua regione: 100 TB per le regioni multiple US e EU e 20 TB per tutte le altre regioni. Se i job di gestione dell'indice vengono eseguiti nella tua prenotazione, questo limite non si applica.
|
Indici vettoriali
I seguenti limiti si applicano agli indici vettoriali di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero minimo di righe della tabella di base | 5000 righe | Una tabella deve avere almeno 5000 righe per creare un indice vettoriale. |
Numero massimo di righe della tabella di base | 1.000.000.000 di righe | Una tabella può avere al massimo 1.000.000.000 di righe per creare un indice vettoriale. |
Dimensione massima dell'array nella colonna indicizzata | 1600 elementi | La colonna da indicizzare può contenere al massimo 1600 elementi nell'array. |
Dimensioni minime della tabella per la compilazione degli indici vettoriali | 10 MB | Se crei un indice vettoriale su una tabella di dimensioni inferiori a 10 MB, l'indice non viene completato. Allo stesso modo, se elimini dati da una tabella indicizzata vettoriale in modo che le dimensioni della tabella siano inferiori a 10 MB, l'indice vettoriale viene temporaneamente disattivato. Questo accade a prescindere dall'utilizzo o meno della tua prenotazione per i job di gestione dell'indice. Quando le dimensioni di una tabella indicizzata su vettori superano nuovamente i 10 MB, il relativo indice viene completato automaticamente. |
Numero di istruzioni DDL CREATE VECTOR INDEX per progetto per regione al giorno
|
500 operazioni |
Per ogni progetto, puoi eseguire fino a 500
operazioni CREATE VECTOR INDEX al giorno per ogni regione.
|
Numero di istruzioni DDL dell'indice vettoriale per tabella al giorno | 10 operazioni |
Puoi eseguire fino a 10 operazioni CREATE VECTOR INDEX o DROP VECTOR INDEX per tabella al giorno.
|
Dimensione totale massima dei dati della tabella per organizzazione consentita per la creazione di indici vettoriali che non vengono eseguiti in una prenotazione | 20 TB | Puoi creare un indice vettoriale per una tabella se la dimensione totale delle tabelle con indici nella tua organizzazione è inferiore a 20 TB. Se i job di gestione dell'indice vengono eseguiti nella tua prenotazione, questo limite non si applica. |
Routine
Le seguenti quote e limiti si applicano alle routine.
Funzioni definite dall'utente
I seguenti limiti si applicano alle funzioni definite dall'utente sia temporanee che permanenti nelle query GoogleSQL.
Limite | Predefinito | Note |
---|---|---|
Output massimo per riga | 5 MB | La quantità massima di dati che la funzione JavaScript definita dall'utente può restituire durante l'elaborazione di una singola riga è di circa 5 MB. |
Numero massimo di query SQL precedente in parallelo con funzioni definite dall'utente JavaScript | 6 query | Il progetto può avere fino a sei query SQL precedente simultanee che contengono funzioni definite dall'utente in JavaScript. Questo limite include le query interattive e batch. Questo limite non si applica alle query GoogleSQL. |
Numero massimo di risorse UDF JavaScript per query | 50 risorse | Un job di query può avere fino a 50 risorse della funzione JavaScript definita dall'utente, come file esterni o BLOB di codice incorporati. |
Dimensione massima del BLOB di codice inline | 32 kB | Un BLOB di codice inline in una funzione definita dall'utente può avere una dimensione massima di 32 kB. |
Dimensione massima di ogni risorsa di codice esterna | 1 MB | La dimensione massima di ogni risorsa di codice JavaScript è un MB. |
Alle funzioni definite dall'utente permanenti si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una funzione definita dall'utente | 256 caratteri | Il nome di una funzione definita dall'utente può contenere fino a 256 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una funzione definita dall'utente può avere fino a 256 argomenti. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome di un argomento UDF può contenere fino a 128 caratteri. |
Profondità massima di una catena di riferimento UDF | 16 riferimenti | Una catena di riferimento della funzione definita dall'utente può avere fino a 16 riferimenti. |
Profondità massima di un argomento o di un output di tipo STRUCT
|
15 livelli |
Un argomento o un output UDF di tipo STRUCT può avere fino a 15 livelli di profondità.
|
Numero massimo di campi in argomenti di tipo STRUCT o output per funzione definita dall'utente
|
1024 campi |
Una funzione definita dall'utente può avere fino a 1024 campi in argomenti di tipo STRUCT e output.
|
Numero massimo di librerie JavaScript in un'istruzione CREATE FUNCTION
|
50 librerie |
Un'istruzione CREATE FUNCTION può avere fino a 50 librerie JavaScript.
|
Lunghezza massima dei percorsi della libreria JavaScript inclusi | 5000 caratteri | Il percorso di una libreria JavaScript inclusa in una funzione definita dall'utente può contenere fino a 5000 caratteri. |
Frequenza di aggiornamento massima per funzione definita dall'utente per 10 secondi | 5 aggiornamenti | Il progetto può aggiornare una funzione definita dall'utente fino a cinque volte ogni 10 secondi. |
Numero massimo di funzioni definite dall'utente autorizzate per set di dati | Consulta Set di dati. |
Funzioni remote
I seguenti limiti si applicano alle funzioni remote in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query in parallelo che contengono funzioni remote | 10 query | Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto. |
Dimensioni massime di input | 5 MB | La dimensione totale massima di tutti gli argomenti di input di una singola riga è 5 MB. |
Limite di dimensione della risposta HTTP (Cloud Functions (1ª generazione.)) | 10 MB | Il corpo della risposta HTTP della funzione Cloud Function di 1ª generazione può raggiungere 10 MB. Il superamento di questo valore causa errori della query. |
Limite di dimensione della risposta HTTP (Cloud Functions (2ª generazione.) o Cloud Run) | 15 MB | Il corpo della risposta HTTP della funzione Cloud Function (2ª generazione.) o di Cloud Run non può superare i 15 MB. Il superamento di questo valore causa errori della query. |
Limite di tempo massimo per le chiamate HTTP (Cloud Functions 1ª generazione. | 9 minuti | Puoi impostare un limite di tempo per la funzione Cloud Function di 1a generazione per una singola chiamata HTTP, ma il limite di tempo massimo è di 9 minuti. Il superamento del limite di tempo impostato per la funzione Cloud Function di 1ª generazione potrebbe causare errori di chiamata HTTP e della query dopo un numero limitato di nuovi tentativi. |
Limite di tempo per le chiamate HTTP (Cloud Functions (2ª generazione.) o Cloud Run) | 20 minuti | Il limite di tempo per una singola chiamata HTTP alla funzione Cloud Function (2ª generazione.) o a Cloud Run. Il superamento di questo valore potrebbe causare errori di chiamata HTTP e di query dopo un numero limitato di nuovi tentativi. |
Funzioni tabella
I seguenti limiti si applicano alle funzioni di tabella BigQuery:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una funzione di tabella | 256 caratteri | Il nome di una funzione di tabella può contenere fino a 256 caratteri. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome di un argomento di una funzione di tabella può contenere fino a 128 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una funzione di tabella può avere fino a 256 argomenti. |
Profondità massima della catena di riferimento di una funzione di tabella | 16 riferimenti | Una catena di riferimento di funzioni di tabella può avere fino a 16 riferimenti. |
Profondità massima di un argomento o output di tipo STRUCT
|
15 livelli |
Un argomento STRUCT per una funzione di tabella può avere fino a 15 livelli di profondità. Allo stesso modo, un record STRUCT nell'output di una funzione di tabella può avere fino a 15 livelli di profondità.
|
Numero massimo di campi nell'argomento o nella tabella di ritorno di tipo STRUCT per funzione di tabella
|
1024 campi |
Un argomento STRUCT per una funzione di tabella può avere fino a 1024 campi.
Allo stesso modo, un record STRUCT nell'output di una funzione di tabella può avere fino a 1024 campi.
|
Numero massimo di colonne nella tabella di ritorno | 1024 colonne | Una tabella restituita da una funzione di tabella può avere fino a 1024 colonne. |
Lunghezza massima dei nomi delle colonne della tabella di reso | 128 caratteri | I nomi delle colonne nelle tabelle restituite possono contenere fino a 128 caratteri. |
Numero massimo di aggiornamenti per funzione di tabella ogni 10 secondi | 5 aggiornamenti | Il tuo progetto può aggiornare una funzione di tabella fino a cinque volte ogni 10 secondi. |
Stored procedure per Apache Spark
I seguenti limiti si applicano alle stored procedure di BigQuery per Apache Spark:
Limite | Predefinito | Notes |
---|---|---|
Numero massimo di query di stored procedure simultanee | 50 | Puoi eseguire fino a 50 query di stored procedure in parallelo per ogni progetto. |
Numero massimo di CPU in uso | 12.000 | Puoi utilizzare fino a 12.000 CPU per ogni progetto. Le query già elaborate non consumano questo limite.
Puoi utilizzare fino a 2400 CPU per ogni località per ogni progetto, tranne nelle località seguenti:
In queste località puoi utilizzare fino a 500 CPU per ogni località per ogni progetto. Se esegui query in parallelo in una località a più regioni e in una singola regione che si trova nella stessa area geografica, le query potrebbero consumare la stessa quota per le CPU simultanee. |
Dimensione totale massima dei dischi permanenti standard in uso | 204,8 TB | Puoi utilizzare fino a 204,8 TB di dischi permanenti standard per ogni località per ogni progetto. Le query già elaborate non consumano questo limite. Se esegui query in parallelo in una località a più regioni e in una singola regione che si trova nella stessa area geografica, le query potrebbero consumare la stessa quota di disco permanente standard. |
Notebooks
Tutte le quote e i limiti di Dataform e le quote e i limiti di Colab Enterprise si applicano ai notebook in BigQuery. Si applicano anche i seguenti limiti:
Limite | Predefinito | Notes |
---|---|---|
Dimensioni massime del blocco note | 20 MB |
Le dimensioni di un blocco note corrispondono al totale dei contenuti, dei metadati e dell'overhead di codifica. Per visualizzare le dimensioni dei contenuti del blocco note, espandi l'intestazione del blocco note, fai clic su Visualizza e poi su Informazioni blocco note. |
Numero massimo di richieste al secondo per Dataform | 100 | Notebooks vengono creati e gestiti tramite Dataform. Qualsiasi azione che crea o modifica un blocco note viene conteggiata ai fini di questa quota. Questa quota è condivisa con le query salvate. Ad esempio, se apporti 50 modifiche ai blocchi note e 50 modifiche alle query salvate entro 1 secondo, raggiungi la quota. |
Query salvate
Tutte le quote e i limiti di Dataform si applicano alle query salvate. Si applicano anche i seguenti limiti:
Limite | Predefinito | Notes |
---|---|---|
Dimensione massima della query salvata | 10 MB | |
Numero massimo di richieste al secondo per Dataform | 100 | Le query salvate vengono create e gestite tramite Dataform. Qualsiasi azione che crea o modifica una query salvata viene conteggiata in questa quota. Questa quota è condivisa con i blocchi note. Ad esempio, se apporti 50 modifiche ai blocchi note e 50 modifiche alle query salvate entro 1 secondo, raggiungi la quota. |
Data Manipulation Language (DML)
I seguenti limiti si applicano alle istruzioni di Data Manipulation Language (DML) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Istruzioni DML al giorno | Illimitato |
Il numero di istruzioni DML che il tuo progetto può eseguire al giorno è illimitato.
Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche alla tabella al giorno o del numero di modifiche alla tabella partizionata al giorno per le tabelle partizionate. Le istruzioni DML hanno le seguenti limitazioni di cui tenere conto. |
Istruzioni DML mutanti simultanee per tabella | 2 estratti conto |
BigQuery esegue fino a due istruzioni DML mutanti (UPDATE , DELETE e
MERGE ) per ogni tabella. Sono in coda ulteriori istruzioni DML mutanti per una tabella.
|
Istruzioni DML mutanti in coda per tabella | 20 estratti conto | Una tabella può avere fino a 20 istruzioni DML mutanti nella coda in attesa di esecuzione. Se invii istruzioni DML mutanti aggiuntive per la tabella, queste istruzioni non hanno esito positivo. |
Tempo massimo in coda per l'istruzione DML | 6 ore | Un'istruzione DML interattiva con priorità può attendere in coda fino a un massimo di sei ore. Se l'istruzione non è stata eseguita dopo sei ore, ha esito negativo. |
Frequenza massima di istruzioni DML per ogni tabella | 25 istruzioni ogni 10 secondi |
Il progetto può eseguire fino a 25 istruzioni DML ogni 10 secondi per ogni tabella. Sia le istruzioni INSERT sia le istruzioni DML mutanti contribuiscono a questo limite.
|
Per maggiori informazioni sulla modifica delle istruzioni DML, consulta INSERT
Contemporaneità DML e Contemporaneità DML di UPDATE, DELETE, MERGE
.
Query con più istruzioni
I seguenti limiti si applicano alle query con più istruzioni in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query in parallelo a più istruzioni | 1000 query a istruzioni multiple | Il progetto può eseguire fino a 1000 query con più istruzioni simultanee. |
Limite di tempo cumulativo | 24 ore | Il limite di tempo cumulativo per una query a più istruzioni è di 24 ore. |
Limite di tempo per l'istruzione | 6 ore | Il limite di tempo per una singola istruzione in una query a più istruzioni è di 6 ore. |
CTE ricorrenti nelle query
I seguenti limiti si applicano alle espressioni di tabella comuni ricorrenti (CTE) in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Limite di iterazione | 500 iterazioni | La CTE ricorsiva può eseguire questo numero di iterazioni. Se questo limite viene superato, viene generato un errore. Per aggirare i limiti di iterazione, vedi Risolvere gli errori relativi ai limiti di iterazione. |
Sicurezza a livello di riga
I seguenti limiti si applicano ai criteri di accesso a livello di riga BigQuery:
Limite | Predefinito | Notes |
---|---|---|
Numero massimo di criteri di accesso alle righe per tabella | 400 criteri | Una tabella può avere fino a 400 criteri di accesso alle righe. |
Numero massimo di criteri di accesso alle righe per query | 6000 criteri | Una query può accedere a un massimo di 6000 criteri di accesso alle righe. |
Numero massimo di istruzioni DDL CREATE / DROP per criterio ogni 10 secondi |
5 estratti conto |
Il progetto può creare fino a cinque istruzioni CREATE o DROP
per risorsa del criterio di accesso alle righe ogni 10 secondi.
|
DROP ALL ROW ACCESS POLICIES istruzioni per tabella per
10 secondi |
5 estratti conto |
Il progetto può creare fino a cinque istruzioni DROP ALL ROW ACCESS POLICIES
per tabella ogni 10 secondi.
|
Criteri relativi ai dati
Per il mascheramento dei dati dinamici a livello di colonna si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di criteri relativi ai dati per tag di criteri. | 8 criteri per tag di criteri | Fino a otto criteri di dati per tag di criteri. Uno di questi criteri può essere utilizzato per i controlli dell'accesso a livello di colonna. Le espressioni di mascheramento duplicate non sono supportate. |
BigQuery ML
I seguenti limiti si applicano a BigQuery ML.
Job di query
Tutte le quote e i limiti per i job di query si applicano ai job di query GoogleSQL che utilizzano istruzioni e funzioni di BigQuery ML.
CREATE MODEL
estratti conto
I seguenti limiti si applicano ai job CREATE MODEL
:
Limite | Predefinito | Note |
---|---|---|
CREATE MODEL
query di istruzione ogni 48 ore per ogni progetto |
20.000 query sulle istruzioni | Alcuni modelli vengono addestrati utilizzando i servizi Vertex AI, che prevedono una propria gestione di risorse e quote. |
Limite tempo di esecuzione | 24 ore o 72 ore | Il valore predefinito del timeout del job di CREATE MODEL è di 24 ore, ad eccezione dei job di serie temporali, AutoML e di ottimizzazione degli iperparametri che hanno un timeout di 72 ore. |
Funzioni di servizio di Vertex AI e Cloud AI
I seguenti limiti si applicano alle funzioni che utilizzano i modelli linguistici di grandi dimensioni (LLM) di Vertex AI e i servizi Cloud AI:
Funzione | Richieste al minuto | Righe per job | Numero di job in esecuzione contemporaneamente |
---|---|---|---|
ML.ANNOTATE_IMAGE |
900 | 307.800 | 5 |
ML.TRANSLATE |
3000 | 1.026.000 | 5 |
ML.UNDERSTAND_TEXT |
300 | 102.600 | 5 |
ML.GENERATE_TEXT quando si utilizza un modello remoto rispetto al modello gemini-pro-vision |
60 | 20.000 | 1 |
ML.GENERATE_TEXT quando si utilizza un modello remoto rispetto a modelli diversi da gemini-pro-vision |
60 | 30.000 | 5 |
ML.GENERATE_EMBEDDING quando utilizzato con modelli remoti su
modelli Vertex AI multimodalembedding |
120 | 25.000 | 1 |
ML.GENERATE_EMBEDDING quando utilizzato con modelli remoti su
modelli Vertex AI
textembedding-gecko e
textembedding-gecko-multilingual |
600 | 100.000.000 | 1 |
ML.PROCESS_DOCUMENT |
600 | 205.200 | 5 |
ML.TRANSCRIBE |
60 | 1000 | 5 |
Per ulteriori informazioni sulla quota per gli LLM Vertex AI e per le API di servizio Cloud AI, consulta i seguenti documenti:
- IA generativa sui limiti di quota di Vertex AI
- Quota e limiti dell'API Cloud Translation
- Quota e limiti dell'API Vision
- Quota e limiti dell'API Natural Language
- Quota e limiti di Document AI
- Quota e limiti di Speech-to-Text
Per richiedere un aumento della quota per le funzioni di BigQuery ML, modifica prima la quota per il servizio LLM di Vertex AI o Cloud AI associato, quindi invia un'email a bqml-feedback@google.com e includi informazioni sulla quota di servizio LLM o Cloud AI modificata. Per saperne di più su come richiedere una quota maggiore per questi servizi, consulta Richiedere una quota più alta.
Definizioni di quota
L'elenco seguente descrive le quote che si applicano alle funzioni di servizio Vertex AI e Cloud AI:
- Le funzioni che chiamano un modello di base Vertex AI utilizzano una quota Vertex AI, ovvero query al minuto (QPM). In questo contesto, le query sono chiamate di richiesta dalla funzione all'API del modello Vertex AI. La quota QPM si applica a un modello di base e a tutte le versioni, gli identificatori e le versioni ottimizzate. Per saperne di più sulle quote dei modelli di base di Vertex AI, consulta Quote per regione e modello.
- Le funzioni che chiamano un servizio di IA Cloud utilizzano le quote per le richieste del servizio di destinazione. Controlla il riferimento della quota del servizio Cloud AI specificato per i dettagli.
BigQuery ML utilizza tre quote:
Richieste al minuto. Questa quota è il limite al numero di chiamate di richieste al minuto che le funzioni possono effettuare al modello Vertex AI o all'API del servizio Cloud AI. Questo limite si applica a ogni progetto.
Per le funzioni che chiamano un modello di base Vertex AI, il numero di chiamate di richiesta al minuto varia a seconda dell'endpoint, della versione e della regione del modello Vertex AI. Questa quota è concettualmente uguale alla quota QPM utilizzata da Vertex AI, ma potrebbe avere un valore inferiore rispetto alla quota QPM per un modello corrispondente.
Righe per job: Questa quota è il limite al numero di righe consentite per ogni job di query.
Numero di job in esecuzione contemporaneamente. Questa quota è il limite per progetto al numero di query SQL che possono essere eseguite contemporaneamente per la funzione specificata.
I seguenti esempi mostrano come interpretare le limitazioni di quota in situazioni tipiche:
In Vertex AI ho una quota di 1000 QPM, perciò una query con 100.000 righe dovrebbe richiedere circa 100 minuti. Perché il job è in esecuzione più a lungo?
I runtime dei job possono variare anche per gli stessi dati di input. In Vertex AI, le chiamate di procedura remota (RPC) hanno priorità diverse per evitare il drenaggio della quota. Quando la quota non è sufficiente, le RPC con priorità inferiori restano in attesa e potrebbero non riuscire se l'elaborazione richiede troppo tempo.
Come devo interpretare le righe per quota di job?
In BigQuery, una query può essere eseguita per un massimo di sei ore. Il numero massimo di righe supportate è una funzione di questa sequenza temporale e della quota QPM di Vertex AI per garantire che BigQuery possa completare l'elaborazione delle query in sei ore. Poiché in genere una query non può utilizzare l'intera quota, si tratta di un numero inferiore rispetto alla quota di QPM moltiplicata per 360.
Che cosa succede se eseguo un job di inferenza batch su una tabella con più righe rispetto a quelle per quota di job, ad esempio 10.000.000 di righe?
BigQuery elabora solo il numero di righe specificato dalle righe per quota del job. Ti vengono addebitate solo le chiamate API riuscite per quel numero di righe, anziché per le 10.000.000 di righe complete nella tabella. Per le altre righe, BigQuery risponde alla richiesta con un errore
A retryable error occurred: the maximum size quota per query has reached
, che viene restituito nella colonnastatus
del risultato. Puoi utilizzare questo insieme di script SQL o questo pacchetto Dataform per eseguire l'iterazione tramite chiamate di inferenza fino a quando tutte le righe non vengono elaborate correttamente.Ho molte più righe da elaborare rispetto alle righe per quota di job. Suddividere le righe su più query ed eseguirle contemporaneamente è utile?
No, perché queste query utilizzano la stessa quota al minuto di BigQuery ML e la stessa quota QPM di Vertex AI. Se sono presenti più query che rimangono tutte entro le righe per la quota di job e il numero di job in esecuzione contemporaneamente, l'elaborazione cumulativa esaurisce la quota di richieste al minuto.
BI Engine
I seguenti limiti si applicano a BigQuery BI Engine.
Limite | Predefinito | Note |
---|---|---|
Dimensione massima della prenotazione per progetto per località (interfaccia SQL) | 250 GiB | Si applica quando si utilizza BI Engine con BigQuery. Si applica in tutti i casi, ad eccezione di Looker Studio senza integrazione nativa.
Puoi richiedere un aumento della capacità di prenotazione massima per i tuoi progetti. Gli aumenti delle prenotazioni sono disponibili nella maggior parte delle regioni e l'elaborazione potrebbe richiedere da 3 giorni a una settimana. |
Dimensione massima della prenotazione per progetto per località (Looker Studio) | 100 GB | Si applica quando utilizzi BI Engine con Looker Studio senza integrazione nativa. Questo limite non influisce sulle dimensioni delle tabelle su cui esegui query, poiché BI Engine carica in memoria solo le colonne utilizzate nelle query, non l'intera tabella. |
Dimensioni massime modello dei dati per tabella (Looker Studio) | 10 GB | Si applica quando utilizzi BI Engine con Looker Studio senza integrazione nativa. Se hai una prenotazione di 100 GB per progetto per località, BI Engine limita la prenotazione per tabella a 10 GB. Il resto della prenotazione disponibile viene utilizzato per altre tabelle nel progetto. |
Numero massimo di partizioni per tabella (Looker Studio) | 500 partizioni | Si applica quando utilizzi BI Engine con Looker Studio senza integrazione nativa. BI Engine per Looker Studio supporta fino a un massimo di 500 partizioni per tabella. |
Numero massimo di righe per query (Looker Studio) | 150 milioni | Si applica quando utilizzi BI Engine con Looker Studio senza integrazione nativa. BI Engine per Looker Studio supporta fino a 150 milioni di righe di dati sottoposti a query, a seconda della complessità delle query. |
Analytics Hub
Ad Analytics Hub si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di scambi di dati per progetto | 500 piattaforme di scambio | Puoi creare fino a 500 scambi di dati in un progetto. |
Numero massimo di schede per scambio di dati | 1000 annunci | Puoi creare fino a 1000 schede in uno scambio di dati. |
Numero massimo di set di dati collegati per set di dati condiviso | 1000 set di dati collegati | Tutti gli abbonati Analytics Hub, combinati, possono avere un massimo di 1000 set di dati collegati per set di dati condiviso. |
Quote e limiti dell'API
Queste quote e questi limiti si applicano alle richieste dell'API BigQuery.
API BigQuery
Le seguenti quote si applicano alle richieste dell'API BigQuery (core):
Quota | Predefinito | Note |
---|---|---|
Richieste al giorno | Illimitato |
Il tuo progetto può effettuare un numero illimitato di richieste API BigQuery al giorno.
Visualizza la quota nella console Google Cloud |
Massimo
tabledata.list byte al minuto
|
7,5 GB in più regioni; 3,7 GB in tutte le altre regioni |
Il tuo progetto può restituire un massimo di 7,5 GB di dati delle righe di tabella al minuto tramite tabledata.list nelle regioni multiple us e eu , nonché 3,7 GB di dati delle righe di tabella al minuto in tutte le altre regioni. Questa quota si applica al progetto che contiene la tabella letta. Anche altre API, tra cui
jobs.getQueryResults e
il recupero dei risultati da
jobs.query e
jobs.insert , possono consumare questa quota.
Visualizza la quota nella console Google Cloud
L'API BigQuery Storage Read
può supportare una velocità effettiva notevolmente superiore a
|
I seguenti limiti si applicano alle richieste (principali) dell'API BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di richieste API al secondo per utente per metodo | 100 richieste | Un utente può effettuare fino a 100 richieste API al secondo per un metodo API. Se un utente invia più di 100 richieste al secondo a un metodo, potrebbe verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati. |
Numero massimo di richieste API in parallelo per utente | 300 richieste | Se un utente invia più di 300 richieste in parallelo, può verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati. |
Dimensione massima intestazione richiesta | 16 KiB |
La tua richiesta API BigQuery può avere un massimo di 16 KiB, inclusi l'URL della richiesta e tutte le intestazioni. Questo limite non si applica al corpo della richiesta, ad esempio in una richiesta POST .
|
Massimo
jobs.get richieste al secondo
|
1000 richieste |
Il progetto può effettuare fino a 1000 richieste
jobs.get
al secondo.
|
Dimensioni massime della risposta di
jobs.query
|
20 MB |
Per impostazione predefinita, non è previsto un numero massimo di righe per il numero di righe di dati restituite da jobs.query per pagina dei risultati. Tuttavia, non puoi superare la dimensione massima di risposta di 20 MB. Puoi modificare il numero di righe da restituire utilizzando il parametro maxResults .
|
Dimensione massima della riga di
jobs.getQueryResults
|
20 MB | La dimensione massima della riga è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. Il limite viene applicato durante la transcodifica. |
Massimo
projects.list richieste al secondo
|
2 richieste |
Il progetto può effettuare fino a due richieste projects.list al secondo.
|
Numero massimo di richieste
tabledata.list al secondo
|
1000 richieste |
Il progetto può effettuare fino a 1000 richieste tabledata.list
al secondo.
|
Numero massimo di righe per risposta
tabledata.list
|
100.000 righe |
Una chiamata tabledata.list può restituire fino a 100.000 righe di tabella.
Per maggiori informazioni, consulta
Sfogliare i risultati utilizzando l'API.
|
Dimensione massima della riga di
tabledata.list
|
100 MB | La dimensione massima della riga è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. Il limite viene applicato durante la transcodifica. |
Massimo
tables.insert richieste al secondo
|
10 richieste |
Il tuo progetto può effettuare fino a 10 richieste tables.insert al secondo.
Il metodo tables.insert crea una nuova tabella vuota in un set di dati. Il limite include istruzioni SQL che creano tabelle, come
CREATE TABLE e
query che scrivono i risultati nelle tabelle di destinazione.
|
API BigQuery Connection
Le seguenti quote si applicano alle richieste dell'API BigQuery Connection:
Quota | Predefinito | Note |
---|---|---|
Richieste di lettura al minuto | 1000 richieste al minuto |
Il tuo progetto può effettuare fino a 1000 richieste al minuto ai metodi dell'API BigQuery Connection che leggono i dati delle connessioni.
Visualizza la quota nella console Google Cloud |
Richieste di scrittura al minuto | 100 richieste al minuto |
Il tuo progetto può effettuare fino a 100 richieste al minuto ai metodi dell'API BigQuery Connection che creano o aggiornano le connessioni.
Visualizza la quota nella console Google Cloud |
Connessioni AWS per regione | 50 connessioni per regione. | Il progetto può avere fino a 50 connessioni AWS per regione AWS. |
Connessioni Azure per regione | 50 connessioni per regione. | Il tuo progetto può avere fino a 50 connessioni Azure per regione Azure. |
API BigQuery Migration
All'API BigQuery Migration si applicano i limiti seguenti:
Limite | Predefinito | Note |
---|---|---|
Dimensione dei singoli file per la traduzione SQL in batch | 10 MB |
Ogni singolo file di origine e di metadati può avere una dimensione massima di 10 MB.
Questo limite non si applica al file ZIP dei metadati generato dallo strumento di estrazione a riga di comando dwh-migration-dumper .
|
Dimensioni totali dei file di origine per la traduzione batch SQL | 1 GB | La dimensione totale di tutti i file di input caricati in Cloud Storage può essere fino a 1 GB. Sono inclusi tutti i file di origine e tutti i file di metadati, se scegli di includerli. |
Dimensione stringa di input per la traduzione SQL interattiva | 1 MB | La stringa inserita per la traduzione SQL interattiva non deve superare 1 MB. |
Dimensione massima del file di configurazione per la traduzione SQL interattiva | 50 MB |
I singoli file di metadati (compressi) e i file di configurazione YAML in
Cloud Storage non devono superare i 50 MB. Se le dimensioni del file superano i 50 MB, il traduttore interattivo ignora il file di configurazione durante la traduzione e restituisce un messaggio di errore. Un metodo per ridurre le dimensioni del
file dei metadati è utilizzare i flag —database o –schema
per filtrare in base ai database quando generi i metadati.
|
Le seguenti quote si applicano all'API BigQuery Migration. Nella maggior parte dei casi si applicano i valori predefiniti riportati di seguito. I valori predefiniti per il tuo progetto potrebbero essere diversi:
Quota | Predefinito | Note |
---|---|---|
Richieste dell'elenco dei servizi di migrazione EDW al minuto Richieste dell'elenco dei servizi di migrazione EDW al minuto per utente |
12.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 12.000 richieste di elenco delle API di migrazione al minuto. Ogni utente può effettuare fino a 2500 richieste di elenco delle API di migrazione al minuto. Visualizza le quote nella console Google Cloud |
Richieste di recupero del servizio EDW Migration al minuto Richieste di recupero del servizio EDW Migration al minuto per utente |
25.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 25.000 richieste get dell'API di migrazione al minuto. Ogni utente può effettuare fino a 2500 richieste get dell'API di migrazione al minuto. Visualizza le quote nella console Google Cloud |
Altre richieste del servizio EDW Migration al minuto Altre richieste del servizio EDW Migration al minuto per utente |
25 richieste 5 richieste |
Il tuo progetto può effettuare fino a 25 altre richieste all'API di migrazione al minuto. Ogni utente può effettuare fino a 5 altre richieste all'API di migrazione al minuto. Visualizza le quote nella console Google Cloud |
Richieste di traduzione SQL interattive al minuto Richieste di traduzione SQL interattive al minuto per utente |
200 richieste 50 richieste |
Il tuo progetto può effettuare fino a 200 richieste di servizio di traduzione SQL al minuto. Ogni utente può effettuare fino a 50 altre richieste del servizio di traduzione SQL al minuto. Visualizza le quote nella console Google Cloud |
API BigQuery Reservation
Le seguenti quote si applicano alle richieste dell'API BigQuery Reservation:
Quota | Predefinito | Note |
---|---|---|
Richieste al minuto per regione | 100 richieste |
Il tuo progetto può effettuare un totale di massimo 100 chiamate ai metodi dell'API BigQuery Reservation al minuto per regione.
Visualizza le quote nella console Google Cloud |
Numero di SearchAllAssignments chiamate al minuto per regione
|
100 richieste |
Il progetto può effettuare fino a 100 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud |
Richieste di SearchAllAssignments al minuto per regione per utente
|
10 richieste |
Ogni utente può effettuare fino a 10 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud (Nei risultati di ricerca della console Google Cloud, cerca per utente). |
API BigQuery Data Policy
All'API Data Policy si applicano i seguenti limiti (anteprima):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di
dataPolicy.list
chiamate.
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di dataPolicy.testIamPermissions chiamate.
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di richieste di lettura. |
1200 richieste al minuto per progetto 1800 richieste al minuto per organizzazione |
Sono incluse le chiamate a
dataPolicy.get
e
dataPolicy.getIamPolicy .
|
Numero massimo di richieste di scrittura. |
600 richieste al minuto per progetto 900 richieste al minuto per organizzazione |
Sono incluse le chiamate a: |
API IAM
Le seguenti quote si applicano quando utilizzi le funzionalità di Identity and Access Management in BigQuery per recuperare e impostare i criteri IAM e per testare le autorizzazioni IAM.
Le istruzioni in linguaggio Data Control Language (DCL) vengono conteggiate ai fini della quota di SetIAMPolicy
.
Quota | Predefinito | Note |
---|---|---|
IamPolicy richieste al minuto per utente |
1500 richieste al minuto per utente | Ogni utente può effettuare fino a 1500 richieste al minuto per progetto. Visualizza la quota nella console Google Cloud |
IamPolicy richieste al minuto per progetto |
3000 richieste al minuto per progetto | Il tuo progetto può effettuare fino a 3000 richieste al minuto. Visualizza la quota nella console Google Cloud |
Richieste a una singola regione
SetIAMPolicy Richieste al minuto per progetto |
1000 richieste al minuto per progetto | Il progetto per una singola regione può effettuare fino a 1000 richieste al minuto. Visualizza la quota nella console Google Cloud |
Più regioni
SetIAMPolicy richieste al minuto per progetto |
2000 richieste al minuto per progetto | Il tuo progetto multiregionale può effettuare fino a 2000 richieste al minuto. Visualizza la quota nella console Google Cloud |
Omni-regione
SetIAMPolicy richieste al minuto per progetto |
200 richieste al minuto per progetto | Il tuo progetto omnicanale può effettuare fino a 200 richieste al minuto. Visualizza la quota nella console Google Cloud |
API Storage Read
Le seguenti quote si applicano alle richieste dell'API BigQuery Storage Read:
Quota | Predefinito | Note |
---|---|---|
Richieste di lettura del piano dati al minuto per utente | 25.000 richieste |
Ogni utente può effettuare fino a 25.000 chiamate ReadRows al minuto per progetto.
Visualizza la quota nella console Google Cloud |
Richieste di lettura del piano di controllo al minuto per utente | 5000 richieste |
Ogni utente può effettuare fino a 5000 chiamate di operazioni sui metadati dell'API Storage Read al minuto per progetto. Le chiamate ai metadati includono i
metodi CreateReadSession e SplitReadStream .
Visualizza la quota nella console Google Cloud |
I seguenti limiti si applicano alle richieste dell'API BigQuery Storage Read:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima riga/filtro | 1 MB |
Quando utilizzi la chiamata CreateReadSession dell'API Storage Read, la lunghezza massima consentita è 1 MB per ogni riga o filtro.
|
Dimensione massima dei dati serializzati | 128 MB |
Quando utilizzi la chiamata ReadRows dell'API Storage Read, la rappresentazione serializzata dei dati in un singolo messaggio ReadRowsResponse non può superare i 128 MB.
|
Numero massimo di connessioni simultanee | 2000 in più regioni; 400 nelle regioni |
Puoi aprire un massimo di 2000 connessioni ReadRows simultanee per progetto nelle regioni multiple us e eu e 400 connessioni ReadRows simultanee in altre regioni. In alcuni casi, il numero di connessioni simultanee
potrebbe essere inferiore a questo limite.
|
Utilizzo massimo della memoria per stream | 1,5 GB | La memoria massima per flusso è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. I flussi che utilizzano più di 1,5 GB di memoria per una singola riga potrebbero non riuscire. Per maggiori informazioni, consulta Risolvere i problemi relativi al superamento delle risorse. |
API Storage Write
Le seguenti quote si applicano alle richieste API Storage Write. Le seguenti quote possono essere applicate a livello di cartella. Queste quote vengono poi aggregate e condivise tra tutti i progetti figlio. Per attivare questa configurazione, contatta l'assistenza clienti Google Cloud.
Se prevedi di richiedere un limite di quota più elevato, includi il messaggio di errore relativo alla quota nella richiesta per accelerare l'elaborazione.
Quota | Predefinito | Note |
---|---|---|
Connessioni simultanee | 1000 in una regione; 10.000 in una multiregione |
La quota di connessioni simultanee si basa sul progetto client che avvia la richiesta dell'API Storage Write, non sul progetto contenente la risorsa del set di dati BigQuery. Il progetto iniziale è il progetto associato alla chiave API o all'account di servizio. Il tuo progetto può operare su 1000 connessioni simultanee in una
regione o su 10.000 connessioni simultanee nelle aree geografiche multiple Quando utilizzi il stream predefinito in Java o Go, ti consigliamo di utilizzare il multiplexing dell'API Storage Write per scrivere in più tabelle di destinazione con connessioni condivise, in modo da ridurre il numero complessivo di connessioni necessarie. Visualizza la quota nella console Google CloudPuoi visualizzare le metriche relative alla quota e ai limiti di utilizzo per i tuoi progetti in Cloud Monitoring. Seleziona il nome del limite di connessioni simultanee in base alla regione. Le opzioni sono |
Velocità effettiva | Velocità effettiva di 3 GB al secondo in regioni multiple; 300 MB al secondo nelle regioni |
Puoi trasmettere flussi di dati fino a 3 GB/s nelle regioni multiple us e
eu e fino a 300 MBps in altre regioni per progetto.
Visualizza la quota nella console Google Cloud Puoi visualizzare le metriche relative alla quota e ai limiti di utilizzo per i tuoi progetti in Cloud Monitoring. Seleziona il nome del limite di velocità effettiva in base alla regione. Le opzioni sono |
Richieste CreateWriteStream
|
10.000 flussi all'ora, per progetto per regione |
Puoi chiamare CreateWriteStream fino a 10.000 volte all'ora per progetto per area geografica. Valuta la possibilità di utilizzare lo stream predefinito se non hai bisogno della semantica "exactly-once".
Questa quota è all'ora, ma la metrica mostrata nella console Google Cloud è al minuto.
|
Byte di flusso in attesa | 10 TB in più regioni; 1 TB nelle regioni |
Per ogni commit attivato, puoi eseguire il commit di massimo 10 TB nelle
regioni multiple us e eu e
1 TB in altre regioni. Non ci sono report per questa quota.
|
I seguenti limiti si applicano alle richieste API Storage Write:
Limite | Predefinito | Note |
---|---|---|
Commit batch | 10.000 flussi per tabella |
Puoi eseguire il commit di massimo 10.000 stream in ogni chiamata BatchCommitWriteStream .
|
Dimensioni richiesta AppendRows
|
10 MB | La dimensione massima della richiesta è 10 MB. |
Inserimento di flussi di dati
Le quote e i limiti seguenti si applicano quando trasmetti flussi di dati in BigQuery utilizzando l'API per l'inserimento di flussi di dati legacy.
Per informazioni sulle strategie per rimanere entro questi limiti, consulta Risoluzione degli errori di quota.
Se superi queste quote, riceverai quotaExceeded
errori.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte al secondo per progetto nelle regioni multiple us e eu
|
1 GB al secondo |
Il progetto può trasmettere in streaming fino a 1 GB al secondo. Questa quota è cumulativa all'interno di una determinata località multiregionale. In altre parole, la somma dei byte al secondo trasmessi in streaming a tutte le tabelle per un determinato progetto all'interno di una località multiregionale è limitata a 1 GB.
Il superamento di questo limite causa Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi un aumento il prima possibile, almeno due settimane prima che ti serva. L'aumento della quota richiede tempo prima di diventare disponibile, soprattutto in caso di aumento significativo. |
Numero massimo di byte al secondo per progetto in tutte le altre località | 300 MB al secondo |
Il progetto può trasmettere flussi fino a 300 MB al secondo in tutte le località, ad eccezione delle regioni multiple
Il superamento di questo limite causa Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi un aumento il prima possibile, almeno due settimane prima che ti serva. L'aumento della quota richiede tempo prima di diventare disponibile, soprattutto in caso di aumento significativo. |
Dimensione massima della riga | 10 MB |
Il superamento di questo valore causa invalid errori.
|
Limite di dimensioni della richiesta HTTP | 10 MB |
Il superamento di questo valore causa Internamente, la richiesta viene tradotta da JSON HTTP in una struttura di dati interna. La struttura di dati tradotta ha il proprio limite di dimensioni applicato. È difficile prevedere le dimensioni della struttura di dati interni risultante, ma se le richieste HTTP vengono mantenute fino a un massimo di 10 MB, la possibilità di raggiungere il limite interno è bassa. |
Numero massimo di righe per richiesta | 50.000 righe | Consigliamo di utilizzare un limite massimo di 500 righe. Il batch può aumentare le prestazioni e la velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Se le righe per richiesta sono troppo poche, il sovraccarico di ciascuna richiesta può rendere inefficiente l'importazione. Troppe righe per richiesta e la velocità effettiva può diminuire. Sperimenta con dati rappresentativi (dimensioni di schema e dati) per determinare la dimensione del batch ideale per i tuoi dati. |
Lunghezza del campo insertId
|
128 caratteri |
Il superamento di questo valore causa invalid errori.
|
Per una quota aggiuntiva di flussi di dati, consulta Richiedere un aumento della quota.