Quote e limiti

BigQuery limita il numero massimo di richieste in entrata e applica le quote appropriate in base al singolo progetto. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di utilizzo dei servizi e di altri fattori e sono soggetti a modifiche senza preavviso.

Gli elenchi seguenti specificano gli attuali limiti di quota e le limitazioni di frequenza del sistema.

Job di query

I seguenti limiti si applicano ai job di query creati automaticamente eseguendo query interattive e ai job inoltrati in modo programmatico utilizzando chiamate ai metodi jobs.query e jobs.insert di tipo query.

  • Limitazione di frequenza per query interattive in parallelo: 100 query in parallelo

Le query i cui risultati vengono restituiti dalla cache delle query incidono su questo limite per il tempo richiesto da BigQuery per determinare che si tratta di successo della cache. Le query di prova non incidono su questo limite. Puoi specificare una query di prova utilizzando il flag --dry_run o impostando la proprietà dryRun in un job di query.

Questo limite si applica a livello di progetto. Per aumentare il limite, contatta l'assistenza o il team di vendita.

  • Limitazione di frequenza per query interattive in parallelo su origini dati esterne di Bigtable: 4 query in parallelo

Puoi eseguire al massimo 4 query in parallelo su un'origine dati esterna di Bigtable.

  • Limitazione di frequenza per query in SQL precedente in parallelo che contengono funzioni definite dall'utente (UDF): 6 query in parallelo

La limitazione di frequenza per query in SQL precedente in parallelo che contengono funzioni definite dall'utente include sia query interattive che batch. Anche le query interattive che contengono funzioni definite dall'utente incidono sulla limitazione di frequenza per le query interattive in parallelo. Questo limite non si applica alle query SQL standard.

  • Query federate tra aree geografiche: 1 TB per progetto al giorno

Se la località di elaborazione della query BigQuery e la località dell'istanza Cloud SQL sono diverse, si ha una query tra aree geografiche. Puoi eseguire fino a 1 TB di query tra aree geografiche per progetto al giorno. Consulta Query federate Cloud SQL.

  • Dimensione massima giornaliera delle query: illimitata per impostazione predefinita

Puoi specificare dei limiti per la quantità di dati su cui gli utenti possono eseguire query impostando quote personalizzate.

  • Limite di aggiornamento giornaliero della tabella di destinazione: 1500 aggiornamenti per tabella al giorno

Le tabelle di destinazione in un job di query sono soggette al limite di 1500 aggiornamenti per tabella al giorno. Gli aggiornamenti della tabella di destinazione includono operazioni di accodamento e operazioni di sovrascrittura eseguite da una query utilizzando la console, la UI web classica di BigQuery, lo strumento a riga di comando bq oppure chiamando i metodi API jobs.query e jobs.insert di tipo query.

  • Limite di tempo di esecuzione query/script: 6 ore

Questo limite non può essere modificato. In alcuni casi, è possibile eseguire nuovamente le query. In tal caso, la query tentata nuovamente può essere eseguita per altre sei ore e la sua esecuzione può essere ritentata fino a tre volte. Ciò potrebbe comportare un tempo di esecuzione totale che supera le sei ore.

  • Numero massimo di tabelle a cui viene fatto riferimento per query: 1000

  • Dimensione massima delle query in SQL precedente non risolte: 256 kB

  • Dimensione massima delle query in SQL standard non risolte: 1 MB

  • Dimensione massima delle query in SQL precedente e standard risolte: 12 MB

Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query.

  • Numero massimo di parametri di query in SQL standard: 10.000

  • Dimensione massima della risposta: 10 GB compressi1

1Le dimensioni variano in base ai rapporti di compressione dei dati. La dimensione effettiva della risposta potrebbe essere sensibilmente maggiore di 10 GB.

La dimensione massima della risposta è illimitata quando si scrivono risultati di query di grandi dimensioni su una tabella di destinazione.

  • Dimensione massima della riga: 100 MB2

2La dimensione massima della riga è approssimativa, poiché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query.

  • Numero massimo di colonne in una tabella, un risultato di query o una definizione di vista: 10.000

  • Numero massimo di slot contemporanei per progetto per i prezzi on demand: 2000

Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe consentire il bursting oltre tale limite per accelerare le query.

Per verificare quanti slot stai utilizzando, consulta la documentazione sul monitoraggio di BigQuery tramite Cloud Monitoring.

  • Numero massimo di query in parallelo rispetto a un'origine dati esterna di Cloud Bigtable: 4

Per informazioni sui limiti che si applicano alle funzioni definite dall'utente nelle query SQL, consulta Limiti delle funzioni definite dall'utente.

  • Query programmate

Sebbene le query programmate utilizzino funzionalità di BigQuery Data Transfer Service , esse non sono trasferimenti e non sono soggette alla quota dei job di caricamento. Le query programmate sono soggette alle stesse quote e limiti di BigQuery, come le query manuali.

Job di caricamento

I seguenti limiti si applicano ai job creati in modo automatico caricando i dati tramite lo strumento a riga di comando, Cloud Console o la UI web classica di BigQuery. I limiti si applicano anche ai job di caricamento inviati in modo programmatico tramite il metodo API jobs.insert di tipo load.

I seguenti limiti si applicano quando carichi dati in BigQuery.

  • Job di caricamento per tabella al giorno: 1500 (inclusi errori)
  • Job di caricamento per progetto al giorno: 100.000 (inclusi errori)
  • Non è possibile aumentare il limite di 1500 job di caricamento per tabella al giorno.
  • Dimensioni massime di righe e celle:
    Formato dei dati Limite massimo
    CSV 100 MB (dimensione di righe e celle)
    JSON 100 MB (dimensione delle righe)
  • Numero massimo di colonne per tabella: 10.000
  • Dimensioni massime dei file:
    Tipo di file Compresso Non compresso
    CSV 4 GB 5 TB
    JSON 4 GB 5 TB
  • Dimensione massima per job di caricamento: 15 TB su tutti i file di input per CSV, JSON, Avro, Parquet e ORC
  • Numero massimo di URI di origine nella configurazione del job: 10.000 URI
  • Numero massimo di file per job di caricamento: 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly
  • Limite di tempo di esecuzione del job di caricamento: 6 ore
  • Tranne nel caso dei set di dati che si trovano negli Stati Uniti, devi caricare i dati da un bucket Cloud Storage nella stessa area geografica (il bucket può essere a più aree geografiche o ad area geografica singola nella stessa area geografica del set di dati). Puoi caricare i dati in un set di dati che si trova negli Stati Uniti da qualsiasi area geografica.

Per ulteriori informazioni, consulta la documentazione sul caricamento dei dati in BigQuery.

Job di copia

I seguenti limiti si applicano alla copia di tabelle in BigQuery. I seguenti limiti si applicano ai job creati in modo automatico copiando i dati tramite lo strumento a riga di comando, la console o la UI web classica di BigQuery. I limiti si applicano anche ai job di copia inviati in modo programmatico tramite il metodo API jobs.insert di tipo copy.

  • Job di copia per tabella di destinazione al giorno: 1000 (inclusi errori)
  • Job di copia per progetto al giorno: 100.000 (inclusi errori)

Job di esportazione

I seguenti limiti si applicano ai job che esportano dati da BigQuery. I seguenti limiti si applicano ai job creati in modo automatico esportando i dati tramite lo strumento a riga di comando, la console o la UI web classica di BigQuery. I limiti si applicano anche ai job di esportazione inviati in modo programmatico tramite il metodo API jobs.insert di tipo load.

  • Esportazioni al giorno: 100.000 esportazioni per progetto e fino a 50 TB al giorno (il limite di dati di 50 TB è cumulativo per tutte le esportazioni)
  • Per esportare più di 50 TB di dati al giorno, utilizza l'API BigQuery Storage.

  • URI con caratteri jolly: 500 URI con caratteri jolly per esportazione

Limiti dei set di dati

Ai set di dati si applicano i seguenti limiti:

  • Numero di set di dati per progetto: nessuna restrizione
    Il numero di set di dati per progetto non è soggetto a una quota, tuttavia, se ti avvicini alle migliaia di set di dati per progetto, le prestazioni della UI web classica iniziano a peggiorare e la creazione di elenchi di set di dati richiede più tempo.
  • Numero di tabelle per set di dati: nessuna restrizione
    Se ti avvicini a 50.000 o più tabelle in un set di dati, la creazione di elenchi sarà più lenta. Le prestazioni della creazione di elenchi cambiano se utilizzi una chiamata API o la UI web classica di BigQuery. Attualmente, la UI web di BigQuery in Google Cloud Console consente di visualizzare solo 50.000 tabelle per set di dati. Per migliorare le prestazioni della UI web classica di BigQuery, puoi utilizzare il parametro ?minimal in modo da limitare il numero di tabelle visualizzate a 30.000 per progetto. Puoi aggiungere il parametro all'URL della UI web classica di BigQuery nel seguente formato: https://bigquery.cloud.google.com/queries/[PROJECT_NAME]?minimal.
  • Numero massimo di viste autorizzate nell'elenco di controllo di accesso di un set di dati: 2500
    Puoi creare una vista autorizzata per limitare l'accesso ai dati di origine. Una vista autorizzata viene creata utilizzando una query SQL che esclude le colonne che non vuoi che gli utenti visualizzino quando eseguono query sulla vista. Puoi aggiungere fino a 2500 viste autorizzate all'elenco di controllo di accesso di un set di dati.
  • Frequenza massima delle operazioni di aggiornamento dei metadati dei set di dati: 5 operazioni ogni 10 secondi per set di dati
    Il limite di aggiornamento dei metadati dei set di dati include tutte le operazioni di questo tipo eseguite utilizzando la console, la UI web classica di BigQuery, lo strumento a riga di comando bq oppure chiamando i metodi API datasets.insert, datasets.patch o datasets.update.
  • Lunghezza massima della descrizione di un set di dati: 16.384 caratteri
    Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri.

Limiti delle tabelle

I seguenti limiti si applicano alle tabelle BigQuery.

Tutte le tabelle

  • Lunghezza massima della descrizione di una colonna: 16.384 caratteri

Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 16.384 caratteri.

Tabelle standard

  • Numero massimo di operazioni per tabella al giorno: 1500

Non puoi superare le 1500 operazioni per tabella al giorno, sia che l'operazione aggiunga dati a una tabella sia che tronchi una tabella.

Il numero massimo di operazioni per tabella include il totale combinato di tutti i job di caricamento, job di copia e job di query che aggiungono dati a una tabella di destinazione o la sovrascrivono o che utilizzano un'istruzione DML INSERT, UPDATE, DELETE o MERGE per scrivere dati in una tabella. Le istruzioni DML vengono conteggiate per questa quota, ma non vengono limitate dalla stessa. In altre parole, il numero di operazioni giornaliere conteggiate per questa quota include le istruzioni DML, ma queste ultime non avranno esito negativo a causa di questo limite.

Ad esempio, se esegui 500 job di copia che aggiungono dati a mytable e 1000 job di query che aggiungono dati a mytable, hai raggiunto la quota.

  • Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle: 5 operazioni ogni 10 secondi per tabella

Il limite di aggiornamento dei metadati della tabella comprende tutte le operazioni di aggiornamento dei metadati eseguite utilizzando Cloud Console, la UI web classica di BigQuery, lo strumento a riga di comando bq o le librerie client, chiamando i metodi API tables.insert, tables.patch o tables.update o eseguendo le istruzioni DDL ALTER TABLE. Questo limite si applica anche all'output del job.

  • Numero massimo di colonne in una tabella, un risultato di query o una definizione di vista: 10.000

Tabelle partizionate

  • Numero massimo di partizioni per tabella partizionata: 4000

  • Numero massimo di partizioni modificate da un singolo job: 4000

Ogni operazione di job (query o caricamento) può interessare un massimo di 4000 partizioni. I job di query o caricamento che interessano più di 4000 partizioni vengono rifiutati da BigQuery.

  • Numero massimo di modifiche delle partizioni per tabella partizionata per data di importazione: 5000
  • Numero massimo di modifiche delle partizioni per tabella partizionata per colonne: 30.000

Non puoi superare le 5000 modifiche alle partizioni in totale al giorno per una tabella partizionata per data di importazione e le 30.000 modifiche alle partizioni per una tabella partizionata per colonne. Una partizione può essere modificata utilizzando un'operazione che aggiunga o sovrascriva i dati nella partizione. Le operazioni che modificano le partizioni possono essere: un job di caricamento, una query che scrive i risultati su una partizione o un'istruzione DML (INSERT, DELETE, UPDATE o MERGE) che modifica i dati di una partizione.

Diverse partizioni possono essere modificate da un singolo job. Ad esempio, un'istruzione DML può aggiornare i dati in più partizioni (sia per le tabelle partizionate che per quelle partizionate per data di importazione). Anche i job di query e i job di caricamento possono scrivere su più partizioni, ma solo se si tratta di tabelle partizionate. Le istruzioni DML vengono conteggiate per questa quota, ma non vengono limitate dalla stessa. In altre parole, il numero di operazioni giornaliere conteggiate per questa quota include le istruzioni DML, ma queste ultime non avranno esito negativo a causa di questo limite. BigQuery utilizza il numero di partizioni interessate da un job per calcolare la quantità di quota consumata dal job. Gli inserimenti di flussi di dati non influiscono su questa quota.

  • Frequenza massima delle operazioni di partizione: 50 operazioni di partizione ogni 10 secondi

Tabelle esterne

I seguenti limiti si applicano alle tabelle con dati archiviati in Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON.

  • Numero massimo di URI di origine per tabella esterna: 10.000 URI
  • Numero massimo di file per tabella esterna: 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly
  • Dimensione massima dei dati archiviati in Cloud Storage per tabella esterna su tutti i file di input: 600 TB

    Questo limite si applica alle dimensioni dei file come sono archiviati in Cloud Storage; queste dimensioni non coincidono con quelle utilizzate nella formula per la determinazione dei prezzi delle query. Per tabelle partizionate esternamente, il limite viene applicato dopo l'eliminazione delle partizioni.

Limiti delle viste

  • Numero massimo di livelli di viste nidificate: 16

BigQuery supporta fino a 16 livelli di viste nidificate. Se sono presenti più di 16 livelli, viene restituito un errore INVALID_INPUT.

  • Lunghezza massima di una query in SQL standard utilizzata per definire una vista: 256.000 caratteri

Quando crei una vista, il testo della query in SQL standard può contenere al massimo 256.000 caratteri.

  • Numero massimo di viste autorizzate nell'elenco di controllo di accesso di un set di dati: 2500

Puoi creare una vista autorizzata per limitare l'accesso ai dati di origine. Una vista autorizzata viene creata utilizzando una query SQL che esclude le colonne che non vuoi che gli utenti visualizzino quando eseguono query sulla vista. Puoi aggiungere fino a 2500 viste autorizzate all'elenco di controllo di accesso di un set di dati.

Limiti delle funzioni definite dall'utente

I seguenti limiti si applicano alle funzioni definite dall'utente temporanee e permanenti nelle query SQL.

  • Quantità di dati degli output delle funzioni JavaScript definite dall'utente durante l'elaborazione di una singola riga: circa 5 MB o meno.
  • Limitazione di frequenza per query in SQL precedente in parallelo che contengono funzioni definite dall'utente: 6 query in parallelo.
  • La limitazione di frequenza per query in SQL precedente in parallelo che contengono funzioni definite dall'utente include sia query interattive che batch. Anche le query interattive che contengono funzioni definite dall'utente incidono sulla limitazione di frequenza per le query interattive in parallelo. Questo limite non si applica alle query in SQL standard.

  • Numero massimo di risorse UDF JavaScript, come blob di codice inline o file esterni, in un job di query: 50
  • Dimensione massima di ciascun blob di codice inline: 32 kB.
  • Dimensione massima di ogni risorsa di codice esterno: 1 MB.

I seguenti limiti si applicano alle funzioni definite dall'utente permanenti.
  • Lunghezza massima del nome di una funzione: 256 caratteri
  • Numero massimo di argomenti: 256
  • Lunghezza massima del nome di un argomento: 128 caratteri
  • Profondità massima della catena di riferimento di una funzione definita dall'utente: 16
  • Profondità massima di un argomento o output di tipo STRUCT: 15
  • Numero massimo di campi in un argomento o output di tipo STRUCT per UDF: 1024
  • Numero massimo di UDF univoche più riferimenti di tabella per query: 1000 Dopo l'espansione completa, ogni UDF può fare riferimento a un massimo di 1000 tabelle univoche e UDF combinate.
  • Numero massimo di librerie JavaScript nell'istruzione CREATE FUNCTION: 50
  • Lunghezza massima dei percorsi della libreria JavaScript inclusi: 5000 caratteri
  • Frequenza di aggiornamento massima per UDF: 5 ogni 10 secondi Dopo la creazione della funzione, è possibile aggiornare ciascuna funzione fino a 5 volte ogni 10 secondi.
  • La dimensione massima di ciascun blob di codice inline è di 32 kB.
  • La dimensione massima di ciascuna risorsa di codice JavaScript è di 1 MB.

Istruzioni DML (Data Manipulation Language)

Le istruzioni DML di BigQuery non hanno limiti di quota.

Tuttavia, le istruzioni DML vengono conteggiate per il numero massimo di operazioni per tabella al giorno e modifiche delle partizioni al giorno. Le istruzioni DML non avranno esito negativo a causa di questo limite.

Inoltre, le istruzioni DML sono soggette alla frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle. Se superi questo limite, prova nuovamente l'operazione utilizzando il backoff esponenziale tra un nuovo tentativo e l'altro.

Inserimento di flussi di dati

I seguenti limiti si applicano agli inserimenti di flussi di dati in BigQuery.

Se non immetti dati nel campo insertId quando inserisci le righe, verranno applicate le seguenti quote. Per ulteriori informazioni, consulta la documentazione su come disattivare la deduplicazione best effort. Questo è il metodo consigliato per utilizzare BigQuery per ottenere limiti di quota maggiori per l'importazione dei flussi.

  • Numero massimo di byte al secondo: 1 GB. Se non immetti dati nel campo insertId per ciascuna riga inserita, il limite è di 1 GB al secondo per progetto. Questo limite si applica a livello di progetto e non alle singole tabelle. Il superamento di questa quantità provoca errori di tipo quotaExceeded.

Se immetti dati nel campo insertId quando inserisci le righe, vengono applicate le seguenti quote.

  • Numero massimo di righe al secondo nelle aree geografiche multiple us e eu: 500.000
    Se immetti dati nel campo insertId per ogni riga inserita, il limite è di 500.000 righe al secondo nelle aree geografiche multiple us e eu, per progetto o tabella. Questa quota è cumulativa. Puoi utilizzare interamente questa quota su una tabella o inserire i dati in più tabelle di un progetto.

    Il superamento di questa quantità provoca errori di tipo quotaExceeded.
  • Numero massimo di righe al secondo in tutte le altre località: 100.000
    Se immetti dati nel campo insertId per ogni riga inserita, il limite è di 100.000 righe al secondo per progetto o tabella in tutte le località tranne le aree geografiche multiple us e eu. Questa quota è cumulativa. Puoi utilizzare interamente questa quota su una tabella o inserire i dati in più tabelle di un progetto.

    Il superamento di questa quantità provoca errori di tipo quotaExceeded.
  • Numero massimo di byte al secondo: 100 MB
    Se immetti dati nel campo insertId per ogni riga inserita, il limite è di 100 MB al secondo per tabella.

    Il superamento di questa quantità provoca errori di tipo quotaExceeded.

Le seguenti quote aggiuntive per i flussi di dati vengono applicate a seconda che tu immetta o meno dati nel campo insertId:

  • Dimensione massima della riga: 5 MB
    Il superamento di questo valore provoca errori di tipo invalid.
  • Dimensione massima della richiesta HTTP: 10 MB (vedi Nota)
    Il superamento di questo valore provoca errori di tipo invalid.
  • Numero massimo di righe per richiesta: 10.000
    Si consiglia di utilizzare un massimo di 500 righe. Il processo batch può aumentare le prestazioni e la velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Se le righe per richiesta sono troppo poche, il sovraccarico di ciascuna richiesta può rendere inefficiente l'importazione. Se le righe per richiesta sono troppe, la velocità effettiva può diminuire.

    Si consiglia di utilizzare un massimo di 500 righe, anche se, per individuare la dimensione ideale del batch, è meglio effettuare dei test con dati rappresentativi (dimensioni di schema e dati).
  • Lunghezza campo insertId: 128
    Il superamento di questo valore provoca errori di tipo invalid.

Se hai bisogno di un aumento della quota per i flussi di dati per il tuo progetto, puoi disattivare la deduplicazione best effort. Per aumentare la quota oltre questi limiti, puoi inviare una richiesta da Google Cloud Console. Dovresti ricevere una risposta alla tua richiesta entro due o tre giorni lavorativi.

Richieste API

Tutte le richieste API

I seguenti limiti si applicano a tutte le richieste API di BigQuery:

  • Richieste API al secondo, per utente: 100
    Se effettui più di 100 richieste al secondo, potresti incorrere in una limitazione. Questo limite non si applica agli inserimenti di flussi di dati.
  • Richieste API in parallelo, per utente: 300
    Se effettui più di 300 richieste in parallelo per utente, potresti incorrere in una limitazione. Questo limite non si applica agli inserimenti di flussi di dati.

Richieste tabledata.list

Il metodo tabledata.list recupera i dati della tabella da un insieme specificato di righe. Anche altre API che includono jobs.getQueryResults e che recuperano risultati da jobs.query e jobs.insert possono consumare la quota di questa API. Per le richieste tabledata.list si applicano i limiti seguenti:

  • Numero massimo di query tabledata.list per progetto: 500 al secondo
    Quando effettui una chiamata a tabledata.list, puoi inviare fino a 500 richieste al secondo per progetto.
  • Numero massimo di byte al secondo per progetto restituito dalle chiamate a tabledata.list: 60 MB al secondo
    Quando effettui una chiamata a tabledata.list, puoi restituire un massimo di 60 MB al secondo di dati delle righe di una tabella per progetto. Il limite si applica al progetto che contiene la tabella letta.
  • Numero massimo di righe al secondo per progetto restituite dalle chiamate a tabledata.list: 150.000 al secondo
    Quando chiami tabledata.list, puoi restituire un massimo di 150.000 righe di tabella al secondo per progetto. Il limite si applica al progetto che contiene la tabella letta.

Richieste tables.insert

Il metodo tables.insert crea una nuova tabella vuota in un set di dati. Per le richieste tables.insert si applicano i limiti seguenti:

  • Numero massimo di richieste al secondo per progetto: 10 : quando chiami il metodo tables.insert, puoi creare un massimo di dieci richieste al secondo per progetto. Questo limite include le istruzioni che creano tabelle come l'istruzione DDL CREATE TABLE, nonché le query che scrivono risultati nelle tabelle di destinazione.

Richieste projects.list

Il metodo projects.list elenca tutti i progetti per i quali ti è stato concesso l'accesso. Per le richieste projects.list si applicano i limiti seguenti:

  • Numero massimo di richieste al secondo per progetto: 2 : quando effettui una chiamata al metodo projects.list, puoi creare un massimo di due richieste al secondo per progetto.

Richieste jobs.get

Il metodo jobs.get restituisce informazioni su un job specifico. Per le richieste jobs.get si applicano i limiti seguenti:

  • Numero massimo di richieste al secondo per progetto: 1000 : quando effettui una chiamata al metodo jobs.get, puoi creare un massimo di 1000 richieste al secondo per progetto.

Richieste jobs.query

Il metodo jobs.query esegue una query SQL in modalità sincrona e restituisce risultati se la query viene completata prima di un timeout specificato.

  • Dimensione massima di risposta: 10 MB : per impostazione predefinita, non esiste un numero massimo di righe di dati da restituire per singola pagina dei risultati. Tuttavia, non puoi superare la dimensione massima di risposta pari a 10 MB. Puoi modificare il numero di righe da restituire utilizzando il parametro maxResults.

Richieste API IAM

I limiti seguenti si applicano all'utilizzo della funzionalità Identity and Access Management in BigQuery per recuperare e impostare i criteri IAM e per testare le autorizzazioni IAM.

  • Il livello di progetto Google Cloud prevede un limite di 25 richieste al secondo per utente.

  • Il livello di progetto Google Cloud prevede un limite di 50 richieste al secondo.

Se hai bisogno di un aumento della quota IAM per il tuo progetto, puoi inviare una richiesta da Google Cloud Console. Dovresti ricevere una risposta alla tua richiesta entro due o tre giorni lavorativi.

Richieste per l'API BigQuery Storage

I seguenti limiti si applicano alle chiamate ReadRows che utilizzano l'API BigQuery Storage:

  • Chiamate ReadRows al minuto: 5000 : quando leggi i dati utilizzando l'API BigQuery Storage, hai un limite di 5000 chiamate ReadRows al minuto per utente e per progetto.

I seguenti limiti si applicano a tutte le altre chiamate di metodo che utilizzano l'API BigQuery Storage:

  • Chiamate API al minuto: 1000 : hai un limite di 1000 chiamate API BigQuery Storage al minuto per utente e per progetto.

Quando vengono ricaricate le quote?

Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.

Codici di errore

Gli errori di quota e limite restituiscono un codice di risposta HTTP 403 o 400. Consulta la documentazione sui messaggi di errore per un elenco completo dei codici di errore e delle procedure per la risoluzione dei problemi.

Limitazione dell'utilizzo delle quote

Per informazioni su come puoi limitare l'uso di una risorsa particolare fino al limite specificato da Google, consulta Limitazione dell'utilizzo.