Programmazione delle query
Questa pagina descrive come pianificare le query ricorrenti in BigQuery.
Puoi pianificare l'esecuzione delle query su base ricorrente. Le query pianificate devono essere escritas in GoogleSQL, che può includere istruzioni Data Definition Language (DDL) e Data Manipulation Language (DML). Puoi organizzare i risultati della query per data e ora parametrizzando la stringa di query e la tabella di destinazione.
Quando crei o aggiorni la pianificazione di una query, l'ora pianificata della query viene convertita dall'ora locale in UTC. Il fuso orario UTC non è interessato dall'ora legale.
Prima di iniziare
- Le query pianificate utilizzano funzionalità di BigQuery Data Transfer Service. Verifica di aver completato tutte le azioni richieste in Attivare BigQuery Data Transfer Service.
- Concedi i ruoli IAM (Identity and Access Management) che forniscono agli utenti le autorizzazioni necessarie per eseguire ogni attività in questo documento.
- Se prevedi di specificare una chiave di crittografia gestita dal cliente (CMEK), assicurati che il tuo account di servizio disponga delle autorizzazioni per criptare e decriptare e che tu disponga dell'ID risorsa della chiave Cloud KMS necessario per utilizzare la chiave CMEK. Per informazioni su come funzionano le chiavi CMEK con BigQuery Data Transfer Service, consulta Specificare la chiave di crittografia con le query pianificate.
Autorizzazioni obbligatorie
Per pianificare una query, devi disporre delle seguenti autorizzazioni IAM:
Per creare il trasferimento, devi disporre delle autorizzazioni
bigquery.transfers.update
ebigquery.datasets.get
oppure delle autorizzazionibigquery.jobs.create
,bigquery.transfers.get
ebigquery.datasets.get
.Per eseguire una query pianificata, devi disporre di:
- Autorizzazioni
bigquery.datasets.get
sul set di dati di destinazione bigquery.jobs.create
- Autorizzazioni
Per modificare o eliminare una query pianificata, devi disporre di una delle seguenti autorizzazioni IAM:
bigquery.transfers.update
bigquery.jobs.create
e la proprietà della query pianificata
Il ruolo IAM predefinito roles/bigquery.admin
include le autorizzazioni necessarie per pianificare o modificare una query.
Per saperne di più sui ruoli IAM in BigQuery, consulta Ruoli e autorizzazioni predefiniti.
Per creare o aggiornare le query pianificate eseguite da un account di servizio, devi avere accesso a quell'account di servizio. Per ulteriori informazioni sulla concessione del ruolo dell'account di servizio agli utenti, consulta Ruolo Utente account di servizio. Per selezionare un account di servizio nell'interfaccia utente delle query pianificate della console Google Cloud, devi disporre delle seguenti autorizzazioni IAM:
iam.serviceAccounts.list
Opzioni di configurazione
Stringa di query
La stringa di query deve essere valida e scritta in GoogleSQL. Ogni esecuzione di una query pianificata può ricevere i seguenti parametri di query.
Per testare manualmente una stringa di query con i parametri @run_time
e @run_date
prima di pianificare una query, utilizza lo strumento a riga di comando bq.
Parametri disponibili
Parametro | Tipo GoogleSQL | Valore |
---|---|---|
@run_time |
TIMESTAMP |
Rappresentate nell'ora UTC. Per le query pianificate regolarmente, run_time rappresenta l'ora prevista di esecuzione. Ad esempio, se la query pianificata è impostata su "ogni 24 ore", la differenza run_time tra due query consecutive è esattamente di 24 ore, anche se il tempo di esecuzione effettivo potrebbe variare leggermente. |
@run_date |
DATE |
Rappresenta una data di calendario logica. |
Esempio
Il parametro @run_time
fa parte della stringa di query in questo esempio, che esegue una query su un set di dati pubblico denominato hacker_news.stories
.
SELECT @run_time AS time, title, author, text FROM `bigquery-public-data.hacker_news.stories` LIMIT 1000
Tabella di destinazione
Se la tabella di destinazione per i risultati non esiste quando configuri la query pianificata, BigQuery tenta di crearla per te.
Se utilizzi una query DDL o DML, nella console Google Cloud scegli la regione o la Località di elaborazione. La posizione di elaborazione è obbligatoria per le query DDL o DML che creano la tabella di destinazione.
Se la tabella di destinazione esiste e utilizzi la WRITE_APPEND
preferenza di scrittura, BigQuery aggiunge i dati alla tabella di destinazione e tenta di mappare lo schema.
BigQuery consente automaticamente l'aggiunta e il riordinamento dei campi e supporta i campi facoltativi mancanti. Se lo schema della tabella cambia così tanto tra un'esecuzione e l'altra che BigQuery non riesce a elaborare le modifiche automaticamente, la query pianificata non va a buon fine.
Le query possono fare riferimento a tabelle di progetti e set di dati diversi. Quando configuri la query pianificata, non è necessario includere il set di dati di destinazione nel nome della tabella. Specifica il set di dati di destinazione separatamente.
Il set di dati e la tabella di destinazione per una query pianificata devono trovarsi nello stesso progetto della query pianificata.
Preferenza di scrittura
La preferenza di scrittura selezionata determina la modalità di scrittura dei risultati della query in una tabella di destinazione esistente.
WRITE_TRUNCATE
: se la tabella esiste, BigQuery sovrascrive i dati della tabella.WRITE_APPEND
: se la tabella esiste, BigQuery aggiunge i dati alla tabella.
Se utilizzi una query DDL o DML, non puoi utilizzare l'opzione di preferenza di scrittura.
La creazione, il troncamento o l'accodamento di una tabella di destinazione avviene solo se BigQuery è in grado di completare correttamente la query. Le azioni di creazione, troncamento o accodamento vengono eseguite come un unico aggiornamento atomico al termine del job.
Clustering
Le query pianificate possono creare raggruppamenti solo nelle nuove tabelle, quando la tabella viene creata con un'istruzione CREATE TABLE AS SELECT
DDL. Consulta
Creazione di una tabella in cluster da un risultato di query
nella pagina Utilizzo di istruzioni del linguaggio di definizione dei dati.
Opzioni di partizionamento
Le query pianificate possono creare tabelle di destinazione partizionate o non partizionate. La suddivisione in parti è disponibile nella console Google Cloud, nello strumento a riga di comando bq e nei metodi di configurazione dell'API. Se utilizzi una query DDL o DML con partizionamento, lascia vuoto il campo Partizionamento della tabella di destinazione.
In BigQuery puoi utilizzare i seguenti tipi di partizionamento delle tabelle:
- Partizionamento in base a intervalli di interi:
tabelle partizionate in base a intervalli di valori in una colonna
INTEGER
specifica. - Partizionamento delle colonne in base alle unità di tempo:
tabelle partizionate in base a una colonna
TIMESTAMP
,DATE
oDATETIME
. - Partizione per data di importazione: tabelle partizionate per data di importazione. BigQuery assegna automaticamente le righe alle partizioni in base al momento in cui BigQuery acquisisce i dati.
Per creare una tabella partizionata utilizzando una query pianificata nella console Google Cloud, utilizza le seguenti opzioni:
Per utilizzare la suddivisione in intervalli di interi, lascia vuoto il campo di suddivisione della tabella di destinazione.
Per utilizzare la partizione delle colonne in base alle unità di tempo, specifica il nome della colonna nel campo di partizione della tabella di destinazione quando configuri una query pianificata.
Per utilizzare la partizione in base alla data di importazione, lascia vuoto il campo di partizionamento della tabella di destinazione e indica la data di partizione nel nome della tabella di destinazione. Ad esempio,
mytable${run_date}
. Per ulteriori informazioni, consulta la sezione Sintassi dei modelli di parametro.
Parametri disponibili
Quando configuri la query pianificata, puoi specificare come vuoi partizionare la tabella di destinazione con i parametri di runtime.
Parametro | Tipo di modello | Valore |
---|---|---|
run_time |
Timestamp formattato | Nell'ora UTC, in base alla programmazione. Per le query pianificate regolarmente, run_time rappresenta l'ora prevista di esecuzione. Ad esempio, se la query pianificata è impostata su "ogni 24 ore", la run_time differenza tra due query consecutive è esattamente di 24 ore, anche se il tempo di esecuzione effettivo può variare leggermente.Consulta TransferRun.runTime . |
run_date |
Stringa di data | La data del parametro run_time nel seguente formato: %Y-%m-%d ; ad esempio, 2018-01-01 . Questo formato è compatibile con le tabelle partizionate per data di importazione. |
Sistema di creazione di modelli
Le query pianificate supportano i parametri di runtime nel nome della tabella di destinazione con una sintassi di creazione di modelli.
Sintassi dei modelli di parametri
La sintassi dei modelli supporta la creazione di modelli di stringhe di base e lo sfasamento temporale. I parametri vengono indicati nei seguenti formati:
{run_date}
{run_time[+\-offset]|"time_format"}
Parametro | Purpose |
---|---|
run_date |
Questo parametro viene sostituito dalla data nel formato YYYYMMDD . |
run_time |
Questo parametro supporta le seguenti proprietà:
|
- Non sono consentiti spazi tra run_time, offset e il formato dell'ora.
- Per includere le parentesi graffe nella stringa, puoi eseguire l'escape come
'\{' and '\}'
. - Per includere virgolette letterali o una barra verticale in time_format, ad esempio
"YYYY|MM|DD"
, puoi eseguire la loro sfuggita nella stringa di formato come:'\"'
o'\|'
.
Esempi di creazione di modelli di parametri
Questi esempi mostrano come specificare i nomi delle tabelle di destinazione con formati di data diversi e compensare il tempo di esecuzione.run_time (UTC) | Parametro basato su modello | Nome della tabella di destinazione dell'output |
---|---|---|
2018-02-15 00:00:00 | mytable |
mytable |
2018-02-15 00:00:00 | mytable_{run_time|"%Y%m%d"} |
mytable_20180215 |
2018-02-15 00:00:00 | mytable_{run_time+25h|"%Y%m%d"} |
mytable_20180216 |
2018-02-15 00:00:00 | mytable_{run_time-1h|"%Y%m%d"} |
mytable_20180214 |
2018-02-15 00:00:00 | mytable_{run_time+1.5h|"%Y%m%d%H"}
o mytable_{run_time+90m|"%Y%m%d%H"} |
mytable_2018021501 |
2018-02-15 00:00:00 | {run_time+97s|"%Y%m%d"}_mytable_{run_time+97s|"%H%M%S"} |
20180215_mytable_000137 |
utilizza un service account
Puoi configurare una query pianificata per l'autenticazione come account di servizio. Un account di servizio è un Account Google associato al tuo progetto Google Cloud. L'account di servizio può eseguire job, come query pianificate o pipeline di elaborazione collettiva, con le proprie credenziali di servizio anziché con le credenziali di un utente finale.
Scopri di più sull'autenticazione con gli account di servizio in Introduzione all'autenticazione.
Puoi configurare la query pianificata con un account di servizio. Se hai eseguito l'accesso con un'identità federata, è necessario un account di servizio per creare un trasferimento. Se hai eseguito l'accesso con un Account Google, un account di servizio per il trasferimento è facoltativo.
Puoi aggiornare una query pianificata esistente con le credenziali di un account di servizio con lo strumento a riga di comando bq o la console Google Cloud. Per ulteriori informazioni, consulta Aggiornare le credenziali delle query pianificate.
Specifica la chiave di crittografia con le query pianificate
Puoi specificare le chiavi di crittografia gestite dal cliente (CMEK) per criptare i dati per un'esecuzione del trasferimento. Puoi utilizzare un CMEK per supportare i trasferimenti da query pianificate.Quando specifichi una CMEK con un trasferimento, BigQuery Data Transfer Service applica la CMEK a qualsiasi cache intermedia su disco dei dati importati in modo che l'intero flusso di lavoro di trasferimento dei dati sia conforme alla CMEK.
Non puoi aggiornare un trasferimento esistente per aggiungere un CMEK se il trasferimento non è stato creato inizialmente con un CMEK. Ad esempio, non puoi modificare una tabella di destinazione inizialmente criptata per impostazione predefinita in modo che venga criptata con CMEK. Al contrario, non puoi nemmeno modificare una tabella di destinazione con crittografia CMEK per avere un tipo di crittografia diverso.
Puoi aggiornare un CMEK per un trasferimento se la configurazione del trasferimento è stata creata inizialmente con una crittografia CMEK. Quando aggiorni un CMEK per una configurazione di trasferimento, BigQuery Data Transfer Service lo propaga alle tabelle di destinazione alla successiva esecuzione del trasferimento, dove sostituisce eventuali CMEK obsoleti con il nuovo CMEK durante l'esecuzione del trasferimento. Per ulteriori informazioni, consulta Aggiornare un trasferimento.
Puoi anche utilizzare le chiavi predefinite del progetto. Quando specifichi una chiave predefinita del progetto con un trasferimento, BigQuery Data Transfer Service la utilizza come chiave predefinita per tutte le nuove configurazioni di trasferimento.
Configurare le query pianificate
Per una descrizione della sintassi della pianificazione, consulta
Formattazione della pianificazione.
Per informazioni dettagliate sulla sintassi della pianificazione, consulta Risorsa: TransferConfig
.
Console
Apri la pagina BigQuery nella console Google Cloud.
Esegui la query che ti interessa. Quando i risultati ti soddisfano, fai clic su Pianifica.
Le opzioni per le query pianificate si aprono nel riquadro Nuova query pianificata.
Nel riquadro Nuova query programmata:
- In Nome per la query pianificata, inserisci un nome, ad esempio
My scheduled query
. Il nome della query pianificata può essere qualsiasi valore che puoi identificare in un secondo momento se devi modificare la query. (Facoltativo) Per impostazione predefinita, l'esecuzione della query è pianificata su base giornaliera. Puoi modificare la programmazione predefinita selezionando un'opzione dal menu a discesa Ripeti:
Per specificare una frequenza personalizzata, seleziona Personalizzata, quindi inserisci una specifica di tempo simile a Cron nel campo Pianificazione personalizzata, ad esempio
every mon 23:30
oevery 6 hours
. Per informazioni dettagliate sulle pianificazioni valide, inclusi gli intervalli personalizzati, consulta il camposchedule
in Risorsa:TransferConfig
.Per modificare l'ora di inizio, seleziona l'opzione Inizia all'ora impostata e inserisci la data e l'ora di inizio che preferisci.
Per specificare un'ora di fine, seleziona l'opzione Pianifica l'ora di fine, inserisci la data e l'ora di fine che preferisci.
Per salvare la query senza una pianificazione, in modo da poterla eseguire su richiesta in un secondo momento, seleziona On demand nel menu Ripeti.
- In Nome per la query pianificata, inserisci un nome, ad esempio
Per una query GoogleSQL
SELECT
, seleziona l'opzione Imposta una tabella di destinazione per i risultati della query e fornisci le seguenti informazioni sul set di dati di destinazione.- Per Nome set di dati, scegli il set di dati di destinazione appropriato.
- In Nome tabella, inserisci il nome della tabella di destinazione.
Per Preferenza di scrittura per tabella di destinazione, scegli Aggiungi alla tabella per aggiungere i dati alla tabella o Sovrapponi tabella per sovrascrivere la tabella di destinazione.
Scegli il Tipo di località.
Se hai attivato la tabella di destinazione per i risultati della query, puoi selezionare Selezione automatica della località per selezionare automaticamente la località in cui si trova la tabella di destinazione.
In caso contrario, scegli la posizione in cui si trovano i dati oggetto della query.
Opzioni avanzate:
(Facoltativo) CMEK Se utilizzi chiavi di crittografia gestite dal cliente, puoi selezionare Chiave gestita dal cliente in Opzioni avanzate. Viene visualizzato un elenco di CMEK disponibili tra cui scegliere. Per informazioni su come le chiavi di crittografia gestite dal cliente (CMEK) funzionano con BigQuery Data Transfer Service, consulta Specificare la chiave di crittografia con le query pianificate.
Autenticazione come account di servizio Se hai uno o più account di servizio associati al tuo progetto Google Cloud, puoi associare un account di servizio alla query pianificata invece di utilizzare le credenziali utente. In Credenziale per query programmate, fai clic sul menu per visualizzare un elenco dei tuoi account servizio disponibili. Un account di servizio è obbligatorio se hai eseguito l'accesso come identità federata.
Configurazioni aggiuntive:
(Facoltativo) Seleziona Invia notifiche via email per consentire le notifiche via email relative agli errori di esecuzione dei trasferimenti.
(Facoltativo) In Argomento Pub/Sub, inserisci il nome dell'argomento Pub/Sub, ad esempio:
projects/myproject/topics/mytopic
.
Fai clic su Salva.
bq
Opzione 1: utilizza il comando bq query
.
Per creare una query pianificata, aggiungi le opzioni destination_table
(o
target_dataset
), --schedule
e --display_name
al
comando bq query
.
bq query \ --display_name=name \ --destination_table=table \ --schedule=interval
Sostituisci quanto segue:
name
. Il nome visualizzato della query pianificata. Il nome visualizzato può essere qualsiasi valore che puoi identificare in un secondo momento se devi modificare la query.table
. La tabella di destinazione per i risultati della query.--target_dataset
è un modo alternativo per assegnare un nome al set di dati di destinazione per i risultati della query, se utilizzato con query DDL e DML.- Utilizza
--destination_table
o--target_dataset
, ma non entrambi.
interval
. Se utilizzato conbq query
, trasforma una query in una query programmata ricorrente. È obbligatoria una pianificazione della frequenza con cui deve essere eseguita la query. Per informazioni dettagliate sulle pianificazioni valide, inclusi gli intervalli personalizzati, consulta il camposchedule
in Risorsa:TransferConfig
. Esempi:--schedule='every 24 hours'
--schedule='every 3 hours'
--schedule='every monday 09:00'
--schedule='1st sunday of sep,oct,nov 00:00'
Flag facoltativi:
--project_id
è l'ID progetto. Se--project_id
non è specificato, viene utilizzato il progetto predefinito.--replace
tronca la tabella di destinazione e scrive nuovi risultati con ogni esecuzione della query pianificata.--append_table
aggiunge i risultati alla tabella di destinazione.Per le query DDL e DML, puoi anche fornire il flag
--location
per specificare una determinata regione per l'elaborazione. Se--location
non è specificato, viene utilizzata la località Google Cloud più vicina.
Ad esempio, il seguente comando crea una query pianificata denominata
My Scheduled Query
utilizzando la query semplice SELECT 1 from mydataset.test
.
La tabella di destinazione è mytable
nel set di dati mydataset
. La query pianificata viene creata nel progetto predefinito:
bq query \
--use_legacy_sql=false \
--destination_table=mydataset.mytable \
--display_name='My Scheduled Query' \
--schedule='every 24 hours' \
--replace=true \
'SELECT
1
FROM
mydataset.test'
Opzione 2: utilizza il comando bq mk
.
Le query pianificate sono un tipo di trasferimento. Per pianificare una query, puoi utilizzare lo strumento a riga di comando bq per creare una configurazione di trasferimento.
Le query devono essere nel dialetto StandardSQL per essere pianificate.
Inserisci il comando bq mk
e fornisci i seguenti flag obbligatori:
--transfer_config
--data_source
--target_dataset
(facoltativo per le query DDL e DML)--display_name
--params
Flag facoltativi:
--project_id
è l'ID progetto. Se--project_id
non è specificato, viene utilizzato il progetto predefinito.--schedule
è la frequenza con cui vuoi eseguire la query. Se--schedule
non viene specificato, il valore predefinito è "ogni 24 ore" in base all'ora di creazione.Per le query DDL e DML, puoi anche fornire il flag
--location
per specificare una determinata regione per l'elaborazione. Se--location
non è specificato, viene utilizzata la località Google Cloud più vicina.--service_account_name
è per l'autenticazione della query pianificata con un account di servizio anziché con il tuo account utente individuale.--destination_kms_key
specifica l'ID risorsa chiave per la chiave se utilizzi una chiave di crittografia gestita dal cliente (CMEK) per questo trasferimento. Per informazioni su come funzionano le chiavi CMEK con BigQuery Data Transfer Service, consulta Specificare la chiave di crittografia con le query pianificate.
bq mk \ --transfer_config \ --target_dataset=dataset \ --display_name=name \ --params='parameters' \ --data_source=data_source
Sostituisci quanto segue:
dataset
. Il set di dati di destinazione per la configurazione del trasferimento.- Questo parametro è facoltativo per le query DDL e DML. È obbligatorio per tutte le altre query.
name
. Il nome visualizzato per la configurazione del trasferimento. Il nome visualizzato può essere qualsiasi valore che puoi identificare in un secondo momento se devi modificare la query.parameters
. Contiene i parametri per la configurazione del trasferimento creata in formato JSON. Ad esempio:--params='{"param":"param_value"}'
.- Per una query pianificata, devi fornire il parametro
query
. - Il parametro
destination_table_name_template
è il nome della tabella di destinazione.- Questo parametro è facoltativo per le query DDL e DML. È obbligatorio per tutte le altre query.
- Per il parametro
write_disposition
, puoi scegliereWRITE_TRUNCATE
per troncare (sovrascrivere) la tabella di destinazione oWRITE_APPEND
per accodare i risultati della query alla tabella di destinazione.- Questo parametro è facoltativo per le query DDL e DML. È obbligatorio per tutte le altre query.
- Per una query pianificata, devi fornire il parametro
data_source
. L'origine dati:scheduled_query
.- (Facoltativo) Il flag
--service_account_name
serve per l'autenticazione con un account di servizio anziché con un account utente individuale. - Facoltativo:
--destination_kms_key
specifica l'ID risorsa chiave per la chiave Cloud KMS, ad esempioprojects/project_name/locations/us/keyRings/key_ring_name/cryptoKeys/key_name
.
Ad esempio, il seguente comando crea una configurazione di trasferimento delle query programmate denominata My Scheduled Query
utilizzando la semplice query SELECT 1
from mydataset.test
. La tabella di destinazione mytable
viene troncata per ogni scrittura e il set di dati di destinazione è mydataset
. La query pianificata viene creata nel progetto predefinito e si autentica come account di servizio:
bq mk \
--transfer_config \
--target_dataset=mydataset \
--display_name='My Scheduled Query' \
--params='{"query":"SELECT 1 from mydataset.test","destination_table_name_template":"mytable","write_disposition":"WRITE_TRUNCATE"}' \
--data_source=scheduled_query \
--service_account_name=abcdef-test-sa@abcdef-test.iam.gserviceaccount.com
La prima volta che esegui il comando, ricevi un messaggio simile al seguente:
[URL omitted] Please copy and paste the above URL into your web browser and
follow the instructions to retrieve an authentication code.
Segui le istruzioni nel messaggio e incolla il codice di autenticazione nella riga di comando.
API
Utilizza il metodo projects.locations.transferConfigs.create
e fornisci un'istanza della risorsa TransferConfig
.
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Configurare query pianificate con un account di servizio
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Visualizza lo stato delle query pianificate
Console
Per visualizzare lo stato delle query pianificate, fai clic su Query pianificate nel riquadro di navigazione. Aggiorna la pagina per visualizzare lo stato aggiornato delle query pianificate. Fai clic su una query pianificata per visualizzarne ulteriori dettagli.
bq
Le query pianificate sono un tipo di trasferimento. Per visualizzare i dettagli di una query pianificata, puoi prima utilizzare lo strumento a riga di comando bq per elencare le configurazioni di trasferimento.
Inserisci il comando bq ls
e specifica il flag di trasferimento
--transfer_config
. Sono obbligatori anche i seguenti flag:
--transfer_location
Ad esempio:
bq ls \
--transfer_config \
--transfer_location=us
Per visualizzare i dettagli di una singola query pianificata, inserisci il comando bq show
e fornisci il valore transfer_path
per la configurazione della query/del trasferimento pianificato.
Ad esempio:
bq show \
--transfer_config \
projects/862514376110/locations/us/transferConfigs/5dd12f26-0000-262f-bc38-089e0820fe38
API
Utilizza il metodo projects.locations.transferConfigs.list
e fornisci un'istanza della risorsa TransferConfig
.
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Aggiornare le query pianificate
Console
Per aggiornare una query pianificata:
- Nel riquadro di navigazione, fai clic su Query pianificate.
- Nell'elenco delle query pianificate, fai clic sul nome della query da modificare.
- Nella pagina Dettagli della query pianificata che si apre, fai clic su Modifica.
- (Facoltativo) Modifica il testo della query nel riquadro di modifica della query.
- Fai clic su Pianifica query e poi seleziona Aggiorna query pianificata.
- (Facoltativo) Modifica le altre opzioni di pianificazione per la query.
- Fai clic su Aggiorna.
bq
Le query pianificate sono un tipo di trasferimento. Per aggiornare la query pianificata, puoi utilizzare lo strumento a riga di comando bq per creare una configurazione di trasferimento.
Inserisci il comando bq update
con il flag --transfer_config
obbligatorio.
Flag facoltativi:
--project_id
è l'ID progetto. Se--project_id
non è specificato, viene utilizzato il progetto predefinito.--schedule
è la frequenza con cui vuoi eseguire la query. Se--schedule
non viene specificato, il valore predefinito è "ogni 24 ore" in base all'ora di creazione.--service_account_name
ha effetto solo se è impostato anche--update_credentials
. Per ulteriori informazioni, consulta Aggiornare le credenziali delle query pianificate.--target_dataset
(facoltativo per le query DDL e DML) è un modo alternativo per assegnare un nome al set di dati di destinazione per i risultati della query, se utilizzato con le query DDL e DML.--display_name
è il nome della query pianificata.--params
i parametri per la configurazione del trasferimento creata in formato JSON. Ad esempio: --params='{"param":"param_value"}'.--destination_kms_key
specifica l'ID risorsa chiave per la chiave Cloud KMS se utilizzi una chiave di crittografia gestita dal cliente (CMEK) per questo trasferimento. Per informazioni su come le chiavi di crittografia gestite dal cliente (CMEK) funzionano con BigQuery Data Transfer Service, consulta Specificare la chiave di crittografia con le query pianificate.
bq update \ --target_dataset=dataset \ --display_name=name \ --params='parameters' --transfer_config \ RESOURCE_NAME
Sostituisci quanto segue:
dataset
. Il set di dati di destinazione per la configurazione del trasferimento. Questo parametro è facoltativo per le query DDL e DML. È obbligatorio per tutte le altre query.name
. Il nome visualizzato per la configurazione del trasferimento. Il nome visualizzato può essere qualsiasi valore che puoi identificare in un secondo momento se devi modificare la query.parameters
. Contiene i parametri per la configurazione del trasferimento creata in formato JSON. Ad esempio:--params='{"param":"param_value"}'
.- Per una query pianificata, devi fornire il parametro
query
. - Il parametro
destination_table_name_template
è il nome della tabella di destinazione. Questo parametro è facoltativo per le query DDL e DML. È obbligatorio per tutte le altre query. - Per il parametro
write_disposition
, puoi scegliereWRITE_TRUNCATE
per troncare (sovrascrivere) la tabella di destinazione oWRITE_APPEND
per accodare i risultati della query alla tabella di destinazione. Questo parametro è facoltativo per le query DDL e DML. È obbligatorio per tutte le altre query.
- Per una query pianificata, devi fornire il parametro
- Facoltativo:
--destination_kms_key
specifica l'ID risorsa chiave per la chiave Cloud KMS, ad esempioprojects/project_name/locations/us/keyRings/key_ring_name/cryptoKeys/key_name
. RESOURCE_NAME
: il nome della risorsa del trasferimento (chiamato anche configurazione di trasferimento). Se non conosci il nome della risorsa del trasferimento, individualo con:bq ls --transfer_config --transfer_location=location
.
Ad esempio, il seguente comando aggiorna una configurazione di trasferimento delle query pianificate denominata My Scheduled Query
utilizzando la semplice query SELECT 1
from mydataset.test
. La tabella di destinazione mytable
viene troncata per ogni scrittura e il set di dati di destinazione è mydataset
:
bq update \
--target_dataset=mydataset \
--display_name='My Scheduled Query' \
--params='{"query":"SELECT 1 from mydataset.test","destination_table_name_template":"mytable","write_disposition":"WRITE_TRUNCATE"}'
--transfer_config \
projects/myproject/locations/us/transferConfigs/1234a123-1234-1a23-1be9-12ab3c456de7
API
Utilizza il metodo projects.transferConfigs.patch
e fornisci il nome della risorsa del trasferimento utilizzando il
parametro transferConfig.name
. Se non conosci il nome della risorsa del trasferimento, utilizza il comando bq ls --transfer_config --transfer_location=location
per elencare tutti i trasferimenti o chiama il metodo projects.locations.transferConfigs.list
e fornisci l'ID progetto utilizzando il parametro parent
.
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Aggiornare le query pianificate con limitazioni di proprietà
Se provi ad aggiornare una query pianificata che non è di tua proprietà, l'aggiornamento potrebbe non riuscire con il seguente messaggio di errore:
Cannot modify restricted parameters without taking ownership of the transfer configuration.
Il proprietario della query pianificata è l'utente associato alla query pianificata o l'utente che ha accesso all'account di servizio associato alla query pianificata. L'utente associato è visibile nei dettagli di configurazione della query pianificata. Per informazioni su come aggiornare la query pianificata per acquisire la proprietà, consulta Aggiornare le credenziali delle query pianificate. Per concedere agli utenti l'accesso a un account di servizio, devi disporre del ruolo Utente account di servizio.
Qualsiasi utente che non sia il proprietario della query pianificata, ma abbia accesso a tutte le risorse menzionate dalla query, potrebbe comunque essere autorizzato ad aggiornarla. Questo scenario è supportato solo se la query può essere convalidata entro un minuto o due. In caso contrario, viene visualizzato lo stesso messaggio di errore indicato in precedenza. Se la query è troppo complessa, puoi aggiornare le credenziali della query pianificata per assumerne la proprietà diretta o utilizzare un account di servizio.
Aggiorna le credenziali delle query pianificate
Se stai pianificando una query esistente, potresti dover aggiornare le credenziali dell'utente nella query. Le credenziali sono automaticamente aggiornate per le nuove query pianificate.
Ecco alcune altre situazioni che potrebbero richiedere l'aggiornamento delle credenziali:
- Vuoi eseguire query sui dati di Google Drive in una query pianificata.
Quando provi a pianificare la query, ricevi l'errore INVALID_USER:
Error code 5 : Authentication failure: User Id not found. Error code: INVALID_USERID
Quando provi a actualizare la query, ricevi il seguente errore relativo ai parametri con limitazioni:
Cannot modify restricted parameters without taking ownership of the transfer configuration.
Console
Per aggiornare le credenziali esistenti in una query pianificata:
Fai clic sul pulsante ALTRO e seleziona Aggiorna credenziali.
Attendi 10-20 minuti affinché la modifica venga applicata. Potresti dover vuotare la cache del browser.
bq
Le query pianificate sono un tipo di trasferimento. Per aggiornare le credenziali di una query pianificata, puoi utilizzare lo strumento a riga di comando bq per aggiornare la configurazione del trasferimento.
Inserisci il comando bq update
e specifica il flag di trasferimento
--transfer_config
. Sono obbligatori anche i seguenti flag:
--update_credentials
Flag facoltativo:
--service_account_name
è per l'autenticazione della query pianificata con un account di servizio anziché con il tuo account utente individuale.
Ad esempio, il seguente comando aggiorna una configurazione di trasferimento delle query pianificate per l'autenticazione come account di servizio:
bq update \
--update_credentials \
--service_account_name=abcdef-test-sa@abcdef-test.iam.gserviceaccount.com
--transfer_config \
projects/myproject/locations/us/transferConfigs/1234a123-1234-1a23-1be9-12ab3c456de7
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Configurare un'esecuzione manuale su date storiche
Oltre a pianificare l'esecuzione di una query in futuro, puoi anche attivare manualmente le esecuzioni immediate. L'attivazione di un'esecuzione immediata è necessaria se la query utilizza il parametro run_date
e si sono verificati problemi durante un'esecuzione precedente.
Ad esempio, ogni giorno alle 09:00 esegui una query su una tabella di origine per trovare le righe corrispondenti alla data corrente. Tuttavia, scopri che i dati non sono stati aggiunti alla tabella di origine
per gli ultimi tre giorni. In questo caso, puoi impostare l'esecuzione della query sui dati storici all'interno di un intervallo di date specificato. La query viene eseguita utilizzando combinazioni di parametri run_date
e run_time
corrispondenti alle date configurate nella query pianificata.
Dopo aver configurato una query pianificata, ecco come eseguire la query utilizzando un intervallo di date storico:
Console
Dopo aver fatto clic su Pianifica per salvare la query pianificata, puoi fare clic sul pulsante Query pianificate per visualizzare l'elenco delle query attualmente pianificate. Fai clic su un nome visualizzato per visualizzare i dettagli della pianificazione delle query. In alto a destra nella pagina, fai clic su Pianifica il backfill per specificare un intervallo di date storico.
I tempi di esecuzione scelti rientrano tutti nell'intervallo selezionato, inclusa la prima data ed esclusa l'ultima.
Esempio 1
La query pianificata è impostata per l'esecuzione alle ore every day 09:00
(fuso orario del Pacifico USA). Mancano i dati del 1°, 2 e 3 gennaio. Scegli il seguente
intervallo di date storico:
Start Time = 1/1/19
End Time = 1/4/19
La query viene eseguita utilizzando i parametri run_date
e run_time
che corrispondono ai seguenti periodi di tempo:
- 1/1/19 09:00 PST
- 1/2/19 09:00 PST
- 3/1/19 09:00 fuso orario del Pacifico USA
Esempio 2
La query pianificata è impostata per l'esecuzione alle ore every day 23:00
(fuso orario del Pacifico USA). Mancano i dati del 1°, 2 e 3 gennaio. Scegli i seguenti intervalli di date storici (vengono scelte date successive perché alle 23:00 (ora del Pacifico USA) il fuso orario UTC ha una data diversa):
Start Time = 1/2/19
End Time = 1/5/19
La query viene eseguita utilizzando i parametri run_date
e run_time
che corrispondono ai seguenti periodi di tempo:
- 2/01/19 06:00 UTC o 1/01/2019 23:00 PST
- 3/01/19 06:00 UTC o 2/01/2019 23:00 PST
- 4/01/19 06:00 UTC o 3/01/2019 23:00 PST
Dopo aver configurato le esecuzioni manuali, aggiorna la pagina per visualizzarle nell'elenco delle esecuzioni.
bq
Per eseguire manualmente la query su un intervallo di date storico:
Inserisci il comando bq mk
e specifica il flag di esecuzione del trasferimento
--transfer_run
. Sono obbligatori anche i seguenti flag:
--start_time
--end_time
bq mk \ --transfer_run \ --start_time='start_time' \ --end_time='end_time' \ resource_name
Sostituisci quanto segue:
start_time
eend_time
. Timestamp che terminano con Z o contengono una differenza di fuso orario valida. Esempi:- 2017-08-19T12:11:35.00Z
- 2017-05-25T00:00:00+00:00
resource_name
. Il nome della risorsa della query pianificata (o del trasferimento). Il nome della risorsa è noto anche come configurazione di trasferimento.
Ad esempio, il seguente comando pianifica un backfill per la risorsa query pianificata (o la configurazione di trasferimento):projects/myproject/locations/us/transferConfigs/1234a123-1234-1a23-1be9-12ab3c456de7
.
bq mk \
--transfer_run \
--start_time 2017-05-25T00:00:00Z \
--end_time 2017-05-25T00:00:00Z \
projects/myproject/locations/us/transferConfigs/1234a123-1234-1a23-1be9-12ab3c456de7
Per ulteriori informazioni, vedi bq mk --transfer_run
.
API
Utilizza il metodo projects.locations.transferConfigs.scheduleRun e fornisci un percorso della risorsa TransferConfig.
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Eliminare le query pianificate
Console
Per eliminare una query pianificata tramite la console:
Nel riquadro di navigazione, fai clic su Query pianificate.
Nell'elenco delle query pianificate, fai clic sul nome della query pianificata da eliminare.
Nella pagina Dettagli query programmata che si apre, fai clic su Elimina.
Java
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Per scoprire come installare e utilizzare la libreria client per BigQuery, consulta Librerie client di BigQuery. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Quote
Le query pianificate vengono eseguite con le credenziali e il progetto del creator, come se tu stessi eseguendo la query. Le query pianificate vengono sempre eseguite come job di query collettive.
Anche se usano funzionalità di BigQuery Data Transfer Service, le query programmate non sono trasferimenti e non sono quindi soggette alla quota dei job di caricamento. Le query programmate sono soggette alle stesse quote e limiti di BigQuery, come le query manuali.
Prezzi
Il prezzo delle query programmate è lo stesso delle query BigQuery manuali.
Aree geografiche supportate
Le query pianificate sono supportate nelle seguenti località.
Regioni
La tabella seguente elenca le regioni delle Americhe in cui BigQuery è disponibile.Descrizione della regione | Nome della regione | Dettagli |
---|---|---|
Columbus, Ohio | us-east5 |
|
Dallas | us-south1 |
Bassi livelli di CO2 |
Iowa | us-central1 |
Bassi livelli di CO2 |
Las Vegas | us-west4 |
|
Los Angeles | us-west2 |
|
Montréal | northamerica-northeast1 |
Bassi livelli di CO2 |
Virginia del Nord | us-east4 |
|
Oregon | us-west1 |
Bassi livelli di CO2 |
Salt Lake City | us-west3 |
|
San Paolo | southamerica-east1 |
Bassi livelli di CO2 |
Santiago | southamerica-west1 |
Bassi livelli di CO2 |
Carolina del Sud | us-east1 |
|
Toronto | northamerica-northeast2 |
Bassi livelli di CO2 |
Descrizione della regione | Nome della regione | Dettagli |
---|---|---|
Delhi | asia-south2 |
|
Hong Kong | asia-east2 |
|
Giacarta | asia-southeast2 |
|
Melbourne | australia-southeast2 |
|
Mumbai | asia-south1 |
|
Osaka | asia-northeast2 |
|
Seul | asia-northeast3 |
|
Singapore | asia-southeast1 |
|
Sydney | australia-southeast1 |
|
Taiwan | asia-east1 |
|
Tokyo | asia-northeast1 |
Descrizione della regione | Nome della regione | Dettagli |
---|---|---|
Belgio | europe-west1 |
Bassi livelli di CO2 |
Berlino | europe-west10 |
Bassi livelli di CO2 |
Finlandia | europe-north1 |
Bassi livelli di CO2 |
Francoforte | europe-west3 |
Bassi livelli di CO2 |
Londra | europe-west2 |
Bassi livelli di CO2 |
Madrid | europe-southwest1 |
Bassi livelli di CO2 |
Milano | europe-west8 |
|
Paesi Bassi | europe-west4 |
Bassi livelli di CO2 |
Parigi | europe-west9 |
Bassi livelli di CO2 |
Torino | europe-west12 |
|
Varsavia | europe-central2 |
|
Zurigo | europe-west6 |
Bassi livelli di CO2 |
Descrizione della regione | Nome della regione | Dettagli |
---|---|---|
Dammam | me-central2 |
|
Doha | me-central1 |
|
Tel Aviv | me-west1 |
Descrizione della regione | Nome della regione | Dettagli |
---|---|---|
Johannesburg | africa-south1 |
Più regioni
La tabella seguente elenca le regioni multiple in cui BigQuery è disponibile.Descrizione multiregionale | Nome multiregione |
---|---|
Data center all'interno degli stati membri dell'Unione Europea1 | EU |
Data center negli Stati Uniti2 | US |
1 I dati che si trovano nella regione multipla EU
vengono memorizzati solo in una delle seguenti località: europe-west1
(Belgio) o europe-west4
(Paesi Bassi).
La posizione esatta in cui i dati vengono archiviati ed elaborati viene determinata automaticamente da BigQuery.
2 I dati situati nella regione multipla US
vengono memorizzati solo in una delle seguenti località: us-central1
(Iowa), us-west1
(Oregon) o us-central2
(Oklahoma). La posizione esatta in cui i dati vengono archiviati ed elaborati viene determinata automaticamente da BigQuery.
Passaggi successivi
- Per un esempio di query pianificata che utilizza un account di servizio e include i parametri
@run_date
e@run_time
, consulta Creare snapshot delle tabelle con una query pianificata.