Caricamento di dati ORC da Cloud Storage
Questa pagina fornisce una panoramica del caricamento dei dati ORC da Cloud Storage in BigQuery.
ORC è un formato di dati open source orientato a colonne, ampiamente usato in Apache Hadoop all'interno dell'ecosistema Google Cloud.
Quando carichi i dati ORC da Cloud Storage, puoi caricarli in una nuova tabella o partizione oppure puoi aggiungerli a una tabella o partizione esistente o sovrascriverli. Quando i dati vengono caricati in BigQuery, vengono trasformati in formato a colonne per Capacitor (il formato di archiviazione di BigQuery).
Quando carichi i dati da Cloud Storage in una tabella BigQuery, il set di dati che contiene la tabella deve trovarsi nella stessa regione regionale come bucket Cloud Storage.
Per informazioni sul caricamento dei dati ORC da un file locale, vedi Caricare dati in BigQuery da un'origine dati locale.
Limitazioni
Quando carichi dati in: BigQuery da un bucket Cloud Storage:
- Se la posizione del set di dati è impostata su un valore diverso dall'area geografica multipla
US
, il bucket Cloud Storage deve trovarsi nella stessa regione o essere contenuto nella stessa area geografica multipla del set di dati. - BigQuery non garantisce la coerenza dei dati per le origini dati esterne. Le modifiche ai dati sottostanti durante l'esecuzione di una query possono comportare un comportamento imprevisto.
- BigQuery non supporta il controllo delle versioni degli oggetti Cloud Storage. Se includi un numero di generazione nell'URI Cloud Storage, il job di caricamento non va a buon fine.
Prima di iniziare
Concedere ruoli IAM (Identity and Access Management) che concedono agli utenti le risorse necessarie autorizzazioni per eseguire ogni attività in questo documento e creare per archiviare i dati.
Autorizzazioni obbligatorie
Per caricare dati in BigQuery, devi disporre delle autorizzazioni IAM per eseguire un job di caricamento e caricare i dati nelle tabelle e nelle partizioni BigQuery. Se carichi i dati da Cloud Storage, devi disporre anche delle autorizzazioni IAM per accedere al bucket contenente i dati.
Autorizzazioni per caricare i dati in BigQuery
Per caricare i dati in una nuova tabella o partizione BigQuery oppure per aggiungere o sovrascrivere una tabella o una partizione esistente, devi disporre delle seguenti autorizzazioni IAM:
bigquery.tables.create
bigquery.tables.updateData
bigquery.tables.update
bigquery.jobs.create
Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per caricare i dati in una tabella o una partizione BigQuery:
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.admin
(include l'autorizzazionebigquery.jobs.create
)bigquery.user
(include l'autorizzazionebigquery.jobs.create
)bigquery.jobUser
(include l'autorizzazionebigquery.jobs.create
)
Inoltre, se disponi dell'autorizzazione bigquery.datasets.create
, puoi creare e
aggiornare le tabelle utilizzando un job di caricamento nei set di dati che crei.
Per ulteriori informazioni su ruoli e autorizzazioni IAM in BigQuery, vedi Autorizzazioni e ruoli predefiniti.
Autorizzazioni per caricare i dati da Cloud Storage
Per ottenere le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage,
chiedi all'amministratore di concederti il ruolo IAM Amministratore archiviazione (roles/storage.admin
) nel bucket.
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.
Questo ruolo predefinito contiene le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage. Per visualizzare le autorizzazioni esatte richieste, espandi la sezione Autorizzazioni richieste:
Autorizzazioni obbligatorie
Per caricare i dati da un bucket Cloud Storage, sono necessarie le seguenti autorizzazioni:
-
storage.buckets.get
-
storage.objects.get
-
storage.objects.list (required if you are using a URI wildcard)
Potresti anche riuscire a ottenere queste autorizzazioni con ruoli personalizzati altri ruoli predefiniti.
Crea un set di dati
Crea un set di dati BigQuery per archiviare i tuoi dati.
Schemi ORC
Quando carichi file ORC in BigQuery, lo schema della tabella viene automaticamente dai dati di origine autodescrittivi. Quando BigQuery recupera lo schema dai dati di origine, viene utilizzato l'ultimo file in ordine alfabetico.
Ad esempio, hai i seguenti file ORC in Cloud Storage:
gs://mybucket/00/ a.orc z.orc gs://mybucket/01/ b.orc
L'esecuzione di questo comando nello strumento a riga di comando bq carica tutti i file (come elenco separato da virgole) e lo schema viene dedotto da mybucket/01/b.orc
:
bq load \ --source_format=ORC \ dataset.table \ "gs://mybucket/00/*.orc","gs://mybucket/01/*.orc"
Quando BigQuery rileva lo schema, alcuni tipi di dati ORC vengono
convertiti in tipi di dati BigQuery per renderli compatibili
Sintassi GoogleSQL. Tutti i campi nello schema rilevato sono
NULLABLE
Per ulteriori informazioni, consulta
Conversioni ORC.
Quando carichi più file ORC con schemi diversi, (con lo stesso nome e lo stesso livello nidificato) specificati in più campi gli schemi devono essere mappati allo stesso tipo di dati BigQuery convertito di ogni definizione di schema.
Per fornire uno schema per la creazione di tabelle esterne, impostareferenceFileSchemaUri
nell'API BigQuery o il parametro --reference_file_schema_uri
nello strumento a riga di comando bq
all'URL del file di riferimento.
Ad esempio, --reference_file_schema_uri="gs://mybucket/schema.orc"
.
Compressione ORC
BigQuery supporta i seguenti codec di compressione per i contenuti dei file ORC:
Zlib
Snappy
LZO
LZ4
I dati nei file ORC non rimangono compressi dopo essere stati caricati
in BigQuery. Lo spazio di archiviazione dei dati viene indicato in byte logici o fisici, a seconda del modello di fatturazione dello spazio di archiviazione dei set di dati.
Per ottenere informazioni sull'utilizzo dello spazio di archiviazione, esegui una query
INFORMATION_SCHEMA.TABLE_STORAGE
visualizzazione.
Caricamento di dati ORC in una nuova tabella
Puoi caricare i dati ORC in una nuova tabella:
- Utilizzo della console Google Cloud
- Utilizzo del comando
bq load
dello strumento a riga di comando bq - Chiamata al metodo API
jobs.insert
e configurazione di un jobload
- Utilizzo delle librerie client
Per caricare dati ORC da Cloud Storage in un nuovo BigQuery tabella:
Console
Nella console Google Cloud, vai alla pagina BigQuery.
- Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
- Nella sezione Informazioni sul set di dati, fai clic su Crea tabella.
- Nel riquadro Crea tabella, specifica i seguenti dettagli:
- Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da.
Poi:
- Seleziona un file dal bucket Cloud Storage o inserisci URI Cloud Storage. Non puoi includere più URI nella console Google Cloud, ma con i caratteri jolly sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa posizione del set di dati contenente la tabella che vuoi creare, aggiungere o sovrascrivere.
- In Formato file, seleziona ORC.
- Nella sezione Destinazione, specifica i seguenti dettagli:
- In Set di dati, seleziona il set di dati in cui creare il tabella.
- Nel campo Tabella, inserisci il nome della tabella da creare.
- Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
- Nella sezione Schema non è necessaria alcuna azione. Lo schema è autodescritti nei file ORC.
- (Facoltativo) Specifica le impostazioni di partizionamento e clustering. Per ulteriori informazioni, consulta Creare tabelle partizionate e Creare e utilizzare tabelle in cluster.
- Fai clic su Opzioni avanzate e segui questi passaggi:
- In Write preference (Preferenza di scrittura), lascia selezionata l'opzione Write if empty (Scrivi se vuoto). Questa opzione crea una nuova tabella e vi carica i dati.
- Se vuoi ignorare i valori di una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
- Per Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
- Fai clic su Crea tabella.
SQL
Utilizza
l'istruzione DDL LOAD DATA
.
Nell'esempio seguente viene caricato un file ORC nella nuova tabella mytable
:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor di query, inserisci la seguente istruzione:
LOAD DATA OVERWRITE mydataset.mytable FROM FILES ( format = 'ORC', uris = ['gs://bucket/path/file.orc']);
Fai clic su
Esegui.
Per ulteriori informazioni su come eseguire query, consulta Eseguire una query interattiva.
bq
Utilizza il comando bq load
, specifica ORC come source_format
e includi un
URI Cloud Storage.
Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI
contenente un carattere jolly.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
posizione.
Altri flag facoltativi includono:
--time_partitioning_type
: abilita il partizionamento in base al tempo in una tabella e imposta il tipo di partizione. I valori possibili sonoHOUR
,DAY
,MONTH
eYEAR
. Questo flag è facoltativo quando crei una tabella partizionata in base a una colonnaDATE
,DATETIME
oTIMESTAMP
. Il tipo di partizione predefinito per il partizionamento in base al tempo èDAY
. Non puoi modificare la specifica di partizione di una tabella esistente.--time_partitioning_expiration
: un numero intero che specifica (in secondi) quando occorre eliminare una partizione temporale. L'ora di scadenza viene valutata in base alla data UTC della partizione più il valore intero.--time_partitioning_field
: la colonnaDATE
oTIMESTAMP
utilizzata per una tabella partizionata. Se il partizionamento in base al tempo è abilitato senza questo valore, viene creata una tabella partizionata per data di importazione.--require_partition_filter
: quando è abilitata, questa opzione richiede agli utenti per includere una clausolaWHERE
che specifichi le partizioni su cui eseguire la query. Se il filtro di partizionamento è obbligatorio, i costi possono essere ridotti e le prestazioni migliorate. Per ulteriori informazioni, consulta Esecuzione di query sulle tabelle partizionate.--clustering_fields
: un elenco separato da virgole di massimo quattro nomi di colonna utilizzati per creare una tabella raggruppata.--destination_kms_key
: la chiave Cloud KMS per la crittografia dei dati della tabella.Per ulteriori informazioni sulle tabelle partizionate, consulta:
Per ulteriori informazioni sulle tabelle in cluster, consulta:
Per ulteriori informazioni sulla crittografia delle tabelle, consulta:
Per caricare dati ORC in BigQuery, inserisci il seguente comando:
bq --location=location load \ --source_format=format \ dataset.table \ path_to_source
Dove:
- location è la tua posizione. Il flag
--location
è facoltativo. Ad esempio, se utilizzi BigQuery nella regione di Tokyo, puoi impostare il valore del flag suasia-northeast1
. Puoi impostare un valore predefinito per la località utilizzando il valore file.bigqueryrc. - format è pari a
ORC
. - dataset è un set di dati esistente.
- table è il nome della tabella in cui vengono caricati i dati.
- path_to_source ha ottenuto la qualificazione URI Cloud Storage oppure un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.orc
in un
tabella denominata mytable
in mydataset
.
bq load \
--source_format=ORC \
mydataset.mytable \
gs://mybucket/mydata.orc
Il seguente comando carica i dati da gs://mybucket/mydata.orc
in una nuova tabella partizionata in base al momento dell'importazione denominata mytable
in mydataset
.
bq load \
--source_format=ORC \
--time_partitioning_type=DAY \
mydataset.mytable \
gs://mybucket/mydata.orc
Il seguente comando carica i dati da gs://mybucket/mydata.orc
in una tabella partizionata denominata mytable
in mydataset
. La tabella è partizionata in base alla colonna mytimestamp
.
bq load \
--source_format=ORC \
--time_partitioning_field mytimestamp \
mydataset.mytable \
gs://mybucket/mydata.orc
Il seguente comando carica dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. L'URI Cloud Storage utilizza un
carattere jolly.
bq load \
--source_format=ORC \
mydataset.mytable \
gs://mybucket/mydata*.orc
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. Il comando include un elenco di URI di Cloud Storage con caratteri jolly separati da virgole.
bq load --autodetect \
--source_format=ORC \
mydataset.mytable \
"gs://mybucket/00/*.orc","gs://mybucket/01/*.orc"
API
Crea un job
load
che punti ai dati di origine in Cloud Storage.(Facoltativo) Specifica la tua posizione nella proprietà
location
della sezionejobReference
della risorsa job.La proprietà
source URIs
deve essere completamente qualificata, nel formatogs://bucket/object
. Ogni URI può contenere un carattere jolly "*".Specifica il formato dei dati ORC impostando la proprietà
sourceFormat
suORC
.Per controllare lo stato del lavoro, chiama
jobs.get(job_id*)
, dove job_id è l'ID del job restituito dal richiesta.- Se
status.state = DONE
, il job è stato completato correttamente. - Se la proprietà
status.errorResult
è presente, la richiesta non è riuscita e l'oggetto include informazioni che descrivono il problema. Quando una richiesta non va a buon fine, non viene creata alcuna tabella e non vengono caricati dati. - Se
status.errorResult
non è presente, il job è stato completato correttamente, anche se potrebbero essere stati rilevati alcuni errori non fatali, ad esempio problemi di importazione di alcune righe. Gli errori non irreversibili sono elencati nella proprietàstatus.errors
dell'oggetto job restituito.
- Se
Note API:
I job di caricamento sono atomici e coerenti, se un job di caricamento non riesce, nessuno dei dati e, se un job di caricamento ha esito positivo, saranno disponibili tutti i dati.
Come best practice, genera un ID univoco e passalo come
jobReference.jobId
quando chiamijobs.insert
per creare un job di caricamento. Questo approccio è più robusto in caso di errori di rete perché il client può eseguire poll o ritentare con l'ID job noto.La chiamata a
jobs.insert
su un determinato ID job è idempotente. Puoi riprovare come tutte le volte che desideri per lo stesso ID job e al massimo una di queste operazioni eseguite correttamente.
C#
Prima di provare questo esempio, segui le istruzioni per la configurazione di C# nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery C#.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Vai
Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Go BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Java
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Node.js.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
PHP
Prima di provare questo esempio, segui le istruzioni di configurazione PHP riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery PHP.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Python BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Ruby
Prima di provare questo esempio, segui le istruzioni per la configurazione di Ruby nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Ruby.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Aggiungere dati a una tabella con dati ORC o sovrascriverli
Puoi caricare dati aggiuntivi in una tabella dai file di origine o aggiungendo i risultati della query.
Nella console Google Cloud, utilizza l'opzione Preferenza di scrittura per specificare l'azione da eseguire quando carichi i dati da un file di origine o da un risultato di query.
Quando carichi dati aggiuntivi in una tabella, hai a disposizione le seguenti opzioni:
Opzione della console | flag strumento bq | Proprietà API BigQuery | Descrizione |
---|---|---|---|
Scrivi se vuota | Non supportata | WRITE_EMPTY |
Scrive i dati solo se la tabella è vuota. |
Aggiungi a tabella | --noreplace o --replace=false ; se
--[no]replace non è specificato. Il valore predefinito è Aggiungi |
WRITE_APPEND |
(Predefinito) Collega i dati alla fine della tabella. |
Sovrascrivi tabella | --replace o --replace=true |
WRITE_TRUNCATE |
Cancella tutti i dati esistenti in una tabella prima di scrivere i nuovi dati. Questa azione elimina anche lo schema della tabella, la sicurezza a livello di riga e rimuove qualsiasi chiave Cloud KMS. |
Se carichi i dati in una tabella esistente, il job di caricamento può aggiungerli o sovrascrivere la tabella.
Puoi accodare o sovrascrivere una tabella:
- Utilizzo della console Google Cloud
- Utilizzo del comando
bq load
dello strumento a riga di comando bq - Chiamata al metodo API
jobs.insert
e configurazione di un jobload
- Utilizzo delle librerie client
Per accodare o sovrascrivere una tabella con dati ORC:
Console
Nella console Google Cloud, vai alla pagina BigQuery.
- Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
- Nella sezione Informazioni sul set di dati, fai clic su Crea tabella.
- Nel riquadro Crea tabella, specifica i seguenti dettagli:
- Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da.
Poi:
- Seleziona un file dal bucket Cloud Storage o inserisci URI Cloud Storage. Non puoi includere più URI nella console Google Cloud, ma con i caratteri jolly sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa posizione del set di dati contenente la tabella che vuoi creare, aggiungere o sovrascrivere.
- In Formato file, seleziona ORC.
- Nella sezione Destinazione, specifica i seguenti dettagli:
- In Set di dati, seleziona il set di dati in cui creare il tabella.
- Nel campo Tabella, inserisci il nome della tabella da creare.
- Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
- Nella sezione Schema non è necessaria alcuna azione. Lo schema è autodescritti nei file ORC.
- (Facoltativo) Specifica le impostazioni di partizionamento e clustering. Per ulteriori informazioni, consulta Creare tabelle partizionate e Creare e utilizzare tabelle in cluster. Tu impossibile convertire una tabella in una tabella partizionata o in cluster aggiungendo o sovrascriverlo. La console Google Cloud non supporta l'aggiunta o l'overwriting di tabelle partizionate o raggruppate in un job di caricamento.
- Fai clic su Opzioni avanzate ed esegui le seguenti operazioni:
- In Preferenza di scrittura, scegli Aggiungi alla tabella o Sovrascrivi dalla tabella.
- Se vuoi ignorare i valori di una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
- Per Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
- Fai clic su Crea tabella.
SQL
Utilizza la
LOAD DATA
Istruzione DDL.
L'esempio seguente aggiunge un file ORC alla tabella mytable
:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor di query, inserisci la seguente istruzione:
LOAD DATA INTO mydataset.mytable FROM FILES ( format = 'ORC', uris = ['gs://bucket/path/file.orc']);
Fai clic su
Esegui.
Per ulteriori informazioni su come eseguire le query, consulta Eseguire una query interattiva.
bq
Inserisci il comando bq load
con il flag --replace
per sovrascrivere
tabella. Utilizza il flag --noreplace
per aggiungere dati alla tabella. Se non è presente alcun flag
specificato, il valore predefinito è l'aggiunta di dati. Fornisci il flag --source_format
e lo imposti su ORC
. Poiché gli schemi ORC vengono recuperati automaticamente
dai dati di origine autodescrittivi, non è necessario fornire una definizione
dello schema.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
posizione.
Altri flag facoltativi sono:
--destination_kms_key
: la chiave Cloud KMS per la crittografia dei dati della tabella.
bq --location=location load \ --[no]replace \ --source_format=format \ dataset.table \ path_to_source
Dove:
- location è la tua posizione.
Il flag
--location
è facoltativo. Puoi impostare un valore predefinito per la posizione utilizzando il file .bigqueryrc. - format è pari a
ORC
. - dataset è un set di dati esistente.
- table è il nome della tabella in cui vengono caricati i dati.
- path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.orc
e sovrascrive una tabella denominata mytable
in mydataset
.
bq load \
--replace \
--source_format=ORC \
mydataset.mytable \
gs://mybucket/mydata.orc
Il seguente comando carica i dati da gs://mybucket/mydata.orc
e li aggiunge a una tabella denominata mytable
in mydataset
.
bq load \
--noreplace \
--source_format=ORC \
mydataset.mytable \
gs://mybucket/mydata.orc
Per informazioni su come accodare e sovrascrivere le tabelle partizionate utilizzando lo strumento a riga di comando bq, consulta Aggiunta e sovrascrittura dei dati delle tabelle partizionate.
API
Crea un job
load
che indichi i dati di origine in Cloud Storage.(Facoltativo) Specifica il tuo località nella proprietà
location
nella sezionejobReference
del risorse di lavoro.La proprietà
source URIs
deve essere completa, nel formatogs://bucket/object
. Puoi Includere più URI sotto forma di elenco separato da virgole. Tieni presente che caratteri jolly sono .Specifica il formato dei dati impostando il parametro
configuration.load.sourceFormat
aORC
.Specifica la preferenza di scrittura impostando il parametro
configuration.load.writeDisposition
proprietà aWRITE_TRUNCATE
oWRITE_APPEND
.
C#
Prima di provare questo esempio, segui le istruzioni di configurazione C# riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API C# BigQuery documentazione di riferimento.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Vai
Prima di provare questo esempio, segui le istruzioni di configurazione Go riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API Go BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Java
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API Node.js BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
PHP
Prima di provare questo esempio, segui le istruzioni di configurazione PHP riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API PHP BigQuery documentazione di riferimento.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Per sostituire le righe in una tabella esistente, imposta LoadJobConfig.write_disposition proprietà al WRITE_TRUNCATE.Ruby
Prima di provare questo esempio, segui le istruzioni per la configurazione di Ruby nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Ruby BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Carica i dati ORC partizionati in Hive
BigQuery supporta il caricamento dei dati ORC partizionati Hive archiviati su Cloud Storage e compila le colonne di partizione Hive come colonne nella tabella gestita BigQuery di destinazione. Per ulteriori informazioni, vedi Caricamento di dati partizionati esternamente da Cloud Storage.
Conversioni ORC
BigQuery converte i tipi di dati ORC nei seguenti tipi di dati BigQuery:
Tipi primitivi
Tipo di dati BigQuery | Note | |
---|---|---|
boolean | BOOLEANO | |
byte | INTEGER | |
corti | INTEGER | |
int | INTEGER | |
Lungo | INTEGER | |
float | FLOAT | |
double | FLOAT | |
string | STRING | Solo UTF-8 |
Varchar | STRING | Solo UTF-8 |
char | STRING | Solo UTF-8 |
binario | BYTES | |
data | DATA | Tentativo di conversione di qualsiasi valore nei dati ORC inferiore a
-719162 giorni o più di 2932896 giorni restituisce un errore invalid date
value . Se ciò ti riguarda, contatta
Assistenza per
valori non supportati convertiti al valore minimo di BigQuery
di 0001-01-01 o del valore massimo di 9999-12-31 ,
in base alle necessità. |
timestamp | TIMESTAMP |
ORC supporta la precisione in nanosecondi, ma BigQuery converte i valori inferiori al microsecondo in microsecondi quando i dati vengono lette. Tentativo di conversione di qualsiasi valore nei dati ORC inferiore a
-719162 giorni o più di 2932896 giorni restituisce un errore |
decimal | NUMERIC, BIGNUMERIC o STRING | Vedi Tipo decimale. |
Tipo decimale
Decimal
tipi logici possono essere convertiti in NUMERIC
, BIGNUMERIC
o STRING
tipi. Il tipo convertito dipende
dai parametri di precisione e scala del tipo logico decimal
e dai
tipi di target decimali specificati. Specifica il tipo di destinazione decimale come segue:
- Per un job di caricamento che utilizza l'API
jobs.insert
: utilizza il campoJobConfigurationLoad.decimalTargetTypes
. - Per un job di caricamento utilizzando la proprietà
bq load
nello strumento a riga di comando bq: usa--decimal_target_types
flag. - Per una query su una tabella con origini esterne:
utilizza il campo
ExternalDataConfiguration.decimalTargetTypes
. - Per una tabella esterna permanente creata con DDL:
utilizza l'opzione
decimal_target_types
.
Tipi complessi
Tipo di dati BigQuery | Note | |
---|---|---|
struct | RECORD |
|
map<K,V> | RECORD | Un campo mappa<K,V> ORC viene convertito in un RECORD ripetuto contenente due campi: una chiave dello stesso tipo di dati di K e un valore dello stesso tipo di dati di V. Entrambi i campi sono NULLABLE. |
list | campi ripetuti | Gli elenchi nidificati e di mappe non sono supportati. |
unione | RECORD |
|
Nomi delle colonne
Il nome di una colonna può contenere lettere (a-z, A-Z), numeri (0-9) o trattini bassi (_) e deve iniziare con una lettera o un trattino basso. Se utilizzi la colonna flessibile , BigQuery supporta l'inizio del nome della colonna con un numero. Fai attenzione quando inizi le colonne con un numero, poiché l'utilizzo di nomi di colonne flessibili con l'API BigQuery Storage di lettura o con l'API BigQuery Storage Write richiede una gestione speciale. Per ulteriori informazioni sul supporto dei nomi delle colonne flessibili, consulta Nomi delle colonne flessibili.
I nomi delle colonne hanno una lunghezza massima di 300 caratteri. I nomi di colonna non possono utilizzare nessuno dei seguenti prefissi:
_TABLE_
_FILE_
_PARTITION
_ROW_TIMESTAMP
__ROOT__
_COLIDENTIFIER
Non sono consentiti nomi di colonna duplicati, anche se le lettere maiuscole e minuscole sono diverse. Ad esempio, una colonna denominata Column1
è considerata identica a una colonna denominata column1
. Per scoprire di più sulle regole di denominazione delle colonne, consulta Nomi colonna nella documentazione di GoogleSQL.
Se il nome di una tabella (ad es. test
) corrisponde a uno dei nomi delle sue colonne (ad es. test
), l'espressione SELECT
interpreta la colonna test
come un STRUCT
contenente tutte le altre colonne della tabella. Per evitare questa collisione, utilizza
uno dei seguenti metodi:
Evita di utilizzare lo stesso nome per una tabella e le relative colonne.
Assegna alla tabella un alias diverso. Ad esempio, la seguente query assegna un alias di tabella
t
per la tabellaproject1.dataset.test
:SELECT test FROM project1.dataset.test AS t;
Includi il nome della tabella quando fai riferimento a una colonna. Ad esempio:
SELECT test.test FROM project1.dataset.test;
Nomi delle colonne flessibili
Hai una maggiore flessibilità nella scelta dei nomi delle colonne, incluso l'accesso ampliato ai caratteri in lingue diverse dall'inglese, nonché a simboli aggiuntivi.
I nomi di colonna flessibili supportano i seguenti caratteri:
- Qualsiasi lettera in qualsiasi lingua, come rappresentata dall'espressione regolare Unicode
\p{L}
. - Qualsiasi carattere numerico in qualsiasi lingua, come rappresentato dalla regola Unicode
espressione
\p{N}
- Qualsiasi carattere di punteggiatura del connettore, inclusi i trattini bassi, così come rappresentato
dall'espressione regolare Unicode
\p{Pc}
- Un trattino o un trattino come rappresentato dall'espressione regolare Unicode.
\p{Pd}
- Qualsiasi marchio destinato ad accompagnare un altro carattere, come rappresentato dal
Espressione regolare Unicode
\p{M}
Ad esempio, accenti, dieresi o contenuti che includono riquadri. - I seguenti caratteri speciali:
- Una e commerciale (
&
) rappresentata dall'espressione regolare Unicode\u0026
. - Un segno di percentuale (
%
) come rappresentato dall'espressione regolare Unicode\u0025
. - Un segno di uguale (
=
) rappresentato dall'espressione regolare Unicode\u003D
. - Un segno più (
+
) rappresentato dall'espressione regolare Unicode\u002B
. - I due punti (
:
) come rappresentati dalla regola Unicode dell'espressione\u003A
. - Un apostrofo (
'
) come rappresentato dalla regola Unicode dell'espressione\u0027
. - Un segno di minore (
<
) rappresentato dalla regola Unicode dell'espressione\u003C
. - Un segno di maggiore (
>
) come rappresentato dall'espressione regolare Unicode\u003E
. - Un segno di numero (
#
) come rappresentato dall'espressione regolare Unicode\u0023
. - Una linea verticale (
|
) rappresentata dalla barra Unicode regolare dell'espressione\u007c
. - Spazio vuoto.
- Una e commerciale (
I nomi delle colonne flessibili non supportano i seguenti caratteri speciali:
- Un punto esclamativo (
!
) come rappresentato dal simbolo Unicode dell'espressione\u0021
. - Una virgoletta (
"
) rappresentata dalla regola Unicode dell'espressione\u0022
. - Un simbolo del dollaro (
$
) rappresentato dalla regola Unicode dell'espressione\u0024
. - Una parentesi aperta (
(
) rappresentata dall'espressione regolare Unicode\u0028
. - Una parentesi chiusa (
)
) rappresentata dalla regolare Unicode dell'espressione\u0029
. - Un asterisco (
*
) come rappresentato dall'espressione regolare Unicode\u002A
. - Una virgola (
,
) rappresentata dall'espressione regolare Unicode\u002C
. - Un punto (
.
) come rappresentato dalla regola Unicode dell'espressione\u002E
. - Una barra (
/
) rappresentata dalla barra Unicode regolare dell'espressione\u002F
. - Un punto e virgola (
;
) rappresentato dall'espressione regolare Unicode\u003B
. - Un punto interrogativo (
?
) come rappresentato dalla regola Unicode dell'espressione\u003F
. - Una chiocciola (
@
) come rappresentata dalla forma regolare Unicode dell'espressione\u0040
. - Una parentesi quadra aperta (
[
) rappresentata dall'espressione regolare Unicode\u005B
. - Una barra (
\
) rappresentata dall'espressione regolare Unicode\u005C
. - Una parentesi quadra chiusa (
]
) come rappresentata dalla regolare Unicode dell'espressione\u005D
. - Un accento circonflesso (
^
) come rappresentato dalla regolare Unicode dell'espressione\u005E
. - Un accento grave (
`
) rappresentato dalla regola Unicode dell'espressione\u0060
. - Una parentesi graffa aperta {
{
) rappresentata dall'espressione regolare Unicode\u007B
. - Una parentesi graffa chiusa (
}
) rappresentata dalla regola Unicode dell'espressione\u007D
. - Una tilde (
~
) rappresentata dall'espressione regolare Unicode\u007E
.
Per ulteriori linee guida, consulta Nomi delle colonne.
I caratteri delle colonne espansi sono supportati sia dall'API BigQuery Storage Read
e l'API BigQuery StorageWrite. Per utilizzare l'elenco espanso dei caratteri Unicode con l'API BigQuery Storage di lettura, devi impostare un flag. Puoi utilizzare l'attributo
displayName
per recuperare il nome della colonna. Nell'esempio che segue
mostra come impostare un flag con il client Python:
from google.cloud.bigquery_storage import types
requested_session = types.ReadSession()
#set avro serialization options for flexible column.
options = types.AvroSerializationOptions()
options.enable_display_name_attribute = True
requested_session.read_options.avro_serialization_options = options
Per usare l'elenco espanso di caratteri Unicode con l'API BigQuery StorageWrite,
devi fornire lo schema con la notazione column_name
, a meno che non utilizzi
l'oggetto writer JsonStreamWriter
. L'esempio seguente mostra come fornire lo schema:
syntax = "proto2";
package mypackage;
// Source protos located in github.com/googleapis/googleapis
import "google/cloud/bigquery/storage/v1/annotations.proto";
message FlexibleSchema {
optional string item_name_column = 1
[(.google.cloud.bigquery.storage.v1.column_name) = "name-列"];
optional string item_description_column = 2
[(.google.cloud.bigquery.storage.v1.column_name) = "description-列"];
}
In questo esempio, item_name_column
e item_description_column
sono
i nomi dei segnaposto che devono essere conformi alle
denominazione del buffer di protocollo
convenzione. Tieni presente che le annotazioni column_name
hanno sempre la precedenza sui nomi dei segnaposto.
Limitazioni
I nomi di colonna flessibili non sono supportati con tabelle esterne.
NULL
valori
Tieni presente che per i job di caricamento, BigQuery ignora gli elementi NULL
per il parametro
Tipo composto list
, altrimenti verrebbe tradotto in NULL
ARRAY
che non possono rimanere in una tabella (vedi
Tipi di dati per
dettagli).
Per ulteriori informazioni sui tipi di dati ORC, consulta la specifica Apache ORC™ v1.