Caricamento dei dati Avro da Cloud Storage
Avro è un formato di dati open source che raggruppa i dati serializzati con lo schema dei dati nello stesso file.
Quando carichi dati Avro da Cloud Storage, puoi caricarli in una nuova tabella o partizione oppure puoi aggiungere o sovrascrivere una tabella o partizione esistente. Quando i dati vengono caricati in BigQuery, vengono convertiti nel formato a colonne per il condensatore (il formato di archiviazione di BigQuery).
Quando carichi dati da Cloud Storage in una tabella BigQuery, il set di dati che contiene la tabella deve trovarsi nella stessa località a livello di una o più regioni del bucket Cloud Storage.
Per informazioni sul caricamento dei dati Avro da un file locale, consulta Caricamento di dati in BigQuery da un'origine dati locale.
Limitazioni
Quando carichi dati in BigQuery da un bucket Cloud Storage, devi rispettare le seguenti limitazioni:
- Se la località del set di dati è impostata su un valore diverso da
US
, il bucket Cloud Storage deve trovarsi nella stessa regione o all'interno della stessa multiregione del set di dati. - BigQuery non garantisce la coerenza dei dati per le origini dati esterne. Le modifiche ai dati sottostanti durante l'esecuzione di una query possono causare comportamenti imprevisti.
- BigQuery non supporta il controllo delle versioni degli oggetti di Cloud Storage. Se includi un numero di generazione nell'URI Cloud Storage, il job di caricamento non va a buon fine.
Requisiti del file di input
Per evitare errori resourcesExceeded
durante il caricamento di file Avro in BigQuery, segui queste linee guida:
- Mantieni le dimensioni delle righe fino a un massimo di 50 MB.
- Se la riga contiene molti campi array o campi array molto lunghi, suddividi i valori dell'array in campi separati.
Prima di iniziare
Concedi i ruoli IAM (Identity and Access Management) che concedono agli utenti le autorizzazioni necessarie per eseguire ogni attività nel documento e crea un set di dati e una tabella per archiviare i dati.
Autorizzazioni obbligatorie
Per caricare dati in BigQuery, devi disporre delle autorizzazioni IAM per eseguire un job di caricamento e caricare i dati in tabelle e partizioni BigQuery. Se stai caricando i dati da Cloud Storage, devi avere anche le autorizzazioni IAM per accedere al bucket che contiene i tuoi dati.
Autorizzazioni per caricare i dati in BigQuery
Per caricare i dati in una nuova tabella o partizione BigQuery oppure per aggiungere o sovrascrivere una tabella o una partizione esistente, devi disporre delle seguenti autorizzazioni IAM:
bigquery.tables.create
bigquery.tables.updateData
bigquery.tables.update
bigquery.jobs.create
Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per caricare i dati in una tabella o partizione BigQuery:
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.admin
(include l'autorizzazionebigquery.jobs.create
)bigquery.user
(include l'autorizzazionebigquery.jobs.create
)bigquery.jobUser
(include l'autorizzazionebigquery.jobs.create
)
Inoltre, se disponi dell'autorizzazione bigquery.datasets.create
, puoi creare e aggiornare le tabelle utilizzando un job di caricamento nei set di dati che crei.
Per ulteriori informazioni su ruoli e autorizzazioni IAM in BigQuery, consulta Autorizzazioni e ruoli predefiniti.
Autorizzazioni per caricare i dati da Cloud Storage
Per ottenere le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage,
chiedi all'amministratore di concederti il ruolo IAM
Amministratore Storage (roles/storage.admin
) per il bucket.
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso.
Questo ruolo predefinito contiene le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage. Per visualizzare le autorizzazioni esatte necessarie, espandi la sezione Autorizzazioni richieste:
Autorizzazioni obbligatorie
Per caricare i dati da un bucket Cloud Storage sono necessarie le seguenti autorizzazioni:
-
storage.buckets.get
-
storage.objects.get
-
storage.objects.list (required if you are using a URI wildcard)
Potresti anche essere in grado di ottenere queste autorizzazioni con i ruoli personalizzati o altri ruoli predefiniti.
crea un set di dati e una tabella
Per archiviare i dati, devi creare un set di dati BigQuery e poi creare una tabella BigQuery all'interno di quel set di dati.
Vantaggi di Avro
Avro è il formato preferito per il caricamento dei dati in BigQuery. Il caricamento di file Avro presenta i seguenti vantaggi rispetto a CSV e JSON (delimitato da nuova riga):
- Formato binario Avro:
- È più veloce da caricare. I dati possono essere letti in parallelo, anche se i blocchi di dati sono compressi.
- Non richiede digitazione o serializzazione.
- È più facile da analizzare perché non sono stati rilevati problemi di codifica in altri formati, ad esempio ASCII.
- Quando carichi file Avro in BigQuery, lo schema della tabella viene recuperato automaticamente dai dati di origine autodescritti.
Schemi Avro
Quando carichi file Avro in una nuova tabella BigQuery, lo schema della tabella viene recuperato automaticamente utilizzando i dati di origine. Quando BigQuery recupera lo schema dai dati di origine, viene utilizzato l'ultimo file in ordine alfabetico.
Ad esempio, hai i seguenti file Avro in Cloud Storage:
gs://mybucket/00/ a.avro z.avro gs://mybucket/01/ b.avro
L'esecuzione di questo comando nello strumento a riga di comando bq consente di caricare tutti i file (come elenco separato da virgole) e lo schema deriva da mybucket/01/b.avro
:
bq load \ --source_format=AVRO \ dataset.table \ "gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"
Quando importi più file Avro con schemi Avro diversi, tutti gli schemi devono essere compatibili con la risoluzione degli schemi di Avro.
Quando BigQuery rileva lo schema, alcuni tipi di dati Avro vengono convertiti in tipi di dati BigQuery per renderli compatibili con la sintassi di GoogleSQL. Per saperne di più, consulta l'articolo Conversioni Avro.
Per fornire uno schema per la creazione di tabelle esterne, imposta la proprietàreferenceFileSchemaUri
nell'API BigQuery o il parametro --reference_file_schema_uri
nello strumento a riga di comando bq
sull'URL del file di riferimento.
Ad esempio, --reference_file_schema_uri="gs://mybucket/schema.avro"
.
Compressione Avro
BigQuery supporta i seguenti codec di compressione per i contenuti dei file Avro:
Snappy
DEFLATE
Caricamento dei dati Avro in una nuova tabella
Per caricare i dati Avro da Cloud Storage in una nuova tabella BigQuery, seleziona una delle seguenti opzioni:
Console
Nella console Google Cloud, apri la pagina BigQuery.
Nel riquadro Spazio di esplorazione, espandi il progetto e seleziona un set di dati.
Espandi l'opzione
Azioni e fai clic su Apri.Nel riquadro dei dettagli, fai clic su Crea tabella
.Nella sezione Origine della pagina Crea tabella:
In Crea tabella da, seleziona Google Cloud Storage.
Nel campo di origine, sfoglia o inserisci l'URI Cloud Storage. Tieni presente che non puoi includere più URI nella console Google Cloud, ma i caratteri jolly sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa località del set di dati che contiene la tabella che stai creando.
Per Formato file, seleziona Avro.
Nella sezione Destinazione della pagina Crea tabella:
- In Nome set di dati, scegli il set di dati appropriato.
- Verifica che l'opzione Tipo di tabella sia impostata su Tabella nativa.
- Nel campo Nome tabella, inserisci il nome della tabella che stai creando in BigQuery.
Nella sezione Schema non è necessaria alcuna azione. Lo schema si descrive autonomamente nei file Avro.
(Facoltativo) Per eseguire il partizionamento della tabella, scegli le opzioni in Impostazioni di partizione e cluster. Per saperne di più, consulta Creazione di tabelle partizionate.
(Facoltativo) Per Filtro di partizionamento, fai clic sulla casella Richiedi filtro di partizionamento per richiedere agli utenti di includere una clausola
WHERE
che specifichi le partizioni su cui eseguire la query. La richiesta di un filtro di partizionamento può ridurre i costi e migliorare le prestazioni. Per maggiori informazioni, consulta Esecuzione di query sulle tabelle partizionate. Questa opzione non è disponibile se è selezionata l'opzione Nessun partizionamento.(Facoltativo) Per eseguire il cluster della tabella, nella casella Ordine di clustering, inserisci da uno a quattro nomi di campi.
(Facoltativo) Fai clic su Opzioni avanzate.
- In Preferenza di scrittura, lascia selezionata l'opzione Scrivi se vuoto. Questa opzione consente di creare una nuova tabella in cui caricare i dati.
- In Valori sconosciuti, lascia deselezionata l'opzione Ignora valori sconosciuti. Questa opzione si applica solo ai file CSV e JSON.
- In Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una Chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
Fai clic su Crea tabella.
SQL
Utilizza l'istruzione DDL LOAD DATA
.
L'esempio seguente carica un file Avro nella nuova tabella mytable
:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'Editor query, inserisci la seguente istruzione:
LOAD DATA OVERWRITE mydataset.mytable FROM FILES ( format = 'avro', uris = ['gs://bucket/path/file.avro']);
Fai clic su
Esegui.
Per ulteriori informazioni su come eseguire le query, consulta Eseguire una query interattiva.
bq
Utilizza il comando bq load
, specifica AVRO
con il flag --source_format
e includi un URI Cloud Storage.
Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI contenente un caratteri jolly.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
località.
Altri flag facoltativi includono:
--time_partitioning_type
: abilita il partizionamento basato sul tempo su una tabella e imposta il tipo di partizione. I valori possibili sonoHOUR
,DAY
,MONTH
eYEAR
. Questo flag è facoltativo quando crei una tabella partizionata in una colonnaDATE
,DATETIME
oTIMESTAMP
. Il tipo di partizione predefinito per il partizionamento basato sul tempo èDAY
. Non puoi modificare la specifica di partizionamento in una tabella esistente.--time_partitioning_expiration
: un numero intero che specifica (in secondi) quando deve essere eliminata una partizione basata sul tempo. La data di scadenza restituisce la data UTC della partizione più il valore intero.--time_partitioning_field
: la colonnaDATE
oTIMESTAMP
utilizzata per creare una tabella partizionata. Se il partizionamento basato sul tempo è abilitato senza questo valore, viene creata una tabella partizionata per data di importazione.--require_partition_filter
: se abilitata, questa opzione richiede agli utenti di includere una clausolaWHERE
che specifichi le partizioni su cui eseguire la query. La richiesta di un filtro di partizionamento può ridurre i costi e migliorare le prestazioni. Per ulteriori informazioni, consulta Esecuzione di query sulle tabelle partizionate.--clustering_fields
: un elenco separato da virgole di massimo quattro nomi di colonna utilizzato per creare una tabella in cluster.--destination_kms_key
: la chiave Cloud KMS per la crittografia dei dati della tabella.Per ulteriori informazioni sulle tabelle partizionate, consulta:
Per ulteriori informazioni sulle tabelle in cluster, consulta:
Per saperne di più sulla crittografia delle tabelle, vedi:
Per caricare i dati Avro in BigQuery, inserisci il seguente comando:
bq --location=location load \ --source_format=format \ dataset.table \ path_to_source
Sostituisci quanto segue:
- location è la tua posizione. Il flag
--location
è facoltativo. Ad esempio, se utilizzi BigQuery nella regione di Tokyo, puoi impostare il valore del flag suasia-northeast1
. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc. - format è pari a
AVRO
. - dataset è un set di dati esistente.
- table è il nome della tabella in cui stai caricando i dati.
- path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.avro
in una
tabella denominata mytable
in mydataset
.
bq load \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
Il seguente comando carica i dati da gs://mybucket/mydata.avro
in una tabella partizionata per data di importazione denominata mytable
in mydataset
.
bq load \
--source_format=AVRO \
--time_partitioning_type=DAY \
mydataset.mytable \
gs://mybucket/mydata.avro
Il seguente comando carica i dati da gs://mybucket/mydata.avro
in una nuova
tabella partizionata denominata mytable
in mydataset
. La tabella è partizionata
nella colonna mytimestamp
.
bq load \
--source_format=AVRO \
--time_partitioning_field mytimestamp \
mydataset.mytable \
gs://mybucket/mydata.avro
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. L'URI Cloud Storage utilizza
un carattere jolly.
bq load \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata*.avro
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. Il comando include un elenco separato da virgole di URI Cloud Storage con caratteri jolly.
bq load \
--source_format=AVRO \
mydataset.mytable \
"gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"
API
Crea un job
load
che punta ai dati di origine in Cloud Storage.(Facoltativo) Specifica la tua località nella proprietà
location
nella sezionejobReference
della risorsa job.La proprietà
source URIs
deve essere completa, nel formatogs://bucket/object
. Ogni URI può contenere un carattere jolly "*".Specifica il formato dei dati Avro impostando la proprietà
sourceFormat
suAVRO
.Per controllare lo stato del job, chiama
jobs.get(job_id*)
, dove job_id è l'ID del job restituito dalla richiesta iniziale.- Se
status.state = DONE
, il job è stato completato correttamente. - Se è presente la proprietà
status.errorResult
, la richiesta non è andata a buon fine e l'oggetto includerà informazioni che descrivono l'errore. Quando una richiesta non va a buon fine, non viene creata alcuna tabella e non vengono caricati dati. - Se
status.errorResult
non è presente, il job è stato completato correttamente, anche se potrebbero essersi verificati alcuni errori non irreversibili, come problemi di importazione di alcune righe. Gli errori non irreversibili sono elencati nella proprietàstatus.errors
dell'oggetto job restituito.
- Se
Note dell'API:
I job di caricamento sono atomici e coerenti. Se un job di caricamento ha esito negativo, nessuno dei dati è disponibile e, se un job di caricamento ha esito positivo, sono disponibili tutti i dati.
Come best practice, genera un ID univoco e passalo come
jobReference.jobId
quando chiamijobs.insert
per creare un job di caricamento. Questo approccio è più solido in caso di errore di rete perché il client può eseguire il polling o riprovare sull'ID job noto.La chiamata a
jobs.insert
per un determinato ID job è idempotente. Puoi riprovare tutte le volte che vuoi sullo stesso ID job e al massimo una di queste operazioni avrà esito positivo.
Go
Prima di provare questo esempio, segui le istruzioni di configurazione di Go disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Go.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Java.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Node.js.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Python.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Estrai i dati JSON dai dati Avro
Esistono due modi per garantire che i dati Avro vengano caricati in BigQuery come dati JSON
:
Annota lo schema Avro con il criterio
sqlType
impostato suJSON
. Ad esempio, se carichi dati con il seguente schema Avro, la colonnajson_field
viene letta come tipoJSON
:{ "type": {"type": "string", "sqlType": "JSON"}, "name": "json_field" }
Specifica esplicitamente lo schema della tabella di destinazione BigQuery e imposta il tipo di colonna su
JSON
. Per maggiori informazioni, consulta Specifica di uno schema.
Se non specifichi JSON come tipo nello schema Avro o nello schema della tabella BigQuery, i dati verranno letti come STRING
.
Aggiunta o sovrascrittura di una tabella con dati Avro
Puoi caricare dati aggiuntivi in una tabella dai file di origine o aggiungendo i risultati della query.
Nella console Google Cloud, utilizza l'opzione Preferenza di scrittura per specificare l'azione da eseguire quando carichi i dati da un file di origine o da un risultato di query.
Quando carichi dati aggiuntivi in una tabella, hai a disposizione le seguenti opzioni:
Opzione della console | flag dello strumento bq | Proprietà API BigQuery | Descrizione |
---|---|---|---|
Scrivi se vuota | Funzionalità non supportata | WRITE_EMPTY |
Scrive i dati solo se la tabella è vuota. |
Aggiungi a tabella | --noreplace o --replace=false ; se --[no]replace non è specificato, il valore predefinito è Aggiungi |
WRITE_APPEND |
(Predefinito) Accoda i dati alla fine della tabella. |
Sovrascrivi tabella | --replace o --replace=true |
WRITE_TRUNCATE |
Cancella tutti i dati esistenti in una tabella prima di scrivere nuovi dati. Questa azione elimina anche lo schema della tabella, la sicurezza a livello di riga e rimuove qualsiasi chiave Cloud KMS. |
Se carichi i dati in una tabella esistente, il job di caricamento può aggiungere i dati o sovrascrivere la tabella.
Per aggiungere o sovrascrivere una tabella con dati Avro:
Console
Nella console Google Cloud, apri la pagina BigQuery.
Nel riquadro Spazio di esplorazione, espandi il progetto e seleziona un set di dati.
Espandi l'opzione
Azioni e fai clic su Apri.Nel riquadro dei dettagli, fai clic su Crea tabella
.Nella sezione Origine della pagina Crea tabella:
- In Crea tabella da, seleziona Cloud Storage.
Nel campo source, individua o inserisci l'URI Cloud Storage. Tieni presente che non puoi includere più URI nella console Google Cloud, ma sono supportati i caratteri jolly. Il bucket Cloud Storage deve trovarsi nella stessa località del set di dati che contiene la tabella da aggiungere o sovrascrivere.
Per Formato file, seleziona Avro.
Nella sezione Destinazione della pagina Crea tabella:
In Nome set di dati, scegli il set di dati appropriato.
Nel campo Nome tabella, inserisci il nome della tabella che stai aggiungendo o sovrascrivendo in BigQuery.
Verifica che l'opzione Tipo di tabella sia impostata su Tabella nativa.
Nella sezione Schema non è necessaria alcuna azione. Lo schema si descrive autonomamente nei file Avro.
In Impostazioni di partizione e cluster, lascia i valori predefiniti. Non puoi convertire una tabella in una tabella partizionata o in cluster aggiungendola o sovrascrivendola e la console Google Cloud non supporta l'aggiunta o la sovrascrittura di tabelle partizionate o in cluster in un job di caricamento.
Fai clic su Opzioni avanzate.
- In Preferenza di scrittura, scegli Aggiungi alla tabella o Sovrascrivi tabella.
- In Valori sconosciuti, lascia deselezionata l'opzione Ignora valori sconosciuti. Questa opzione si applica solo ai file CSV e JSON.
- In Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una Chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
Fai clic su Crea tabella.
SQL
Utilizza l'istruzione DDL LOAD DATA
.
Nell'esempio seguente viene aggiunto un file Avro alla tabella mytable
:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'Editor query, inserisci la seguente istruzione:
LOAD DATA INTO mydataset.mytable FROM FILES ( format = 'avro', uris = ['gs://bucket/path/file.avro']);
Fai clic su
Esegui.
Per ulteriori informazioni su come eseguire le query, consulta Eseguire una query interattiva.
bq
Inserisci il comando bq load
con il flag --replace
per sovrascrivere la tabella. Utilizza il flag --noreplace
per aggiungere dati alla tabella. Se non viene specificato alcun flag, l'impostazione predefinita prevede l'aggiunta di dati. Fornisci il flag --source_format
e impostalo su AVRO
. Poiché gli schemi Avro vengono recuperati automaticamente dai dati di origine autodescritti, non è necessario fornire una definizione dello schema.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
località.
Altri flag facoltativi includono:
--destination_kms_key
: la chiave Cloud KMS per la crittografia dei dati della tabella.
bq --location=location load \ --[no]replace \ --source_format=format \ dataset.table \ path_to_source
Sostituisci quanto segue:
- location è la tua località.
Il flag
--location
è facoltativo. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc. - format è pari a
AVRO
. - dataset è un set di dati esistente.
- table è il nome della tabella in cui stai caricando i dati.
- path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.avro
e
sovrascrive una tabella denominata mytable
in mydataset
.
bq load \
--replace \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
Il seguente comando carica i dati da gs://mybucket/mydata.avro
e
aggiunge i dati a una tabella denominata mytable
in mydataset
.
bq load \
--noreplace \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
Per informazioni su come aggiungere e sovrascrivere le tabelle partizionate utilizzando lo strumento a riga di comando bq, consulta l'articolo sull'aggiunta e sulla sovrascrittura dei dati delle tabella partizionata partizionate.
API
Crea un job
load
che punta ai dati di origine in Cloud Storage.(Facoltativo) Specifica la tua località nella proprietà
location
nella sezionejobReference
della risorsa job.La proprietà
source URIs
deve essere completa, nel formatogs://bucket/object
. Puoi includere più URI sotto forma di elenco separato da virgole. Tieni presente che sono supportati anche i caratteri jolly.Specifica il formato dei dati impostando la proprietà
configuration.load.sourceFormat
suAVRO
.Specifica la preferenza di scrittura impostando la proprietà
configuration.load.writeDisposition
suWRITE_TRUNCATE
oWRITE_APPEND
.
Go
Prima di provare questo esempio, segui le istruzioni di configurazione di Go disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Go.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Java.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Node.js.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python disponibili nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API BigQuery Python.
Per eseguire l'autenticazione in BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.
Caricamento dei dati Avro partizionati hive
BigQuery supporta il caricamento dei dati Avro partizionati hive archiviati in Cloud Storage e compila le colonne di partizionamento hive come colonne nella tabella gestita BigQuery di destinazione. Per maggiori informazioni, consulta Caricare dati partizionati esternamente da Cloud Storage.
Conversioni Avro
BigQuery converte i tipi di dati Avro nei seguenti tipi di dati BigQuery:
Tipi primitivi
Tipo di dati BigQuery | Note | |
---|---|---|
null | BigQuery ignora questi valori | |
boolean | BOOLEANO | |
int | INTEGER | |
lunghi | INTEGER | |
float | FLOAT | |
double | FLOAT | |
byte | BYTES | |
string | STRING | Solo UTF-8 |
Tipi logici
Per impostazione predefinita, BigQuery ignora l'attributo logicalType
per la maggior parte
dei tipi e utilizza invece il tipo Avro sottostante. Per convertire i tipi logici Avro nei tipi di dati BigQuery corrispondenti, imposta il flag --use_avro_logical_types
su true
utilizzando lo strumento a riga di comando bq oppure imposta la proprietà useAvroLogicalTypes
nella risorsa job quando chiami il metodo jobs.insert
per creare un job di caricamento.
La tabella seguente mostra la conversione dei tipi logici Avro in tipi di dati BigQuery.
Tipo di dati BigQuery: tipo logico disabilitato | Tipo di dati BigQuery: tipo logico abilitato | |
---|---|---|
date | INTEGER | DATA |
tempo-millisecondi | INTEGER | TEMPO |
micro-tempi | INTEGER (convertita da Long) | TEMPO |
timestamp-millisecondi | INTEGER (convertita da Long) | TIMESTAMP |
timestamp-micros | INTEGER (convertita da Long) | TIMESTAMP |
timestamp-locale-in-millisecondi | INTEGER (convertita da Long) | DATETIME |
local-timestamp-micros | INTEGER (convertita da Long) | DATETIME |
duration | BYTES (convertita da fixed tipo di dimensione 12) |
BYTES (convertita da fixed tipo di dimensione 12) |
decimal | NUMERIC, BIGNUMERIC o STRING (vedi Tipo logico decimale) | NUMERIC, BIGNUMERIC o STRING (vedi Tipo logico decimale) |
Per ulteriori informazioni sui tipi di dati Avro, consulta la specifica di Apache AvroTM 1.8.2.
Tipo logico della data
In ogni file Avro che intendi caricare, devi specificare tipi logici di data nel seguente formato:
{
"type": {"logicalType": "date", "type": "int"},
"name": "date_field"
}
Tipo logico decimale
I tipi logici Decimal
possono essere convertiti in tipi NUMERIC
, BIGNUMERIC
o STRING
. Il tipo convertito dipende dai parametri di precisione e scala del tipo logico decimal
e dai tipi di target decimali specificati. Specifica il tipo di target decimale come segue:
- Per un job di caricamento con l'API
jobs.insert
: utilizza il campoJobConfigurationLoad.decimalTargetTypes
. - Per un job di caricamento con il comando
bq load
nello strumento a riga di comando bq, utilizza il flag--decimal_target_types
. - Per una query su una tabella con origini esterne: utilizza il campo
ExternalDataConfiguration.decimalTargetTypes
. - Per una tabella esterna permanente creata con un DDL:
utilizza l'opzione
decimal_target_types
.
Per la compatibilità con le versioni precedenti, se i tipi di target decimali non sono specificati, puoi caricare un file Avro contenente una colonna bytes
con il tipo logico decimal
in una colonna BYTES
di una tabella esistente. In questo caso, il tipo logico decimal
nella colonna del file Avro viene ignorato. Questa
modalità di conversione è deprecata e potrebbe essere rimossa in futuro.
Per ulteriori informazioni sul tipo logico decimal
di Avro, consulta la specifica di Apache AvroTM 1.8.2.
Tipo logico temporale
In ogni file Avro che intendi caricare, devi specificare tipi logici temporali in uno dei seguenti formati.
Per una precisione di un millisecondo:
{
"type": {"logicalType": "time-millis", "type": "int"},
"name": "time_millis_field"
}
Per una precisione in microsecondi:
{
"type": {"logicalType": "time-micros", "type": "int"},
"name": "time_micros_field"
}
Tipo logico timestamp
In ogni file Avro che intendi caricare, devi specificare tipi logici timestamp in uno dei seguenti formati.
Per una precisione di un millisecondo:
{
"type": {"logicalType": "timestamp-millis", "type": "long"},
"name": "timestamp_millis_field"
}
Per una precisione in microsecondi:
{
"type": {"logicalType": "timestamp-micros", "type": "long"},
"name": "timestamp_micros_field"
}
Tipo logico timestamp locale
In ogni file Avro che intendi caricare, devi specificare un tipo logico di timestamp locale in uno dei seguenti formati.
Per una precisione di un millisecondo:
{
"type": {"logicalType": "local-timestamp-millis", "type": "long"},
"name": "local_timestamp_millis_field"
}
Per una precisione in microsecondi:
{
"type": {"logicalType": "local-timestamp-micros", "type": "long"},
"name": "local_timestamp_micros_field"
}
Tipi complessi
Tipo di dati BigQuery | Note | |
---|---|---|
disco | RECORD |
|
enum | STRING |
|
array | campi ripetuti | Gli array di array non sono supportati. Gli array contenenti solo tipi NULL vengono ignorati. |
map<T> | RECORD | BigQuery converte un campo Avro map<T> in un RECORD ripetuto contenente due campi: una chiave e un valore. BigQuery archivia la chiave come STRING e converte il valore nel tipo di dati corrispondente in BigQuery. |
unione |
|
|
corretti | BYTES |
|
Limitazioni
- La formattazione degli array nidificati non è supportata in BigQuery. I file Avro in questo formato devono essere convertiti prima dell'importazione.
- In un file Avro, i nomi e gli spazi dei nomi di un nome completo possono contenere solo caratteri alfanumerici e il trattino basso
_
. La seguente espressione regolare mostra i caratteri consentiti:[A-Za-z_][A-Za-z0-9_]*
Per ulteriori informazioni, consulta Limiti dei job di caricamento di BigQuery.