Caricamento di dati JSON da Cloud Storage
Puoi caricare dati JSON (ndJSON) delimitati da riga da Cloud Storage in una nuova tabella o partizione oppure aggiungere o sovrascrivere una tabella o partizione esistente. Quando vengono caricati in BigQuery, vengono convertiti in formato a colonne per Condensatore (formato di archiviazione di BigQuery).
Quando carichi i dati da Cloud Storage in una tabella BigQuery, il set di dati che contiene la tabella deve trovarsi nella stessa regione regionale come bucket Cloud Storage.
Il formato ndJSON è lo stesso del formato JSON Lines.
Limitazioni
Quando carichi i dati in BigQuery da un bucket di Cloud Storage, devi rispettare le seguenti limitazioni:
- Se la posizione del set di dati è impostata su un valore diverso dall'area geografica multipla
US
, il bucket Cloud Storage deve trovarsi nella stessa regione o essere contenuto nella stessa area geografica multipla del set di dati. - BigQuery non garantisce la coerenza dei dati esterni fonti. Le modifiche ai dati sottostanti durante l'esecuzione di una query possono comportare comportamenti imprevisti.
- BigQuery non supporta il controllo delle versioni degli oggetti Cloud Storage. Se includi un numero di generazione nell'URI di Cloud Storage, il job di caricamento non riesce.
Quando carichi file JSON in BigQuery, tieni presente quanto segue:
- I dati JSON devono essere delimitati da una nuova riga o ndJSON. Ogni oggetto JSON deve trovarsi su una riga distinta nel file.
- Se usi gzip compressione, BigQuery non può leggere i dati in parallelo. Il caricamento di dati JSON compressi in BigQuery è più lento rispetto al caricamento di dati non compressi.
- Non puoi includere file compressi e non compressi nello stesso caricamento lavoro.
- La dimensione massima di un file gzip è 4 GB.
BigQuery supporta il tipo
JSON
anche se le informazioni sullo schema non sono note al momento dell'importazione. Un campo dichiarato come tipoJSON
vengono caricati con i valori JSON non elaborati.Se utilizzi l'API BigQuery per caricare un numero intero al di fuori dell'intervallo [-253+1, 253-1] (di solito significa più grande di 9.007.199.254.740.991), in una colonna di numeri interi (INT64), trasmettendolo come stringa per evitare la corruzione dei dati. Il problema è causato da una limitazione della dimensione dei numeri interi in JSON o ECMAScript. Per maggiori informazioni le informazioni, vedi la sezione Numeri di RFC 7159.
- Quando carichi dati CSV o JSON, i valori nelle colonne
DATE
devono utilizzare il separatore trattino (-
) e la data deve avere il seguente formato:YYYY-MM-DD
(anno-mese-giorno). - Quando carichi dati JSON o CSV, i valori nelle colonne
TIMESTAMP
devono utilizzare un separatore trattino (-
) o barra (/
) per la parte della data del timestamp e la data deve essere in uno dei seguenti formati:YYYY-MM-DD
(anno-mese-giorno) oYYYY/MM/DD
(anno/mese/giorno). La partehh:mm:ss
(ora-minuto-secondo) del timestamp deve utilizzare un separatore di due punti (:
). I file devono soddisfare i limiti di dimensione dei file JSON descritti nei limiti dei job di caricamento.
Prima di iniziare
Concedi i ruoli IAM (Identity and Access Management) che forniscono agli utenti le autorizzazioni necessarie per eseguire ogni attività in questo documento e crea un set di dati per archiviare i dati.
Autorizzazioni obbligatorie
Per caricare i dati in BigQuery, devi disporre delle autorizzazioni IAM per eseguire un job di caricamento e caricare i dati nelle tabelle e nelle partizioni BigQuery. Se carichi dati da Cloud Storage, devi disporre anche delle autorizzazioni IAM per accedere al bucket che contiene i dati.
Autorizzazioni per caricare i dati in BigQuery
Per caricare i dati in una nuova tabella o partizione BigQuery oppure per aggiungere o sovrascrivere una tabella o una partizione esistente, devi disporre delle seguenti autorizzazioni IAM:
bigquery.tables.create
bigquery.tables.updateData
bigquery.tables.update
bigquery.jobs.create
Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per caricare i dati in una tabella o una partizione BigQuery:
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.admin
(include l'autorizzazionebigquery.jobs.create
)bigquery.user
(include l'autorizzazionebigquery.jobs.create
)bigquery.jobUser
(include l'autorizzazionebigquery.jobs.create
)
Inoltre, se disponi dell'autorizzazione bigquery.datasets.create
, puoi creare e
aggiornare le tabelle utilizzando un job di caricamento nei set di dati che crei.
Per ulteriori informazioni su ruoli e autorizzazioni IAM in BigQuery, vedi Autorizzazioni e ruoli predefiniti.
Autorizzazioni per caricare i dati da Cloud Storage
Per ottenere le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage,
chiedi all'amministratore di concederti
Ruolo IAM Storage Admin (roles/storage.admin
) nel bucket.
Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.
Questo ruolo predefinito contiene le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage. Per visualizzare le autorizzazioni esatte richieste, espandi la sezione Autorizzazioni richieste:
Autorizzazioni obbligatorie
Per caricare i dati da un bucket Cloud Storage sono necessarie le seguenti autorizzazioni:
-
storage.buckets.get
-
storage.objects.get
-
storage.objects.list (required if you are using a URI wildcard)
Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.
Crea un set di dati
Crea un set di dati BigQuery per archiviare i tuoi dati.
Compressione JSON
Puoi utilizzare l'utilità gzip
per comprimere i file JSON. Tieni presente che gzip
esegue
compressione completa dei file, a differenza della compressione
di compressione per altri formati file, ad esempio Avro. Utilizzo di gzip
per
la compressione potrebbe avere un impatto sulle prestazioni; per ulteriori informazioni
sui compromessi, vedi
Caricamento di dati compressi e non compressi.
Caricamento di dati JSON in una nuova tabella
Per caricare dati JSON da Cloud Storage in un nuovo BigQuery tabella:
Console
Nella console Google Cloud, vai alla pagina BigQuery.
- Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
- Nella sezione Informazioni set di dati, fai clic su Crea tabella.
- Nel riquadro Crea tabella, specifica i seguenti dettagli:
- Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da.
Poi segui questi passaggi:
- Seleziona un file dal bucket Cloud Storage o inserisci l'URI Cloud Storage. Non puoi includere più URI nella console Google Cloud, ma con i caratteri jolly sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa posizione del set di dati contenente la tabella da creare, aggiungere o sovrascrivere.
- In Formato file, seleziona JSONL (JSON delimitato da nuova riga).
- Nella sezione Destinazione, specifica i seguenti dettagli:
- In Set di dati, seleziona il set di dati in cui creare il tabella.
- Nel campo Tabella, inserisci il nome della tabella da creare.
- Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
- Nella sezione Schema, inserisci lo schema.
definizione di Kubernetes.
Per attivare il rilevamento automatico di uno schema,
seleziona Rilevamento automatico.
Puoi inserire manualmente le informazioni dello schema utilizzando uno dei seguenti metodi:
- Opzione 1: fai clic su Modifica come testo e incolla lo schema sotto forma di
un array JSON. Quando utilizzi un array JSON, generi lo schema utilizzando
procedura è la stessa procedura utilizzata per la creazione di un file di schema JSON.
Puoi visualizzare lo schema di una tabella esistente in formato JSON inserendo il seguente
comando:
bq show --format=prettyjson dataset.table
- Opzione 2: fai clic su Tipo e Modalità di ogni campo. Aggiungi campo e inserisci lo schema della tabella. Specifica Nome,
- Opzione 1: fai clic su Modifica come testo e incolla lo schema sotto forma di
un array JSON. Quando utilizzi un array JSON, generi lo schema utilizzando
procedura è la stessa procedura utilizzata per la creazione di un file di schema JSON.
Puoi visualizzare lo schema di una tabella esistente in formato JSON inserendo il seguente
comando:
- (Facoltativo) Specifica le impostazioni di partizionamento e clustering. Per ulteriori informazioni, vedi Creazione di tabelle partizionate e Creazione e utilizzo di tabelle in cluster.
- Fai clic su Opzioni avanzate e segui questi passaggi:
- Per Preferenza di scrittura, lascia selezionata l'opzione Scrivere se vuota. Questa opzione crea una nuova tabella e vi carica i dati.
- In Numero di errori consentiti, accetta il valore predefinito
0
oppure inserisci il numero massimo di righe contenenti errori che possono essere ignorati. Se il numero di righe con errori supera questo valore, il job restituiscono un messaggioinvalid
e l'operazione non riesce. Questa opzione si applica solo ai file CSV e JSON. - Se vuoi ignorare i valori di una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
- In Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una Chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
- Fai clic su Crea tabella.
SQL
Utilizza la
LOAD DATA
Istruzione DDL.
L'esempio seguente carica un file JSON nella nuova tabella mytable
:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor query, inserisci la seguente istruzione:
LOAD DATA OVERWRITE mydataset.mytable (x INT64,y STRING) FROM FILES ( format = 'JSON', uris = ['gs://bucket/path/file.json']);
Fai clic su
Esegui.
Per ulteriori informazioni su come eseguire query, consulta Eseguire una query interattiva.
bq
Utilizza il comando bq load
, specifica NEWLINE_DELIMITED_JSON
utilizzando il
--source_format
flag e includi un URI Cloud Storage.
Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI
contenente un carattere jolly.
Fornisci lo schema in linea, in un file di definizione dello schema, oppure utilizza
rilevamento automatico dello schema.
(Facoltativo) Fornisci il flag --location
e imposta il valore su
località.
Altri flag facoltativi sono:
--max_bad_records
: un numero intero che specifica il numero massimo di errori consentiti prima dell'esito negativo dell'intero job. Il valore predefinito è0
. Al massimo vengono restituiti cinque errori di qualsiasi tipo, indipendentemente dal valore--max_bad_records
.--ignore_unknown_values
: se specificato, consente e ignora gli extra, valori non riconosciuti nei dati CSV o JSON.--autodetect
: se specificato, attiva il rilevamento automatico dello schema per i dati CSV e JSON.--time_partitioning_type
: attiva il partizionamento in base al tempo in una tabella e imposta il tipo di partizione. I valori possibili sonoHOUR
,DAY
,MONTH
eYEAR
. Questo flag è facoltativo quando crei partizionata in base a una colonnaDATE
,DATETIME
oTIMESTAMP
. La il tipo di partizione predefinito per il partizionamento basato sul tempo èDAY
. Non puoi modificare la specifica di partizione di una tabella esistente.--time_partitioning_expiration
: un numero intero che specifica (in secondi) quando deve essere eliminata una partizione basata sul tempo. La scadenza valuta con la data UTC della partizione più il valore intero.--time_partitioning_field
: la colonnaDATE
oTIMESTAMP
utilizzata per creare una tabella partizionata. Se il partizionamento in base al tempo è abilitato senza questo valore, viene creata una tabella partizionata per data di importazione.--require_partition_filter
: quando è abilitata, questa opzione richiede agli utenti per includere una clausolaWHERE
che specifichi le partizioni su cui eseguire la query. Se il filtro di partizionamento è obbligatorio, i costi possono essere ridotti e le prestazioni migliorate. Per ulteriori informazioni, consulta la pagina Esecuzione di query sulle tabelle partizionate.--clustering_fields
: un elenco separato da virgole di massimo quattro nomi di colonna utilizzato per creare una tabella in cluster.--destination_kms_key
: la chiave Cloud KMS per la crittografia dei file e i dati della tabella.Per saperne di più sulle tabelle partizionate, consulta:
Per ulteriori informazioni sulle tabelle in cluster, consulta:
Per ulteriori informazioni sulla crittografia delle tabelle, consulta:
Per caricare dati JSON in BigQuery, inserisci questo comando:
bq --location=LOCATION load \ --source_format=FORMAT \ DATASET.TABLE \ PATH_TO_SOURCE \ SCHEMA
Sostituisci quanto segue:
LOCATION
: la tua posizione. Il flag--location
è facoltativo. Ad esempio, se utilizzi BigQuery Regione di Tokyo, puoi impostare il valore del flag suasia-northeast1
. Puoi impostare un valore predefinito per la posizione utilizzando il file .bigqueryrc.FORMAT
:NEWLINE_DELIMITED_JSON
.DATASET
: un set di dati esistente.TABLE
: il nome della tabella in cui stai caricando i dati.PATH_TO_SOURCE
: un nome completo URI Cloud Storage oppure un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.SCHEMA
: uno schema valido. Lo schema può essere un file JSON locale o può essere digitato in linea all'interno del comando. Se utilizzi un file schema, non specificarne un'estensione. Puoi anche utilizzare il flag--autodetect
anziché fornire una definizione dello schema.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.json
in una tabella denominata mytable
in mydataset
. Lo schema è definito in un ambiente
file di schema denominato myschema
.
bq load \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
gs://mybucket/mydata.json \
./myschema
Il seguente comando carica i dati da gs://mybucket/mydata.json
in un nuovo
tabella partizionata per data di importazione denominata mytable
in mydataset
. Lo schema è definito in un file schema locale denominato myschema
.
bq load \
--source_format=NEWLINE_DELIMITED_JSON \
--time_partitioning_type=DAY \
mydataset.mytable \
gs://mybucket/mydata.json \
./myschema
Il seguente comando carica i dati da gs://mybucket/mydata.json
in un
tabella partizionata denominata mytable
in mydataset
. La tabella è partizionata in base alla colonna mytimestamp
. Lo schema viene definito in un file di schema locale
denominato myschema
.
bq load \
--source_format=NEWLINE_DELIMITED_JSON \
--time_partitioning_field mytimestamp \
mydataset.mytable \
gs://mybucket/mydata.json \
./myschema
Il seguente comando carica i dati da gs://mybucket/mydata.json
in una tabella denominata mytable
in mydataset
. Lo schema viene rilevato automaticamente.
bq load \
--autodetect \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
gs://mybucket/mydata.json
Il seguente comando carica i dati da gs://mybucket/mydata.json
in un
tabella denominata mytable
in mydataset
. Lo schema è definito in linea nel formato FIELD:DATA_TYPE, FIELD:DATA_TYPE
.
bq load \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
gs://mybucket/mydata.json \
qtr:STRING,sales:FLOAT,year:STRING
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. L'URI Cloud Storage utilizza un'espressione caratteri jolly. Lo schema viene rilevato automaticamente.
bq load \
--autodetect \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
gs://mybucket/mydata*.json
Il seguente comando carica i dati da più file in gs://mybucket/
in una tabella denominata mytable
in mydataset
. Il comando include un elenco di URI di Cloud Storage con caratteri jolly separati da virgole. Lo schema è definito in un file di schema locale denominato myschema
.
bq load \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
"gs://mybucket/00/*.json","gs://mybucket/01/*.json" \
./myschema
API
Crea un job
load
che indichi i dati di origine in Cloud Storage.(Facoltativo) Specifica la tua posizione nella proprietà
location
della sezionejobReference
della risorsa job.La proprietà
source URIs
deve essere completa, nel formatogs://BUCKET/OBJECT
. Ogni URI può contenere un carattere jolly "*".Specifica il formato dei dati
JSON
impostando la proprietàsourceFormat
suNEWLINE_DELIMITED_JSON
.Per controllare lo stato del job, chiama
jobs.get(JOB_ID*)
, sostituendoJOB_ID
con l'ID del job restituito dalla richiesta iniziale.- Se
status.state = DONE
, il job è stato completato correttamente. - Se la proprietà
status.errorResult
è presente, la richiesta non è riuscita e l'oggetto include informazioni che descrivono il problema. Quando una richiesta non va a buon fine, non viene creata alcuna tabella e non vengono caricati dati. - Se
status.errorResult
non è presente, il job è stato completato correttamente; tuttavia, potrebbero essere stati rilevati alcuni errori non fatali, ad esempio problemi di importazione di alcune righe. Gli errori non irreversibili sono elencati nella proprietàstatus.errors
dell'oggetto job restituito.
- Se
Note API:
I job di caricamento sono atomici e coerenti; se un job di caricamento non va a buon fine, nessuno dei dati è disponibile e, se un job di caricamento va a buon fine, tutti i dati sono disponibili.
Come best practice, genera un ID univoco e passalo come
jobReference.jobId
quando chiamijobs.insert
per creare un job di caricamento. Questo è più efficace per gli errori di rete perché il client può eseguire il polling o riprova sull'ID job noto.La chiamata a
jobs.insert
su un determinato ID job è idempotente. Puoi riprovare tutte le volte che vuoi con lo stesso ID job e al massimo una di queste operazioni andrà a buon fine.
C#
Prima di provare questo esempio, segui le istruzioni per la configurazione di C# nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery C#.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Utilizza il metodoBigQueryClient.CreateLoadJob()
per avviare un job di caricamento
da Cloud Storage. Per utilizzare JSONL, crea un oggetto
CreateLoadJobOptions
e imposta la relativa proprietà
SourceFormat
su
FileFormat.NewlineDelimitedJson
.
Vai
Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Go BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Utilizza la LoadJobConfiguration.builder(tableId, sourceUri) per avviare un job di caricamento da Cloud Storage. Per utilizzare JSON delimitato da nuova riga, utilizza LoadJobConfiguration.setFormatOptions(FormatOptions.json()).
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Node.js BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
PHP
Prima di provare questo esempio, segui le istruzioni di configurazione PHP riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API PHP BigQuery documentazione di riferimento.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Python BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Utilizza la Client.load_table_from_uri() per avviare un job di caricamento da Cloud Storage. Per utilizzare JSONL, imposta la proprietà LoadJobConfig.source_format sulla stringaNEWLINE_DELIMITED_JSON
e passa la configurazione del job come argomento job_config
al metodo load_table_from_uri()
.
Ruby
Prima di provare questo esempio, segui le istruzioni di configurazione Ruby riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API Ruby BigQuery documentazione di riferimento.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Utilizza il metodo Dataset.load_job() per avviare un job di caricamento da Cloud Storage. Per utilizzare JSONL, imposta il parametroformat
su "json"
.
Caricamento di dati JSON nidificati e ripetuti
BigQuery supporta il caricamento di dati nidificati e ripetuti da formati di origine che supportano schemi basati sugli oggetti, come JSON, Avro, ORC, Parquet, Firestore e Datastore.
In ogni riga deve essere presente un oggetto JSON, inclusi eventuali campi nidificati o ripetuti.
L'esempio seguente mostra dati nidificati o ripetuti di esempio. Questa tabella contiene informazioni sulle persone. È costituito dai seguenti campi:
id
first_name
last_name
dob
(data di nascita)addresses
(un campo nidificato e ripetuto)addresses.status
(attuale o precedente)addresses.address
addresses.city
addresses.state
addresses.zip
addresses.numberOfYears
(anni all'indirizzo)
Il file di dati JSON sarà simile al seguente. Nota che il campo dell'indirizzo
contiene un array di valori (indicato da [ ]
).
{"id":"1","first_name":"John","last_name":"Doe","dob":"1968-01-22","addresses":[{"status":"current","address":"123 First Avenue","city":"Seattle","state":"WA","zip":"11111","numberOfYears":"1"},{"status":"previous","address":"456 Main Street","city":"Portland","state":"OR","zip":"22222","numberOfYears":"5"}]} {"id":"2","first_name":"Jane","last_name":"Doe","dob":"1980-10-16","addresses":[{"status":"current","address":"789 Any Avenue","city":"New York","state":"NY","zip":"33333","numberOfYears":"2"},{"status":"previous","address":"321 Main Street","city":"Hoboken","state":"NJ","zip":"44444","numberOfYears":"3"}]}
Lo schema di questa tabella sarà il seguente:
[ { "name": "id", "type": "STRING", "mode": "NULLABLE" }, { "name": "first_name", "type": "STRING", "mode": "NULLABLE" }, { "name": "last_name", "type": "STRING", "mode": "NULLABLE" }, { "name": "dob", "type": "DATE", "mode": "NULLABLE" }, { "name": "addresses", "type": "RECORD", "mode": "REPEATED", "fields": [ { "name": "status", "type": "STRING", "mode": "NULLABLE" }, { "name": "address", "type": "STRING", "mode": "NULLABLE" }, { "name": "city", "type": "STRING", "mode": "NULLABLE" }, { "name": "state", "type": "STRING", "mode": "NULLABLE" }, { "name": "zip", "type": "STRING", "mode": "NULLABLE" }, { "name": "numberOfYears", "type": "STRING", "mode": "NULLABLE" } ] } ]
Per informazioni su come specificare uno schema nidificato e ripetuto, consulta Specifica dei campi nidificati e ripetuti.
Caricamento di dati JSON semistrutturati
BigQuery supporta il caricamento di dati semistrutturati, in cui un campo
può assumere valori di tipi diversi. L'esempio seguente mostra dati simili a
il precedente
dati JSON nidificati e ripetuti
esempio, tranne per il fatto che il campo address
può essere STRING
, STRUCT
o
ARRAY
:
{"id":"1","first_name":"John","last_name":"Doe","dob":"1968-01-22","address":"123 First Avenue, Seattle WA 11111"} {"id":"2","first_name":"Jane","last_name":"Doe","dob":"1980-10-16","address":{"status":"current","address":"789 Any Avenue","city":"New York","state":"NY","zip":"33333","numberOfYears":"2"}} {"id":"3","first_name":"Bob","last_name":"Doe","dob":"1982-01-10","address":[{"status":"current","address":"789 Any Avenue","city":"New York","state":"NY","zip":"33333","numberOfYears":"2"}, "321 Main Street Hoboken NJ 44444"]}
Puoi caricare questi dati in BigQuery utilizzando: schema:
[ { "name": "id", "type": "STRING", "mode": "NULLABLE" }, { "name": "first_name", "type": "STRING", "mode": "NULLABLE" }, { "name": "last_name", "type": "STRING", "mode": "NULLABLE" }, { "name": "dob", "type": "DATE", "mode": "NULLABLE" }, { "name": "address", "type": "JSON", "mode": "NULLABLE" } ]
Il campo address
è stato caricato in una colonna di tipo
JSON
che consente
per tenere
i tipi misti dell'esempio. Puoi importare dati come JSON
contiene o meno tipi misti. Ad esempio, puoi specificare JSON
anziché
STRING
come tipo per il campo first_name
. Per ulteriori informazioni, consulta
Utilizzo dei dati JSON in GoogleSQL.
Aggiunta o sovrascrittura di una tabella con dati JSON
Puoi caricare dati aggiuntivi in una tabella dai file di origine o aggiungendo i risultati della query.
Nella console Google Cloud, utilizza l'opzione Preferenza di scrittura per specificare quale azione eseguire quando carichi i dati da un file di origine o da una query o il risultato finale.
Quando carichi dati aggiuntivi in una tabella, hai a disposizione le seguenti opzioni:
Opzione della console | Flag dello strumento bq | Proprietà API BigQuery | Descrizione |
---|---|---|---|
Scrivi se vuota | Non supportata | WRITE_EMPTY |
Scrive i dati solo se la tabella è vuota. |
Aggiungi a tabella | --noreplace o --replace=false ; se
--[no]replace non è specificato, il valore predefinito è append |
WRITE_APPEND |
(Valore predefinito) Collega i dati alla fine della tabella. |
Sovrascrivi tabella | --replace o --replace=true |
WRITE_TRUNCATE |
Cancella tutti i dati esistenti in una tabella prima di scrivere i nuovi dati. Questa azione elimina anche lo schema della tabella, la sicurezza a livello di riga e rimuove qualsiasi chiave Cloud KMS. |
Se carichi i dati in una tabella esistente, il job di caricamento può aggiungere i dati o sovrascrivere la tabella.
Puoi aggiungere o sovrascrivere una tabella utilizzando uno dei seguenti elementi:
- Nella console Google Cloud
- Il comando
bq load
dello strumento a riga di comando bq - Il metodo dell'API
jobs.insert
e la configurazione di un jobload
- Le librerie client
Console
Nella console Google Cloud, vai alla pagina BigQuery.
- Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
- Nella sezione Informazioni set di dati, fai clic su Crea tabella.
- Nel riquadro Crea tabella, specifica i seguenti dettagli:
- Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da.
Poi segui questi passaggi:
- Seleziona un file dal bucket Cloud Storage o inserisci URI Cloud Storage. Non puoi includere più URI nella console Google Cloud, ma con i caratteri jolly sono supportati. Il bucket Cloud Storage deve trovarsi nella stessa posizione del set di dati contenente la tabella da creare, aggiungere o sovrascrivere.
- In Formato file, seleziona JSONL (JSON delimitato da nuova riga).
- Nella sezione Destinazione, specifica i seguenti dettagli:
- In Set di dati, seleziona il set di dati in cui creare il tabella.
- Nel campo Tabella, inserisci il nome della tabella da creare.
- Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
- Nella sezione Schema, inserisci lo schema.
definizione di Kubernetes.
Per attivare il rilevamento automatico di uno schema:
Seleziona Rilevamento automatico.
Puoi inserire manualmente le informazioni dello schema utilizzando uno dei seguenti metodi:
- Opzione 1: fai clic su Modifica come testo e incolla lo schema sotto forma di array JSON. Quando utilizzi un array JSON, generi lo schema utilizzando la stessa procedura utilizzata per creare un file di schema JSON.
Puoi visualizzare lo schema di una tabella esistente in formato JSON inserendo il seguente
comando:
bq show --format=prettyjson dataset.table
- Opzione 2: fai clic su Tipo e Modalità di ogni campo. Aggiungi campo e inserisci lo schema della tabella. Specifica Nome,
- Opzione 1: fai clic su Modifica come testo e incolla lo schema sotto forma di array JSON. Quando utilizzi un array JSON, generi lo schema utilizzando la stessa procedura utilizzata per creare un file di schema JSON.
Puoi visualizzare lo schema di una tabella esistente in formato JSON inserendo il seguente
comando:
- (Facoltativo) Specifica le impostazioni di partizione e clustering. Per ulteriori informazioni, consulta Creare tabelle partizionate e Creare e utilizzare tabelle in cluster. Tu impossibile convertire una tabella in una tabella partizionata o in cluster aggiungendo o sovrascriverlo. La console Google Cloud non supporta aggiungendo o sovrascrivendo tabelle partizionate o in cluster in un job di caricamento.
- Fai clic su Opzioni avanzate ed esegui le seguenti operazioni:
- Per Preferenza di scrittura, scegli Aggiungi alla tabella o Sostituisci tabella.
- Per Numero di errori consentiti, accetta il valore predefinito
0
o inserisci il numero massimo di righe contenenti errori che possono essere ignorate. Se il numero di righe con errori supera questo valore, il job restituirà un messaggioinvalid
e avrà esito negativo. Questa opzione si applica solo ai file CSV e JSON. - Se vuoi ignorare i valori in una riga che non sono presenti nello schema della tabella: Seleziona Valori sconosciuti.
- In Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una Chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
- Fai clic su Crea tabella.
SQL
Utilizza la
LOAD DATA
Istruzione DDL.
L'esempio seguente aggiunge un file JSON alla tabella mytable
:
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor di query, inserisci la seguente istruzione:
LOAD DATA INTO mydataset.mytable FROM FILES ( format = 'JSON', uris = ['gs://bucket/path/file.json']);
Fai clic su
Esegui.
Per ulteriori informazioni su come eseguire query, consulta Eseguire una query interattiva.
bq
Utilizza il comando bq load
, specifica NEWLINE_DELIMITED_JSON
utilizzando il metodo
--source_format
e includi un URI Cloud Storage.
Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI contenente un carattere jolly.
Fornisci lo schema in linea, in un file di definizione dello schema, oppure utilizza rilevamento automatico dello schema.
Specifica il flag --replace
per sovrascrivere
tabella. Utilizza il flag --noreplace
per accodare i dati alla tabella. Se non è presente alcun flag
specificato, il valore predefinito è l'aggiunta di dati.
È possibile modificare lo schema della tabella quando la aggiungi o la sovrascrivi. Per ulteriori informazioni sulle modifiche allo schema supportate durante un caricamento consulta l'articolo Modifica degli schemi delle tabelle.
(Facoltativo) Fornisci il flag --location
e imposta il valore sulla tua
posizione.
Altri flag facoltativi includono:
--max_bad_records
: un numero intero che specifica il numero massimo di errori consentiti prima dell'esito negativo dell'intero job. Il valore predefinito è0
. Al massimo vengono restituiti cinque errori di qualsiasi tipo, indipendentemente dal valore--max_bad_records
.--ignore_unknown_values
: se specificato, consente e ignora gli extra, valori non riconosciuti nei dati CSV o JSON.--autodetect
: se specificato, attiva il rilevamento automatico dello schema per i dati CSV e JSON.--destination_kms_key
: la chiave Cloud KMS per la crittografia dei file e i dati della tabella.
bq --location=LOCATION load \ --[no]replace \ --source_format=FORMAT \ DATASET.TABLE \ PATH_TO_SOURCE \ SCHEMA
Sostituisci quanto segue:
LOCATION
: il tuo località. Il flag--location
è facoltativo. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc.FORMAT
:NEWLINE_DELIMITED_JSON
.DATASET
: un set di dati esistente.TABLE
: il nome della tabella in cui stai caricando i dati.PATH_TO_SOURCE
: un URI Cloud Storage completo o un elenco di URI separati da virgole. Caratteri jolly sono supportate.SCHEMA
: uno schema valido. Lo schema può essere un cluster JSON o può essere digitato in linea come parte del comando. Puoi anche usa il flag--autodetect
anziché fornire una definizione dello schema.
Esempi:
Il seguente comando carica i dati da gs://mybucket/mydata.json
e sovrascrive una tabella denominata mytable
in mydataset
. Lo schema è definito
mediante il rilevamento automatico degli schemi.
bq load \
--autodetect \
--replace \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
gs://mybucket/mydata.json
Il comando seguente carica i dati da gs://mybucket/mydata.json
e
accoda dati a una tabella denominata mytable
in mydataset
. Lo schema è
definita mediante un file di schema JSON: myschema
.
bq load \
--noreplace \
--source_format=NEWLINE_DELIMITED_JSON \
mydataset.mytable \
gs://mybucket/mydata.json \
./myschema
API
Crea un job
load
che indichi i dati di origine in Cloud Storage.(Facoltativo) Specifica la tua località in la proprietà
location
nella sezionejobReference
della risorsa job.La proprietà
source URIs
devono essere pienamente qualificati, nel formatogs://BUCKET/OBJECT
. Puoi includere più URI come elenco separato da virgole. La caratteri jolly sono .Specifica il formato dei dati impostando il parametro
configuration.load.sourceFormat
aNEWLINE_DELIMITED_JSON
.Specifica la preferenza di scrittura impostando il parametro
configuration.load.writeDisposition
proprietà aWRITE_TRUNCATE
oWRITE_APPEND
.
Vai
Prima di provare questo esempio, segui le istruzioni di configurazione Go riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API Go BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Java
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API Node.js BigQuery documentazione di riferimento.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
PHP
Prima di provare questo esempio, segui le istruzioni per la configurazione di PHP nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery PHP.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Python
Per sostituire le righe di una tabella esistente, imposta la proprietà LoadJobConfig.write_disposition sulla stringa WRITE_TRUNCATE
.
Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.
Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
Ruby
Per sostituire le righe in una tabella esistente, imposta il parametro write
di
Table.load_job()
a "WRITE_TRUNCATE"
.
Prima di provare questo esempio, segui le istruzioni di configurazione Ruby riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Ruby.
Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.
Caricamento di dati JSON partizionati in hive
BigQuery supporta il caricamento di dati JSON partizionati in Hive archiviati su Cloud Storage e compila le colonne di partizione Hive come colonne nella tabella gestita BigQuery di destinazione. Per ulteriori informazioni, vedi Caricamento di dati partizionati esternamente.
Dettagli sul caricamento dei dati JSON
Questa sezione descrive in che modo BigQuery analizza vari tipi di dati durante il caricamento dei dati JSON.
Tipi di dati
Booleano. BigQuery può analizzare una qualsiasi delle seguenti coppie per Dati booleani: 1 o 0, vero o falso, t o f, sì o no oppure y o n (tutte le maiuscole insensibile). Rilevamento automatico dello schema automaticamente uno qualsiasi di questi, tranne 0 e 1.Byte. Le colonne con tipi BYTES devono essere codificate in Base64.
Data: Le colonne di tipo DATE devono essere nel formato YYYY-MM-DD
.
Data/ora. Le colonne con tipi DATETIME devono essere nel formato YYYY-MM-DD
HH:MM:SS[.SSSSSS]
.
Area geografica. Le colonne con tipi GEOGRAPHY devono contenere stringhe in uno dei seguenti formati:
- Testo noto (WKT)
- Formato binario noto (WKB)
- GeoJSON
Se utilizzi WKB, il valore deve essere codificato in formato esadecimale.
L'elenco seguente mostra esempi di dati validi:
- Durata:
POINT(1 2)
- GeoJSON:
{ "type": "Point", "coordinates": [1, 2] }
- WKB con codifica esadecimale:
0101000000feffffffffffef3f0000000000000040
Prima di caricare i dati GEOGRAPHY, leggi anche Caricare i dati geospaziali.
Intervallo. Le colonne con tipi INTERVAL devono essere in
Formato ISO 8601
PYMDTHMS
, dove:
- P = designatore che indica che il valore rappresenta una durata. Devi lo includi sempre.
- Y = anno
- M = mese
- D = giorno
- T = Designatore che indica la parte della durata relativa al tempo. Devi sempre includerlo.
- H = ora
- M = minuto
- S = secondo. I secondi possono essere indicati come un valore intero o come un valore frazionario di massimo sei cifre, con una precisione di microsecondi.
Puoi indicare un valore negativo anteponendo un trattino (-).
L'elenco seguente mostra esempi di dati validi:
P-10000Y0M-3660000DT-87840000H0M0S
P0Y0M0DT0H0M0.000001S
P10000Y0M3660000DT87840000H0M0S
Per caricare dati INTERVAL, devi usare il comando bq load
e poi --schema
per specificare uno schema. Non puoi caricare dati INTERVAL tramite la console.
Ora. Le colonne con tipi TIME devono essere nel formato HH:MM:SS[.SSSSSS]
.
Timestamp. BigQuery accetta vari formati di timestamp. Il timestamp deve includere una parte relativa alla data e una all'ora.
La parte della data può essere formattata come
YYYY-MM-DD
oYYYY/MM/DD
.La parte del timestamp deve essere nel formato
HH:MM[:SS[.SSSSSS]]
(secondi e le frazioni di secondo sono facoltative).La data e l'ora devono essere separate da uno spazio o da "T".
Facoltativamente, la data e l'ora possono essere seguite da una differenza dal fuso orario UTC o dal fuso orario UTC indicatore (
Z
). Per ulteriori informazioni, vedi Fusi orari.
Ad esempio, sono validi i seguenti valori di timestamp:
- 19-08-2018 12:11
- 19/08/2018 12:11:35
- 19-08-2018 12:11:35.22
- 19/08/2018 12:11
- 12:54:00 UTC 2018-07-05
- 19-08-2018 07:11:35.220 -05:00
- 2018-08-19T12:11:35.220Z
Se fornisci uno schema, BigQuery accetta anche il tempo di epoca Unix per i valori di timestamp. Tuttavia, il rilevamento automatico dello schema non rileva questo caso. considera il valore come un tipo numerico o stringa.
Esempi di valori di timestamp dell'epoca Unix:
- 1534680695
- 1,534680695e11
Array (campo ripetuto). Il valore deve essere un array JSON o null
. JSON
null
viene convertito in SQL NULL
. L'array stesso non può contenere valori null
.
Rilevamento automatico dello schema
In questa sezione viene descritto il comportamento rilevamento automatico dello schema durante il caricamento di file JSON.
Campi JSON nidificati e ripetuti
BigQuery deduce i campi nidificati e ripetuti nei file JSON. Se
è un oggetto JSON, BigQuery carica la colonna come
Tipo di RECORD
. Se il valore di un campo è un array, BigQuery carica
la colonna come colonna ripetuta. Per un esempio di dati JSON con elementi
di dati ripetuti, consulta
Caricamento di dati JSON nidificati e ripetuti.
Conversione di stringhe
Se abiliti il rilevamento automatico dello schema, BigQuery converte
stringhe in tipi booleani, numerici o di data/ora, se possibile. Ad esempio,
utilizzando i seguenti dati JSON, il rilevamento automatico dello schema converte il campo id
in una colonna INTEGER
:
{ "name":"Alice","id":"12"}
{ "name":"Bob","id":"34"}
{ "name":"Charles","id":"45"}
Tipi di codifica
BigQuery si aspetta che i dati JSON siano codificati in UTF-8. Se hai file JSON con altri tipi di codifica supportati, devi specificare esplicitamente la codifica utilizzando il flag --encoding
in modo che BigQuery converta i dati in UTF-8.
BigQuery supporta i seguenti tipi di codifica per i file JSON:
- UTF-8
- ISO-8859-1
- UTF-16BE (UTF-16 Big Endian)
- UTF-16LE (UTF-16 Little Endian)
- UTF-32BE (UTF-32 Big Endian)
- UTF-32LE (UTF-32 Little Endian)
Opzioni JSON
Per modificare il modo in cui BigQuery analizza i dati JSON, specifica opzioni aggiuntive nella console Google Cloud, nello strumento a riga di comando bq, nell'API o nelle librerie client.
Opzione JSON | Opzione della console | Flag dello strumento bq | Proprietà API BigQuery | Descrizione |
---|---|---|---|---|
Numero di record errati consentiti | Numero di errori consentiti | --max_bad_records |
maxBadRecords
(Java,
Python)
|
(Facoltativo) Il numero massimo di record non validi che BigQuery può da ignorare quando esegui il job. Se il numero di record non validi supera questo valore, nel risultato del job viene restituito un errore non valido. Il valore predefinito è "0", il che richiede che tutti i record siano validi. |
Valori sconosciuti | Ignora valori sconosciuti | --ignore_unknown_values |
ignoreUnknownValues
(Java,
Python)
|
(Facoltativo) Indica se BigQuery deve consentire valori aggiuntivi che non sono rappresentati nello schema della tabella. Se true, i valori aggiuntivi vengono ignorati. Se il valore è false, i record con colonne aggiuntive vengono considerati non validi. record; se sono presenti troppi record non validi, viene restituito un errore non valido restituito nel risultato del job. Il valore predefinito è false. Il formato "sourceFormat" determina quello che BigQuery considera un valore aggiuntivo: CSV: colonne finali, JSON: valori denominati che non corrispondono ad alcuna colonna i nomi degli utenti. |
Codifica | Nessuno | -E o --encoding |
encoding
(Python) |
(Facoltativo) La codifica dei caratteri dei dati. I valori supportati sono UTF-8, ISO-8859-1, UTF-16BE, UTF-16LE, UTF-32BE o UTF-32LE. Il valore predefinito è UTF-8. |
Passaggi successivi
- Per informazioni sul caricamento dei dati JSON da un file locale, consulta Caricare i dati da file locali.
- Per ulteriori informazioni su come creare, importare e eseguire query sui dati JSON, consulta Utilizzo dei dati JSON in GoogleSQL.