Visualizzazione TABLE_OPTIONS
La vista INFORMATION_SCHEMA.TABLE_OPTIONS
contiene una riga per ogni opzione,
per ogni tabella o vista in un set di dati. TABLES
e TABLE_OPTIONS
viste contengono anche informazioni generali sulle viste.
Per informazioni dettagliate, esegui una query
INFORMATION_SCHEMA.VIEWS
.
Autorizzazioni obbligatorie
Per eseguire una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS
, è necessario quanto segue
Autorizzazioni IAM (Identity and Access Management):
bigquery.tables.get
bigquery.tables.list
bigquery.routines.get
bigquery.routines.list
Ciascuno dei seguenti ruoli IAM predefiniti include autorizzazioni:
roles/bigquery.admin
roles/bigquery.dataViewer
roles/bigquery.metadataViewer
Per ulteriori informazioni sulle autorizzazioni BigQuery, consulta Controllo dell'accesso con IAM.
Schema
Quando esegui una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS
, i risultati
Deve contenere una riga per ogni opzione, per ogni tabella o vista in un set di dati. Per
informazioni dettagliate su
query, esegui una query
INFORMATION_SCHEMA.VIEWS
visualizzazione
.
La vista INFORMATION_SCHEMA.TABLE_OPTIONS
ha il seguente schema:
Nome colonna | Tipo di dati | Valore |
---|---|---|
TABLE_CATALOG |
STRING |
L'ID del progetto che contiene il set di dati |
TABLE_SCHEMA |
STRING |
Indica il nome del set di dati che contiene la tabella o la vista
come datasetId |
TABLE_NAME |
STRING |
Il nome della tabella o della vista indicato anche come tableId |
OPTION_NAME |
STRING |
Uno dei valori del nome nella tabella delle opzioni |
OPTION_TYPE |
STRING |
Uno dei valori del tipo di dati nella tabella delle opzioni |
OPTION_VALUE |
STRING |
Una delle opzioni dei valori nella tabella delle opzioni |
Tabella delle opzioni
|
|
|
---|---|---|
|
|
Una descrizione della tabella |
|
|
Indica se l'aggiornamento automatico è abilitato per una vista materializzata |
|
|
L'ora di scadenza di questa tabella |
|
|
Il nome descrittivo della tabella |
|
|
Il nome della chiave Cloud KMS utilizzata per criptare la tabella |
|
|
Un array di STRUCT che rappresentano le etichette nella
tavola |
|
|
La durata predefinita, in giorni, di tutte le partizioni in un tavola |
|
|
Frequenza di aggiornamento di una vista materializzata |
|
|
Se le query sulla tabella richiedono un filtro di partizione |
|
|
Tag collegati a una tabella in un <key, value> con spazio dei nomi a riga di comando. Per ulteriori informazioni, vedi Tag e dell'accesso condizionale. |
Per le tabelle esterne, sono possibili le seguenti opzioni:
Opzioni | |
---|---|
allow_jagged_rows |
Se Si applica ai dati CSV. |
allow_quoted_newlines |
Se Si applica ai dati CSV. |
bigtable_options |
Obbligatorio solo quando crei un oggetto esterno Bigtable tabella. Specifica lo schema della tabella esterna di Bigtable in formato JSON. Per un elenco delle opzioni di definizione delle tabelle Bigtable, consulta
|
column_name_character_map |
Definisce l'ambito dei caratteri supportati per i nomi delle colonne e la del comportamento di gestione dei caratteri non supportati. I valori supportati includono:
Si applica ai dati CSV e Parquet. |
compression |
Il tipo di compressione dell'origine dati. I valori supportati includono:
Si applica ai dati CSV e JSON. |
decimal_target_types |
Determina come convertire un tipo Esempio: |
description |
Una descrizione di questa tabella. |
enable_list_inference |
Se Si applica ai dati Parquet. |
enable_logical_types |
Se Si applica ai dati Avro. |
encoding |
La codifica dei caratteri dei dati. I valori supportati includono:
Si applica ai dati CSV. |
enum_as_string |
Se Si applica ai dati Parquet. |
expiration_timestamp |
L'ora di scadenza della tabella. Se non specificata, la tabella non scadono. Esempio: |
field_delimiter |
Il separatore per i campi di un file CSV. Si applica ai dati CSV. |
format |
Il formato dei dati esterni.
Valori supportati per
Valori supportati per
Il valore |
hive_partition_uri_prefix |
Un prefisso comune per tutti gli URI di origine prima della codifica della chiave di partizione l'avvio delle operazioni. Si applica solo alle tabelle esterne partizionate in hive. Si applica ai dati Avro, CSV, JSON, Parquet e ORC. Esempio: |
file_set_spec_type |
Specifica come interpretare gli URI di origine per i job di caricamento e le tabelle esterne. I valori supportati includono:
Ad esempio, se hai un URI di origine |
ignore_unknown_values |
Se Si applica ai dati CSV e JSON. |
json_extension |
Per i dati JSON, indica un particolare formato di interscambio JSON. Se non specificato, BigQuery legge i dati come JSON generico record. I valori supportati includono: |
max_bad_records |
Il numero massimo di record non validi da ignorare durante la lettura dei dati. Si applica a: dati CSV, JSON e Fogli Google. |
max_staleness |
Applicabile per Tavoli BigLake e tabelle di oggetti. Specifica se i metadati memorizzati nella cache vengono utilizzati dalle operazioni rispetto alla e il grado di attualità dei metadati memorizzati nella cache per l'operazione per utilizzarlo. Per disabilitare la memorizzazione nella cache dei metadati, specifica 0. Questa è l'impostazione predefinita. Per abilitare la memorizzazione nella cache dei metadati, specifica
valore letterale intervallo
compreso tra 30 minuti e 7 giorni. Ad esempio, specifica
|
null_marker |
La stringa che rappresenta i valori Si applica ai dati CSV. |
object_metadata |
Obbligatorio solo quando crei un'istanza tabella degli oggetti. Imposta il valore di questa opzione su |
preserve_ascii_control_characters |
Se Si applica ai dati CSV. |
projection_fields |
Un elenco di proprietà delle entità da caricare. Si applica ai dati Datastore. |
quote |
La stringa utilizzata per citare le sezioni di dati in un file CSV. Se i tuoi dati
contiene caratteri di nuova riga tra virgolette, imposta anche
Si applica ai dati CSV. |
reference_file_schema_uri |
File di riferimento fornito dall'utente con lo schema della tabella. Si applica ai dati Parquet/ORC/AVRO. Esempio: |
require_hive_partition_filter |
Se Si applica ai dati Avro, CSV, JSON, Parquet e ORC. |
sheet_range |
Intervallo di un foglio di lavoro di Fogli Google da cui eseguire le query. Si applica ai dati di Fogli Google. Esempio: |
skip_leading_rows |
Il numero di righe all'inizio di un file da saltare durante la lettura dell'attributo e i dati di Google Cloud. Si applica ai dati CSV e Fogli Google. |
uris |
Per le tabelle esterne, incluse le tabelle di oggetti, che non sono Tabelle Bigtable:
Un array di URI completi per le posizioni dei dati esterni.
Ogni URI può contenere
asterisco ( I seguenti esempi mostrano valori
Per le tabelle Bigtable:
L'URI che identifica la tabella Bigtable da utilizzare come origine dati. Puoi specificare un solo URI Bigtable. Esempio:
Per ulteriori informazioni sulla creazione di una Bigtable URI, consulta Recupero dell'URI Bigtable. |
Ambito e sintassi
Le query su questa vista devono includere un set di dati o un qualificatore di regione. Per con un qualificatore del set di dati, devi disporre delle autorizzazioni per il set di dati. Per le query con un qualificatore della regione, devi disporre delle autorizzazioni per il progetto. Per maggiori informazioni per le informazioni, consulta Sintassi. La tabella seguente illustra gli ambiti delle risorse e delle regioni per questa vista:
Nome vista | Ambito risorsa | Ambito della regione |
---|---|---|
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.TABLE_OPTIONS |
Livello di progetto | REGION |
[PROJECT_ID.]DATASET_ID.INFORMATION_SCHEMA.TABLE_OPTIONS |
Livello del set di dati | Posizione del set di dati |
- (Facoltativo)
PROJECT_ID
: l'ID del tuo progetto Google Cloud. Se non specificato, viene utilizzato il progetto predefinito. REGION
: qualsiasi nome della regione del set di dati. Ad esempio:region-us
.DATASET_ID
: l'ID del set di dati. Per maggiori informazioni consulta la sezione Qualificatore del set di dati.
Esempio
Esempio 1:
L'esempio seguente recupera i tempi di scadenza predefiniti per le tabelle
in mydataset
nel tuo progetto predefinito (myproject
) eseguendo una query
INFORMATION_SCHEMA.TABLE_OPTIONS
visualizzazione.
Per eseguire la query su un progetto diverso da quello predefinito, aggiungi
al set di dati nel seguente formato:
`project_id`.dataset.INFORMATION_SCHEMA.view
;
ad esempio `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
.
SELECT * FROM mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS WHERE option_name = 'expiration_timestamp';
Il risultato è simile al seguente:
+----------------+---------------+------------+----------------------+-------------+--------------------------------------+ | table_catalog | table_schema | table_name | option_name | option_type | option_value | +----------------+---------------+------------+----------------------+-------------+--------------------------------------+ | myproject | mydataset | mytable1 | expiration_timestamp | TIMESTAMP | TIMESTAMP "2020-01-16T21:12:28.000Z" | | myproject | mydataset | mytable2 | expiration_timestamp | TIMESTAMP | TIMESTAMP "2021-01-01T21:12:28.000Z" | +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
Esempio 2:
L'esempio seguente recupera i metadati su tutte le tabelle in mydataset
che
che contengono dati di test. La query utilizza i valori dell'opzione description
per trovare
tabelle che contengono "test" in qualsiasi punto della descrizione. mydataset
è in
progetto predefinito: myproject
.
Per eseguire la query su un progetto diverso da quello predefinito, aggiungi
al set di dati nel seguente formato:
`project_id`.dataset.INFORMATION_SCHEMA.view
;
ad esempio
`myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
.
SELECT * FROM mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS WHERE option_name = 'description' AND option_value LIKE '%test%';
Il risultato è simile al seguente:
+----------------+---------------+------------+-------------+-------------+--------------+ | table_catalog | table_schema | table_name | option_name | option_type | option_value | +----------------+---------------+------------+-------------+-------------+--------------+ | myproject | mydataset | mytable1 | description | STRING | "test data" | | myproject | mydataset | mytable2 | description | STRING | "test data" | +----------------+---------------+------------+-------------+-------------+--------------+