Visualizzazione TABLE_OPTIONS

La visualizzazione INFORMATION_SCHEMA.TABLE_OPTIONS contiene una riga per ogni opzione, per ogni tabella o visualizzazione in un set di dati. TABLES e TABLE_OPTIONS viste contengono anche informazioni generali sulle viste. Per informazioni dettagliate, esegui una query sulla vista INFORMATION_SCHEMA.VIEWS.

Autorizzazioni obbligatorie

Per eseguire query sulla visualizzazione INFORMATION_SCHEMA.TABLE_OPTIONS, devi disporre delle seguenti autorizzazioni IAM (Gestione di identità e accessi):

  • bigquery.tables.get
  • bigquery.tables.list
  • bigquery.routines.get
  • bigquery.routines.list

Ciascuno dei seguenti ruoli IAM predefiniti include autorizzazioni:

  • roles/bigquery.admin
  • roles/bigquery.dataViewer
  • roles/bigquery.metadataViewer

Per ulteriori informazioni sulle autorizzazioni BigQuery, consulta Controllo dell'accesso con IAM.

Schema

Quando esegui una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, i risultati della query contengono una riga per ogni opzione, per ogni tabella o vista in un set di dati. Per informazioni dettagliate su query, esegui una query INFORMATION_SCHEMA.VIEWS visualizzazione .

La vista INFORMATION_SCHEMA.TABLE_OPTIONS ha lo schema seguente:

Nome colonna Tipo di dati Valore
TABLE_CATALOG STRING L'ID del progetto che contiene il set di dati
TABLE_SCHEMA STRING Il nome del set di dati che contiene la tabella o la vista, chiamato anche datasetId
TABLE_NAME STRING Il nome della tabella o della visualizzazione, chiamato anche tableId
OPTION_NAME STRING Uno dei valori di nome nella tabella delle opzioni
OPTION_TYPE STRING Uno dei valori del tipo di dati nella tabella delle opzioni
OPTION_VALUE STRING Una delle opzioni di valore nella tabella delle opzioni
Tabella delle opzioni

OPTION_NAME

OPTION_TYPE

OPTION_VALUE

description

STRING

Una descrizione della tabella

enable_refresh

BOOL

Indica se l'aggiornamento automatico è abilitato per una vista materializzata

expiration_timestamp

TIMESTAMP

L'ora di scadenza di questa tabella

friendly_name

STRING

Il nome descrittivo della tabella

kms_key_name

STRING

Il nome della chiave Cloud KMS utilizzata per criptare la tabella

labels

ARRAY<STRUCT<STRING, STRING>>

Un array di STRUCT che rappresentano le etichette nella tavola

partition_expiration_days

FLOAT64

La durata predefinita, in giorni, di tutte le partizioni in un tavola

refresh_interval_minutes

FLOAT64

La frequenza di aggiornamento di una vista materializzata

require_partition_filter

BOOL

Se le query sulla tabella richiedono un filtro di partizione

tags

ARRAY<STRUCT<STRING, STRING>>

Tag associati a una tabella in una sintassi <key, value> con spazio dei nomi. Per ulteriori informazioni, vedi Tag e dell'accesso condizionale.

Per le tabelle esterne, sono possibili le seguenti opzioni:

Opzioni
allow_jagged_rows

BOOL

Se true, consenti le righe mancanti alla fine facoltative colonne.

Si applica ai dati CSV.

allow_quoted_newlines

BOOL

Se true, consenti le sezioni di dati tra virgolette che contengono nuova riga caratteri nel file.

Si applica ai dati CSV.

bigtable_options

STRING

Obbligatorio solo quando crei un oggetto esterno Bigtable tabella.

Specifica lo schema della tabella esterna di Bigtable in formato JSON.

Per un elenco delle opzioni di definizione della tabella Bigtable, consulta BigtableOptions nel riferimento all'API REST.

column_name_character_map

STRING

Definisce l'ambito dei caratteri supportati per i nomi colonna e la modalità di gestione dei caratteri non supportati. L'impostazione predefinita è STRICT, il che significa che i caratteri non supportati causano BigQuery per generare errori. V1 e V2 sostituiscono i caratteri non supportati con trattini bassi.

I valori supportati includono:

  • STRICT. Attiva i nomi delle colonne flessibili. Questo è il valore predefinito. Job di caricamento con caratteri non supportati nella colonna dei nomi non funziona e viene visualizzato un messaggio di errore. Per configurare la sostituzione di caratteri non supportati con trattini bassi affinché il job di caricamento abbia esito positivo, specificare default_column_name_character_map configurazione di configurazione.
  • V1. I nomi di colonna possono contenere solo caratteri standard dei nomi delle colonne. I caratteri non supportati vengono sostituiti con trattini bassi. Questo è il comportamento predefinito per le tabelle create prima del introduzione di column_name_character_map.
  • V2. Inoltre caratteri standard per i nomi di colonna, supporta anche nomi flessibili delle colonne. I caratteri non supportati vengono sostituiti con trattini bassi.
  • Si applica ai dati CSV e Parquet.

compression

STRING

Il tipo di compressione dell'origine dati. I valori supportati includono: GZIP. Se non viene specificato, l'origine dati non è compressa.

Si applica ai dati CSV e JSON.

decimal_target_types

ARRAY<STRING>

Determina come convertire un tipo Decimal. Equivalente a ExternalDataConfiguration.decimal_target_types

Esempio: ["NUMERIC", "BIGNUMERIC"].

description

STRING

Una descrizione di questa tabella.

enable_list_inference

BOOL

Se true, utilizza l'inferenza dello schema specificamente per Tipo logico LISTA Parquet.

Si applica ai dati Parquet.

enable_logical_types

BOOL

Se true, converti i tipi logici Avro nei rispettivi tipi SQL. Per ulteriori informazioni, consulta Tipi logici.

Si applica ai dati Avro.

encoding

STRING

La codifica dei caratteri dei dati. I valori supportati includono: UTF8 (o UTF-8), ISO_8859_1 (o ISO-8859-1).

Si applica ai dati CSV.

enum_as_string

BOOL

Se true, deduce il tipo logico Parquet ENUM come STRING anziché BYTES per impostazione predefinita.

Si applica ai dati Parquet.

expiration_timestamp

TIMESTAMP

L'ora di scadenza della tabella. Se non è specificato, la tabella non scade.

Esempio: "2025-01-01 00:00:00 UTC".

field_delimiter

STRING

Il separatore per i campi di un file CSV.

Si applica ai dati CSV.

format

STRING

Il formato dei dati esterni. I valori supportati per CREATE EXTERNAL TABLE includono: AVRO, CLOUD_BIGTABLE, CSV, DATASTORE_BACKUP, DELTA_LAKE (anteprima), GOOGLE_SHEETS, NEWLINE_DELIMITED_JSON (o JSON), ORC, PARQUET.

I valori supportati per LOAD DATA sono: AVRO, CSV, DELTA_LAKE (anteprima) NEWLINE_DELIMITED_JSON (o JSON), ORC, PARQUET.

Il valore JSON equivale a NEWLINE_DELIMITED_JSON.

hive_partition_uri_prefix

STRING

Un prefisso comune per tutti gli URI di origine prima della codifica della chiave di partizione l'avvio delle operazioni. Si applica solo alle tabelle esterne partizionate in hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

Esempio: "gs://bucket/path".

file_set_spec_type

STRING

Specifica come interpretare gli URI di origine per i job di caricamento e le tabelle esterne.

I valori supportati includono:

  • FILE_SYSTEM_MATCH. Espande gli URI di origine elencando i file dall'object store. Questo è il comportamento predefinito se FileSetSpecType non è impostato.
  • NEW_LINE_DELIMITED_MANIFEST. Indica che gli URI forniti sono file manifest delimitati da riga nuova, con un URI per riga. Gli URI con caratteri jolly non sono supportati nei file manifest e tutti i file di dati a cui viene fatto riferimento devono trovarsi nello stesso bucket del file manifest.

Ad esempio, se hai un URI di origine "gs://bucket/path/file" e file_set_spec_type è FILE_SYSTEM_MATCH, il file viene utilizzato direttamente come file di dati. Se file_set_spec_type è NEW_LINE_DELIMITED_MANIFEST, ogni riga del file viene interpretata come un URI che rimanda a un file di dati.

ignore_unknown_values

BOOL

Se true, ignora i valori aggiuntivi che non sono rappresentati. nello schema della tabella, senza restituire un errore.

Si applica ai dati CSV e JSON.

json_extension

STRING

Per i dati JSON, indica un particolare formato di interscambio JSON. Se non viene specificato, BigQuery legge i dati come record JSON generici.

I valori supportati includono:
GEOJSON. Dati GeoJSON delimitato da nuova riga. Per ulteriori informazioni, consulta Creare una tabella esterna da un file GeoJSON delimitato da nuova riga.

max_bad_records

INT64

Il numero massimo di record errati da ignorare durante la lettura dei dati.

Si applica a: dati CSV, JSON e di Fogli Google.

max_staleness

INTERVAL

Applicabile per tabelle BigLake e tabelle degli oggetti.

Specifica se i metadati memorizzati nella cache vengono utilizzati dalle operazioni rispetto alla e il livello di attualità dei metadati memorizzati nella cache per l'operazione per utilizzarlo.

Per disabilitare la memorizzazione nella cache dei metadati, specifica 0. Questa è l'impostazione predefinita.

Per abilitare la memorizzazione nella cache dei metadati, specifica valore letterale intervallo compreso tra 30 minuti e 7 giorni. Ad esempio, specifica INTERVAL 4 HOUR per un intervallo di inattività di 4 ore. Con questo valore, le operazioni sulla tabella utilizzano i metadati memorizzati nella cache se è stato aggiornato nelle ultime 4 ore. Se i metadati memorizzati nella cache sono precedenti a questa data, l'operazione ricorre al recupero dei metadati da Cloud Storage.

null_marker

STRING

La stringa che rappresenta i valori NULL in un file CSV.

Si applica ai dati CSV.

object_metadata

STRING

Obbligatorio solo per la creazione di una tabella di oggetti.

Imposta il valore di questa opzione su SIMPLE quando la creazione di una tabella di oggetti.

preserve_ascii_control_characters

BOOL

Se true, i caratteri di controllo ASCII incorporati che corrispondono ai primi 32 caratteri della tabella ASCII, "\x00" a '\x1F', vengono conservati.

Si applica ai dati CSV.

projection_fields

STRING

Un elenco di proprietà delle entità da caricare.

Si applica ai dati di Datastore.

quote

STRING

La stringa utilizzata per citare le sezioni di dati in un file CSV. Se i dati contengono caratteri di a capo tra virgolette, imposta anche la proprietà allow_quoted_newlines su true.

Si applica ai dati CSV.

reference_file_schema_uri

STRING

File di riferimento fornito dall'utente con lo schema della tabella.

Si applica ai dati Parquet/ORC/AVRO.

Esempio: "gs://bucket/path/reference_schema_file.parquet".

require_hive_partition_filter

BOOL

Se true, tutte le query su questa tabella richiedono una partizione che può essere utilizzato per eliminare le partizioni durante la lettura dei dati. Si applica solo alle tabelle esterne partizionate Hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

sheet_range

STRING

Intervallo di un foglio di lavoro di Fogli Google da cui eseguire la query.

Si applica ai dati di Fogli Google.

Esempio: "sheet1!A1:B20",

skip_leading_rows

INT64

Il numero di righe all'inizio di un file da saltare durante la lettura dell'attributo e i dati di Google Cloud.

Si applica ai dati CSV e di Fogli Google.

uris

Per le tabelle esterne, incluse le tabelle di oggetti, che non sono Tabelle Bigtable:

ARRAY<STRING>

Un array di URI completi per le posizioni dei dati esterni. Ogni URI può contenere un asterisco (*) carattere jolly, che deve essere successivo al nome del bucket. Se specifichi uris valori che hanno come target più file, tutti questi i file devono condividere uno schema compatibile.

I seguenti esempi mostrano valori uris validi:

  • ['gs://bucket/path1/myfile.csv']
  • ['gs://bucket/path1/*.csv']
  • ['gs://bucket/path1/*', 'gs://bucket/path2/file00*']

Per le tabelle Bigtable:

STRING

L'URI che identifica la tabella Bigtable da utilizzare come origine dati. Puoi specificare un solo URI Bigtable.

Esempio: https://googleapis.com/bigtable/projects/project_id/instances/instance_id[/appProfiles/app_profile]/tables/table_name

Per ulteriori informazioni sulla creazione di un URI Bigtable, consulta Recupero dell'URI Bigtable.

Ambito e sintassi

Le query su questa vista devono includere un set di dati o un qualificatore di regione. Per le query con un qualificatore del set di dati, devi disporre delle autorizzazioni per il set di dati. Per le query con un qualificatore regione, devi disporre delle autorizzazioni per il progetto. Per ulteriori informazioni, consulta la sezione Sintassi. La tabella seguente illustra gli ambiti delle risorse e delle regioni per questa vista:

Nome vista Ambito risorsa Ambito della regione
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.TABLE_OPTIONS Livello progetto REGION
[PROJECT_ID.]DATASET_ID.INFORMATION_SCHEMA.TABLE_OPTIONS Livello del set di dati Posizione del set di dati
Sostituisci quanto segue:

  • Facoltativo: PROJECT_ID: l'ID del tuo progetto Google Cloud. Se non specificato, viene utilizzato il progetto predefinito.
+ REGION: qualsiasi nome della regione del set di dati. Ad esempio: region-us. + DATASET_ID: l'ID del set di dati. Per maggiori informazioni consulta la sezione Qualificatore del set di dati.

Esempio

Esempio 1:

L'esempio seguente recupera i tempi di scadenza predefiniti per le tabelle in mydataset nel tuo progetto predefinito (myproject) eseguendo una query INFORMATION_SCHEMA.TABLE_OPTIONS visualizzazione.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'expiration_timestamp';

Il risultato è simile al seguente:

  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | table_catalog  | table_schema  | table_name |     option_name      | option_type |             option_value             |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | myproject      | mydataset     | mytable1   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2020-01-16T21:12:28.000Z" |
  | myproject      | mydataset     | mytable2   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2021-01-01T21:12:28.000Z" |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  

Esempio 2:

L'esempio seguente recupera i metadati su tutte le tabelle in mydataset che che contengono dati di test. La query utilizza i valori dell'opzione description per trovare tabelle che contengono "test" in qualsiasi punto della descrizione. mydataset si trova nel progetto predefinito myproject.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'description'
    AND option_value LIKE '%test%';

Il risultato è simile al seguente:

  +----------------+---------------+------------+-------------+-------------+--------------+
  | table_catalog  | table_schema  | table_name | option_name | option_type | option_value |
  +----------------+---------------+------------+-------------+-------------+--------------+
  | myproject      | mydataset     | mytable1   | description | STRING      | "test data"  |
  | myproject      | mydataset     | mytable2   | description | STRING      | "test data"  |
  +----------------+---------------+------------+-------------+-------------+--------------+