Visualizzazione TABLE_OPTIONS

La vista INFORMATION_SCHEMA.TABLE_OPTIONS contiene una riga per ogni opzione, per ogni tabella o visualizzazione in un set di dati. Le viste TABLES e TABLE_OPTIONS contengono anche informazioni generali sulle viste. Per informazioni dettagliate, esegui una query sulla visualizzazione INFORMATION_SCHEMA.VIEWS.

Autorizzazioni obbligatorie

Per eseguire query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, devi disporre delle seguenti autorizzazioni IAM (Identity and Access Management):

  • bigquery.tables.get
  • bigquery.tables.list
  • bigquery.routines.get
  • bigquery.routines.list

Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni precedenti:

  • roles/bigquery.admin
  • roles/bigquery.dataViewer
  • roles/bigquery.metadataViewer

Per ulteriori informazioni sulle autorizzazioni BigQuery, consulta Controllo dell'accesso con IAM.

Schema

Quando esegui una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, i risultati della query contengono una riga per ogni opzione, per ogni tabella o visualizzazione in un set di dati. Per informazioni dettagliate sulle viste, esegui una query sulla vista INFORMATION_SCHEMA.VIEWS.

La vista INFORMATION_SCHEMA.TABLE_OPTIONS ha il seguente schema:

Nome colonna Tipo di dati Valore
TABLE_CATALOG STRING L'ID del progetto che contiene il set di dati
TABLE_SCHEMA STRING Il nome del set di dati che contiene la tabella o la vista, indicato anche come datasetId
TABLE_NAME STRING Il nome della tabella o della vista indicato anche come tableId
OPTION_NAME STRING Uno dei valori del nome nella tabella delle opzioni
OPTION_TYPE STRING Uno dei valori del tipo di dati nella tabella delle opzioni
OPTION_VALUE STRING Una delle opzioni dei valori nella tabella delle opzioni
Tabella delle opzioni

OPTION_NAME

OPTION_TYPE

OPTION_VALUE

description

STRING

Una descrizione della tabella

enable_refresh

BOOL

Indica se l'aggiornamento automatico è abilitato per una vista materializzata

expiration_timestamp

TIMESTAMP

L'ora di scadenza di questa tabella

friendly_name

STRING

Il nome descrittivo della tabella

kms_key_name

STRING

Il nome della chiave Cloud KMS utilizzata per criptare la tabella

labels

ARRAY<STRUCT<STRING, STRING>>

Un array di STRUCT che rappresentano le etichette nella tabella

partition_expiration_days

FLOAT64

La durata predefinita, in giorni, di tutte le partizioni di una tabella partizionata

refresh_interval_minutes

FLOAT64

Frequenza di aggiornamento di una vista materializzata

require_partition_filter

BOOL

Se le query sulla tabella richiedono un filtro di partizione

tags

ARRAY<STRUCT<STRING, STRING>>

Tag collegati a una tabella con una sintassi <chiave, valore> con spazio dei nomi. Per ulteriori informazioni, consulta Tag e accesso condizionale.

Per le tabelle esterne, sono possibili le seguenti opzioni:

Opzioni
allow_jagged_rows

BOOL

Se true, consenti le righe in cui mancano le colonne finali facoltative.

Si applica ai dati CSV.

allow_quoted_newlines

BOOL

Se true, consenti le sezioni di dati tra virgolette che contengono caratteri di nuova riga nel file.

Si applica ai dati CSV.

bigtable_options

STRING

Obbligatorio solo quando crei una tabella esterna di Bigtable.

Specifica lo schema della tabella esterna di Bigtable in formato JSON.

Per un elenco delle opzioni di definizione delle tabelle Bigtable, consulta BigtableOptions nel riferimento dell'API REST.

column_name_character_map

STRING

Definisce l'ambito dei caratteri supportati per i nomi delle colonne e il comportamento di gestione dei caratteri non supportati.

I valori supportati includono:

compression

STRING

Il tipo di compressione dell'origine dati. I valori supportati includono: GZIP. Se non specificato, l'origine dati è decompressa.

Si applica ai dati CSV e JSON.

decimal_target_types

ARRAY<STRING>

Determina come convertire un tipo Decimal. Equivalente a ExternalDataConfiguration.decimal_target_types

Esempio: ["NUMERIC", "BIGNUMERIC"].

description

STRING

Una descrizione di questa tabella.

enable_list_inference

BOOL

Se true, utilizza l'inferenza dello schema specifica per il tipo logico Parquet LIST.

Si applica ai dati Parquet.

enable_logical_types

BOOL

Se true, converti i tipi logici Avro nei tipi SQL corrispondenti. Per maggiori informazioni, consulta Tipi logici.

Si applica ai dati Avro.

encoding

STRING

La codifica dei caratteri dei dati. I valori supportati includono: UTF8 (o UTF-8), ISO_8859_1 (o ISO-8859-1).

Si applica ai dati CSV.

enum_as_string

BOOL

Se true, deduci il tipo logico Parquet ENUM come STRING anziché BYTES per impostazione predefinita.

Si applica ai dati Parquet.

expiration_timestamp

TIMESTAMP

L'ora di scadenza della tabella. Se non specificata, la tabella non scade.

Esempio: "2025-01-01 00:00:00 UTC".

field_delimiter

STRING

Il separatore per i campi di un file CSV.

Si applica ai dati CSV.

format

STRING

Il formato dei dati esterni. I valori supportati per CREATE EXTERNAL TABLE includono: AVRO, CLOUD_BIGTABLE, CSV, DATASTORE_BACKUP, DELTA_LAKE (anteprima), GOOGLE_SHEETS, NEWLINE_DELIMITED_JSON (o JSON), ORC, PARQUET.

I valori supportati per LOAD DATA includono: AVRO, CSV, DELTA_LAKE (anteprima) NEWLINE_DELIMITED_JSON (o JSON), ORC, PARQUET.

Il valore JSON equivale a NEWLINE_DELIMITED_JSON.

hive_partition_uri_prefix

STRING

Prefisso comune per tutti gli URI di origine prima dell'inizio della codifica della chiave di partizione. Si applica solo alle tabelle esterne partizionate in hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

Esempio: "gs://bucket/path".

file_set_spec_type

STRING

Specifica come interpretare gli URI di origine per i job di caricamento e le tabelle esterne. In anteprima.

I valori supportati includono:

  • FILE_SYSTEM_MATCH. Espande gli URI di origine elencando i file dell'archivio oggetti. Questo è il comportamento predefinito se FileSetSpecType non è impostato.
  • NEW_LINE_DELIMITED_MANIFEST. Indica che gli URI forniti sono file manifest delimitati da nuova riga, con un URI per riga. Gli URI con caratteri jolly non sono supportati nei file manifest.

Ad esempio, se hai un URI di origine "gs://bucket/path/file" e il valore file_set_spec_type è FILE_SYSTEM_MATCH, il file viene utilizzato direttamente come file di dati. Se file_set_spec_type è NEW_LINE_DELIMITED_MANIFEST, ogni riga del file è interpretata come un URI che punta a un file di dati.

ignore_unknown_values

BOOL

Se true, ignora i valori aggiuntivi che non sono rappresentati nello schema della tabella, senza restituire un errore.

Si applica ai dati CSV e JSON.

json_extension

STRING

Per i dati JSON, indica un particolare formato di interscambio JSON. Se non specificato, BigQuery legge i dati come record JSON generici.

I valori supportati includono:
GEOJSON. Dati GeoJSON delimitato da nuova riga. Per maggiori informazioni, consulta Creazione di una tabella esterna da un file GeoJSON delimitato da nuova riga.

max_bad_records

INT64

Il numero massimo di record non validi da ignorare durante la lettura dei dati.

Si applica a: dati CSV, JSON e Fogli Google.

max_staleness

INTERVAL

Applicabile per tabelle BigLake e tabelle di oggetti.

Specifica se i metadati memorizzati nella cache vengono utilizzati dalle operazioni sulla tabella e se devono essere aggiornati per consentire all'operazione di utilizzarli.

Per disabilitare la memorizzazione nella cache dei metadati, specifica 0. Questa è l'impostazione predefinita.

Per abilitare la memorizzazione nella cache dei metadati, specifica un valore di valore letterale intervallo compreso tra 30 minuti e 7 giorni. Ad esempio, specifica INTERVAL 4 HOUR per un intervallo di inattività di 4 ore. Con questo valore, le operazioni sulla tabella utilizzano i metadati memorizzati nella cache se sono stati aggiornati nelle ultime 4 ore. Se i metadati memorizzati nella cache sono precedenti, l'operazione utilizza il recupero dei metadati da Cloud Storage.

null_marker

STRING

La stringa che rappresenta i valori NULL in un file CSV.

Si applica ai dati CSV.

object_metadata

STRING

Obbligatorio solo quando si crea una tabella di oggetti.

Imposta il valore di questa opzione su SIMPLE quando crei una tabella di oggetti.

preserve_ascii_control_characters

BOOL

Se true, i caratteri di controllo ASCII incorporati che sono i primi 32 caratteri nella tabella ASCII, compresi tra "\x00" e "\x1F", vengono conservati.

Si applica ai dati CSV.

projection_fields

STRING

Un elenco di proprietà delle entità da caricare.

Si applica ai dati Datastore.

quote

STRING

La stringa utilizzata per citare le sezioni di dati in un file CSV. Se i dati contengono caratteri di nuova riga tra virgolette, imposta anche la proprietà allow_quoted_newlines su true.

Si applica ai dati CSV.

reference_file_schema_uri

STRING

File di riferimento fornito dall'utente con lo schema della tabella.

Si applica ai dati Parquet/ORC/AVRO.

Esempio: "gs://bucket/path/reference_schema_file.parquet".

require_hive_partition_filter

BOOL

Se true, tutte le query su questa tabella richiedono un filtro di partizionamento che può essere utilizzato per eliminare le partizioni durante la lettura dei dati. Si applica solo alle tabelle esterne partizionate in hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

sheet_range

STRING

Intervallo di un foglio di lavoro di Fogli Google da cui eseguire le query.

Si applica ai dati di Fogli Google.

Esempio: "sheet1!A1:B20",

skip_leading_rows

INT64

Il numero di righe all'inizio di un file da saltare durante la lettura dei dati.

Si applica ai dati CSV e Fogli Google.

uris

Per le tabelle esterne, incluse le tabelle di oggetti, che non sono tabelle Bigtable:

ARRAY<STRING>

Un array di URI completi per le posizioni dei dati esterni. Ogni URI può contenere un asterisco (*) carattere jolly, che deve essere seguito dal nome del bucket. Se specifichi valori di uris che hanno come target più file, tutti questi file devono condividere uno schema compatibile.

I seguenti esempi mostrano valori uris validi:

  • ['gs://bucket/path1/myfile.csv']
  • ['gs://bucket/path1/*.csv']
  • ['gs://bucket/path1/*', 'gs://bucket/path2/file00*']

Per le tabelle Bigtable:

STRING

L'URI che identifica la tabella Bigtable da utilizzare come origine dati. Puoi specificare un solo URI Bigtable.

Esempio: https://googleapis.com/bigtable/projects/project_id/instances/instance_id[/appProfiles/app_profile]/tables/table_name

Per ulteriori informazioni sulla creazione di un URI Bigtable, consulta la pagina relativa al recupero dell'URI Bigtable.

Ambito e sintassi

Le query su questa vista devono includere un set di dati o un qualificatore di regione. Per le query con un qualificatore del set di dati, devi disporre delle autorizzazioni per il set di dati. Per le query con un qualificatore della regione, devi disporre delle autorizzazioni per il progetto. Per ulteriori informazioni, consulta la sezione Sintassi. La tabella seguente illustra gli ambiti delle risorse e delle regioni per questa vista:

Nome vista Ambito risorsa Ambito della regione
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.TABLE_OPTIONS Livello di progetto REGION
[PROJECT_ID.]DATASET_ID.INFORMATION_SCHEMA.TABLE_OPTIONS Livello del set di dati Posizione del set di dati
Sostituisci quanto segue:

Esempio

Esempio 1:

L'esempio seguente recupera i tempi di scadenza predefiniti delle tabelle per tutte le tabelle in mydataset nel progetto predefinito (myproject) eseguendo una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi l'ID progetto al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio, `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'expiration_timestamp';

Il risultato è simile al seguente:

  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | table_catalog  | table_schema  | table_name |     option_name      | option_type |             option_value             |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | myproject      | mydataset     | mytable1   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2020-01-16T21:12:28.000Z" |
  | myproject      | mydataset     | mytable2   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2021-01-01T21:12:28.000Z" |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  

Esempio 2:

L'esempio seguente recupera i metadati su tutte le tabelle in mydataset che contengono dati di test. La query utilizza i valori dell'opzione description per trovare le tabelle che contengono "test" in qualsiasi punto della descrizione. mydataset si trova nel progetto predefinito: myproject.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi l'ID progetto al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'description'
    AND option_value LIKE '%test%';

Il risultato è simile al seguente:

  +----------------+---------------+------------+-------------+-------------+--------------+
  | table_catalog  | table_schema  | table_name | option_name | option_type | option_value |
  +----------------+---------------+------------+-------------+-------------+--------------+
  | myproject      | mydataset     | mytable1   | description | STRING      | "test data"  |
  | myproject      | mydataset     | mytable2   | description | STRING      | "test data"  |
  +----------------+---------------+------------+-------------+-------------+--------------+