Visualizzazione TABLE_OPTIONS

La vista INFORMATION_SCHEMA.TABLE_OPTIONS contiene una riga per ogni opzione, per ogni tabella o vista in un set di dati. Le viste TABLES e TABLE_OPTIONS contengono inoltre informazioni generali sulle viste. Per informazioni dettagliate, esegui una query sulla visualizzazione INFORMATION_SCHEMA.VIEWS.

Autorizzazioni obbligatorie

Per eseguire una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, devi disporre delle seguenti autorizzazioni IAM (Identity and Access Management):

  • bigquery.tables.get
  • bigquery.tables.list
  • bigquery.routines.get
  • bigquery.routines.list

Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni precedenti:

  • roles/bigquery.admin
  • roles/bigquery.dataViewer
  • roles/bigquery.metadataViewer

Per maggiori informazioni sulle autorizzazioni BigQuery, consulta Controllo dell'accesso con IAM.

Schema

Quando esegui una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, i risultati della query contengono una riga per ogni opzione, per ogni tabella o vista in un set di dati. Per informazioni dettagliate sulle viste, esegui invece una query sulla vista INFORMATION_SCHEMA.VIEWS.

La vista INFORMATION_SCHEMA.TABLE_OPTIONS ha il seguente schema:

Nome colonna Tipo di dati Valore
TABLE_CATALOG STRING L'ID del progetto che contiene il set di dati
TABLE_SCHEMA STRING Il nome del set di dati che contiene la tabella o la vista, denominata anche datasetId
TABLE_NAME STRING Il nome della tabella o della vista, denominato anche tableId
OPTION_NAME STRING Uno dei valori del nome nella tabella delle opzioni
OPTION_TYPE STRING Uno dei valori del tipo di dati nella tabella delle opzioni.
OPTION_VALUE STRING Una delle opzioni di valore nella tabella delle opzioni.
Tabella delle opzioni
OPTION_NAME OPTION_TYPE OPTION_VALUE
partition_expiration_days FLOAT64 La durata predefinita, in giorni, di tutte le partizioni in una tabella partizionata
expiration_timestamp TIMESTAMP L'ora di scadenza della tabella
kms_key_name STRING Il nome della chiave Cloud KMS utilizzata per criptare la tabella
friendly_name STRING Il nome descrittivo della tabella
description STRING Una descrizione della tabella
labels ARRAY<STRUCT<STRING, STRING>> Un array di STRUCT che rappresentano le etichette nella tabella
require_partition_filter BOOL Se le query sulla tabella richiedono un filtro di partizionamento
enable_refresh BOOL Indica se l'aggiornamento automatico è abilitato per una vista materializzata
refresh_interval_minutes FLOAT64 Frequenza di aggiornamento di una vista materializzata

Per le tabelle esterne, sono possibili le seguenti opzioni:

Opzioni
allow_jagged_rows

BOOL

Se true, consenti le righe che non hanno le colonne finali facoltative.

Si applica ai dati CSV.

allow_quoted_newlines

BOOL

Se true, consenti sezioni di dati tra virgolette che contengono caratteri di nuova riga nel file.

Si applica ai dati CSV.

bigtable_options

STRING

Richiesto solo quando si crea una tabella esterna Bigtable.

Specifica lo schema della tabella esterna Bigtable in formato JSON.

Per un elenco delle opzioni di definizione delle tabelle Bigtable, consulta BigtableOptions nel riferimento dell'API REST.

compression

STRING

Il tipo di compressione dell'origine dati. I valori supportati includono: GZIP. Se non specificata, l'origine dati non è compressa.

Si applica ai dati CSV e JSON.

decimal_target_types

ARRAY<STRING>

Determina come convertire un tipo di Decimal. Equivalente a ExternalDataConfiguration.decimal_target_types

Esempio: ["NUMERIC", "BIGNUMERIC"].

description

STRING

Una descrizione di questa tabella.

enable_list_inference

BOOL

Se true, utilizza l'inferenza dello schema specifica per il tipo logico LIST Parquet.

Si applica ai dati Parquet.

enable_logical_types

BOOL

Se true, converti i tipi logici Avro nei tipi SQL corrispondenti. Per maggiori informazioni, consulta Tipi logici.

Si applica ai dati Avro.

encoding

STRING

La codifica dei caratteri dei dati. I valori supportati includono: UTF8 (o UTF-8), ISO_8859_1 (o ISO-8859-1).

Si applica ai dati CSV.

enum_as_string

BOOL

Se true, deduce il tipo logico del Parquet ENUM come STRING anziché BYTES per impostazione predefinita.

Si applica ai dati Parquet.

expiration_timestamp

TIMESTAMP

L'ora di scadenza della tabella. Se non specificato, la tabella non ha scadenza.

Esempio: "2025-01-01 00:00:00 UTC".

field_delimiter

STRING

Il separatore per i campi in un file CSV.

Si applica ai dati CSV.

format

STRING

Il formato dei dati esterni. I valori supportati per CREATE EXTERNAL TABLE includono: AVRO, CLOUD_BIGTABLE, CSV, DATASTORE_BACKUP, DELTA_LAKE (anteprima), GOOGLE_SHEETS, NEWLINE_DELIMITED_JSON (o JSON), ORC e PARQUET.

I valori supportati per LOAD DATA includono: AVRO, CSV, DELTA_LAKE (anteprima) NEWLINE_DELIMITED_JSON (o JSON), ORC, PARQUET.

Il valore JSON equivale a NEWLINE_DELIMITED_JSON.

hive_partition_uri_prefix

STRING

Un prefisso comune per tutti gli URI di origine prima dell'inizio della codifica della chiave di partizione. Si applica solo alle tabelle esterne partizionate hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

Esempio: "gs://bucket/path".

file_set_spec_type

STRING

Specifica come interpretare gli URI di origine per i job di caricamento e le tabelle esterne. In anteprima.

I valori supportati includono:

  • FILE_SYSTEM_MATCH. Espande gli URI di origine elencando i file dell'archivio oggetti. Questo è il comportamento predefinito se non è impostato FileSetSpecType.
  • NEW_LINE_DELIMITED_MANIFEST. Indica che gli URI forniti sono file manifest delimitati da nuova riga, con un URI per riga. Gli URI con caratteri jolly non sono supportati nei file manifest.

Ad esempio, se hai un URI di origine di "gs://bucket/path/file" e file_set_spec_type è FILE_SYSTEM_MATCH, il file viene utilizzato direttamente come file di dati. Se file_set_spec_type è NEW_LINE_DELIMITED_MANIFEST, ogni riga del file viene interpretata come un URI che rimanda a un file di dati.

ignore_unknown_values

BOOL

Se true, ignora i valori aggiuntivi che non sono rappresentati nello schema della tabella, senza restituire un errore.

Si applica ai dati CSV e JSON.

json_extension

STRING

Per i dati JSON, indica un particolare formato di interscambio JSON. Se non specificato, BigQuery legge i dati come record JSON generici.

I valori supportati includono:
GEOJSON. Dati GeoJSON delimitati da nuova riga. Per saperne di più, consulta la pagina sulla creazione di una tabella esterna da un file GeoJSON delimitato da una nuova riga.

max_bad_records

INT64

Il numero massimo di record non validi da ignorare durante la lettura dei dati.

Si applica a: dati CSV, JSON e Fogli Google.

max_staleness

INTERVAL

Applicabile per tabelle BigLake e tabelle di oggetti.

Specifica se i metadati memorizzati nella cache vengono utilizzati dalle operazioni sulla tabella e la frequenza di aggiornamento dei metadati memorizzati nella cache affinché l'operazione li utilizzi.

Per disattivare la memorizzazione nella cache dei metadati, specifica 0. Questa è l'impostazione predefinita.

Per abilitare la memorizzazione nella cache dei metadati, specifica un valore letterale a intervalli compreso tra 30 minuti e 7 giorni. Ad esempio, specifica INTERVAL 4 HOUR per un intervallo di inattività di 4 ore. Con questo valore, le operazioni sulla tabella utilizzano i metadati memorizzati nella cache se la tabella è stata aggiornata nelle ultime 4 ore. Se i metadati memorizzati nella cache sono precedenti, l'operazione esegue invece il recupero dei metadati da Cloud Storage.

metadata_cache_mode

STRING

Applicabile per tabelle BigLake e tabelle di oggetti.

Specifica se la cache dei metadati per la tabella viene aggiornata automaticamente o manualmente.

Imposta AUTOMATIC per aggiornare la cache dei metadati a un intervallo definito dal sistema, di solito tra 30 e 60 minuti.

Imposta il valore MANUAL se vuoi aggiornare la cache dei metadati in base a una pianificazione stabilita. In questo caso, puoi chiamare la procedura di sistema BQ.REFRESH_EXTERNAL_METADATA_CACHE per aggiornare la cache.

Devi impostare metadata_cache_mode se max_staleness è impostato su un valore maggiore di 0.

null_marker

STRING

La stringa che rappresenta i valori NULL in un file CSV.

Si applica ai dati CSV.

object_metadata

STRING

Richiesto solo quando si crea una tabella degli oggetti.

Imposta il valore di questa opzione su SIMPLE durante la creazione di una tabella di oggetti.

preserve_ascii_control_characters

BOOL

Se true, vengono conservati i caratteri di controllo ASCII incorporati che sono i primi 32 caratteri della tabella ASCII, che vanno da "\x00" a "\x1F".

Si applica ai dati CSV.

projection_fields

STRING

Un elenco di proprietà delle entità da caricare.

Si applica ai dati di Datastore.

quote

STRING

La stringa utilizzata per citare le sezioni di dati in un file CSV. Se i dati contengono caratteri di nuova riga tra virgolette, imposta anche la proprietà allow_quoted_newlines su true.

Si applica ai dati CSV.

reference_file_schema_uri

STRING

File di riferimento fornito dall'utente con lo schema della tabella.

Si applica ai dati Parquet/ORC/AVRO.

Esempio: "gs://bucket/path/reference_schema_file.parquet".

require_hive_partition_filter

BOOL

Se true, tutte le query in questa tabella richiedono un filtro di partizionamento che può essere utilizzato per eliminare le partizioni durante la lettura dei dati. Si applica solo alle tabelle esterne partizionate hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

sheet_range

STRING

Intervallo di un foglio di lavoro di Fogli Google da cui eseguire la query.

Si applica ai dati di Fogli Google.

Esempio: “sheet1!A1:B20”,

skip_leading_rows

INT64

Il numero di righe nella parte superiore di un file da saltare durante la lettura dei dati.

Si applica ai dati CSV e Fogli Google.

uris

Per le tabelle esterne, incluse le tabelle degli oggetti, che non sono tabelle Bigtable:

ARRAY<STRING>

Un array di URI completi per le posizioni dei dati esterni. Ogni URI può contenere un carattere jolly asterisco (*) che deve essere riportato dopo il nome del bucket. Quando specifichi valori uris che hanno come target più file, tutti questi file devono condividere uno schema compatibile.

I seguenti esempi mostrano valori uris validi:

  • ['gs://bucket/path1/myfile.csv']
  • ['gs://bucket/path1/*.csv']
  • ['gs://bucket/path1/*', 'gs://bucket/path2/file00*']

Per le tabelle Bigtable:

STRING

L'URI che identifica la tabella Bigtable da utilizzare come origine dati. Puoi specificare un solo URI Bigtable.

Esempio: https://googleapis.com/bigtable/projects/project_id/instances/instance_id[/appProfiles/app_profile]/tables/table_name

Per maggiori informazioni sulla creazione di un URI di Bigtable, consulta Recupero dell'URI di Bigtable.

Ambito e sintassi

Le query in questa visualizzazione devono includere un set di dati o un qualificatore di regione. Per le query con un qualificatore del set di dati, devi disporre delle autorizzazioni per il set di dati. Per le query con un qualificatore di regione, devi disporre delle autorizzazioni per il progetto. Per ulteriori informazioni, consulta la sezione Sintassi. La tabella seguente illustra gli ambiti a livello di regione e risorsa per questa visualizzazione:

Nome vista Ambito risorsa Ambito regione
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.TABLE_OPTIONS A livello di progetto REGION
[PROJECT_ID.]DATASET_ID.INFORMATION_SCHEMA.TABLE_OPTIONS Livello set di dati Posizione del set di dati
Sostituisci quanto segue:

  • (Facoltativo) PROJECT_ID: l'ID del tuo progetto Google Cloud. Se non specificato, viene utilizzato il progetto predefinito.
  • REGION: qualsiasi nome della regione del set di dati. Ad esempio: region-us.
  • DATASET_ID: l'ID del set di dati. Per ulteriori informazioni, consulta la sezione Qualificatore del set di dati.

Esempio

Esempio 1:

L'esempio seguente recupera la scadenza predefinita delle tabelle per tutte le tabelle in mydataset nel progetto predefinito (myproject) eseguendo una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi l'ID progetto al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio, `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'expiration_timestamp';

Il risultato è simile al seguente:

  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | table_catalog  | table_schema  | table_name |     option_name      | option_type |             option_value             |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | myproject      | mydataset     | mytable1   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2020-01-16T21:12:28.000Z" |
  | myproject      | mydataset     | mytable2   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2021-01-01T21:12:28.000Z" |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  

Esempio 2:

L'esempio seguente recupera i metadati su tutte le tabelle in mydataset che contengono dati di test. La query utilizza i valori nell'opzione description per trovare tabelle che contengono "test" in qualsiasi punto della descrizione. mydataset si trova nel tuo progetto predefinito: myproject.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi l'ID progetto al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio, `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'description'
    AND option_value LIKE '%test%';

Il risultato è simile al seguente:

  +----------------+---------------+------------+-------------+-------------+--------------+
  | table_catalog  | table_schema  | table_name | option_name | option_type | option_value |
  +----------------+---------------+------------+-------------+-------------+--------------+
  | myproject      | mydataset     | mytable1   | description | STRING      | "test data"  |
  | myproject      | mydataset     | mytable2   | description | STRING      | "test data"  |
  +----------------+---------------+------------+-------------+-------------+--------------+