Visualizzazione TABLE_OPTIONS

La vista INFORMATION_SCHEMA.TABLE_OPTIONS contiene una riga per ogni opzione, per ogni tabella o vista in un set di dati. TABLES e TABLE_OPTIONS viste contengono anche informazioni generali sulle viste. Per informazioni dettagliate, esegui una query INFORMATION_SCHEMA.VIEWS.

Autorizzazioni obbligatorie

Per eseguire una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, è necessario quanto segue Autorizzazioni IAM (Identity and Access Management):

  • bigquery.tables.get
  • bigquery.tables.list
  • bigquery.routines.get
  • bigquery.routines.list

Ciascuno dei seguenti ruoli IAM predefiniti include autorizzazioni:

  • roles/bigquery.admin
  • roles/bigquery.dataViewer
  • roles/bigquery.metadataViewer

Per ulteriori informazioni sulle autorizzazioni BigQuery, consulta Controllo dell'accesso con IAM.

Schema

Quando esegui una query sulla vista INFORMATION_SCHEMA.TABLE_OPTIONS, i risultati Deve contenere una riga per ogni opzione, per ogni tabella o vista in un set di dati. Per informazioni dettagliate su query, esegui una query INFORMATION_SCHEMA.VIEWS visualizzazione .

La vista INFORMATION_SCHEMA.TABLE_OPTIONS ha il seguente schema:

Nome colonna Tipo di dati Valore
TABLE_CATALOG STRING L'ID del progetto che contiene il set di dati
TABLE_SCHEMA STRING Indica il nome del set di dati che contiene la tabella o la vista come datasetId
TABLE_NAME STRING Il nome della tabella o della vista indicato anche come tableId
OPTION_NAME STRING Uno dei valori del nome nella tabella delle opzioni
OPTION_TYPE STRING Uno dei valori del tipo di dati nella tabella delle opzioni
OPTION_VALUE STRING Una delle opzioni dei valori nella tabella delle opzioni
Tabella delle opzioni

OPTION_NAME

OPTION_TYPE

OPTION_VALUE

description

STRING

Una descrizione della tabella

enable_refresh

BOOL

Indica se l'aggiornamento automatico è abilitato per una vista materializzata

expiration_timestamp

TIMESTAMP

L'ora di scadenza di questa tabella

friendly_name

STRING

Il nome descrittivo della tabella

kms_key_name

STRING

Il nome della chiave Cloud KMS utilizzata per criptare la tabella

labels

ARRAY<STRUCT<STRING, STRING>>

Un array di STRUCT che rappresentano le etichette nella tavola

partition_expiration_days

FLOAT64

La durata predefinita, in giorni, di tutte le partizioni in un tavola

refresh_interval_minutes

FLOAT64

Frequenza di aggiornamento di una vista materializzata

require_partition_filter

BOOL

Se le query sulla tabella richiedono un filtro di partizione

tags

ARRAY<STRUCT<STRING, STRING>>

Tag collegati a una tabella in un <key, value> con spazio dei nomi a riga di comando. Per ulteriori informazioni, vedi Tag e l'accesso condizionale.

Per le tabelle esterne, sono possibili le seguenti opzioni:

Opzioni
allow_jagged_rows

BOOL

Se true, consenti le righe mancanti alla fine facoltative colonne.

Si applica ai dati CSV.

allow_quoted_newlines

BOOL

Se true, consenti le sezioni di dati tra virgolette che contengono nuova riga caratteri nel file.

Si applica ai dati CSV.

bigtable_options

STRING

Obbligatorio solo quando crei un oggetto esterno Bigtable .

Specifica lo schema della tabella esterna di Bigtable in formato JSON.

Per un elenco delle opzioni di definizione delle tabelle Bigtable, consulta BigtableOptions nel riferimento dell'API REST.

column_name_character_map

STRING

Definisce l'ambito dei caratteri supportati per i nomi delle colonne e la del comportamento di gestione dei caratteri non supportati.

I valori supportati includono:

compression

STRING

Il tipo di compressione dell'origine dati. I valori supportati includono: GZIP. Se non specificato, l'origine dati è decompressa.

Si applica ai dati CSV e JSON.

decimal_target_types

ARRAY<STRING>

Determina come convertire un tipo Decimal. Equivalente a ExternalDataConfiguration.decimal_target_types

Esempio: ["NUMERIC", "BIGNUMERIC"].

description

STRING

Una descrizione di questa tabella.

enable_list_inference

BOOL

Se true, utilizza l'inferenza dello schema specificamente per Tipo logico LISTA Parquet.

Si applica ai dati Parquet.

enable_logical_types

BOOL

Se true, converti i tipi logici Avro nei relativi i tipi SQL corrispondenti. Per ulteriori informazioni, vedi Tipi logici.

Si applica ai dati Avro.

encoding

STRING

La codifica dei caratteri dei dati. I valori supportati includono: UTF8 (o UTF-8), ISO_8859_1 (o ISO-8859-1).

Si applica ai dati CSV.

enum_as_string

BOOL

Se true, deduce il tipo logico Parquet ENUM come STRING anziché BYTES per impostazione predefinita.

Si applica ai dati Parquet.

expiration_timestamp

TIMESTAMP

L'ora di scadenza della tabella. Se non specificata, la tabella non scadono.

Esempio: "2025-01-01 00:00:00 UTC".

field_delimiter

STRING

Il separatore per i campi di un file CSV.

Si applica ai dati CSV.

format

STRING

Il formato dei dati esterni. Valori supportati per CREATE EXTERNAL TABLE includono: AVRO, CLOUD_BIGTABLE, CSV, DATASTORE_BACKUP, DELTA_LAKE (anteprima), GOOGLE_SHEETS, NEWLINE_DELIMITED_JSON (oppure JSON), ORC, PARQUET.

Valori supportati per LOAD DATA includono: AVRO, CSV, DELTA_LAKE (anteprima) NEWLINE_DELIMITED_JSON (o JSON), ORC, PARQUET.

Il valore JSON equivale a NEWLINE_DELIMITED_JSON.

hive_partition_uri_prefix

STRING

Un prefisso comune per tutti gli URI di origine prima della codifica della chiave di partizione inizia. Si applica solo alle tabelle esterne partizionate in hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

Esempio: "gs://bucket/path".

file_set_spec_type

STRING

Specifica come interpretare gli URI di origine per i job di caricamento e le tabelle esterne. In anteprima.

I valori supportati includono:

  • FILE_SYSTEM_MATCH. Espande gli URI di origine elencando i file dell'archivio oggetti. Questo è il comportamento predefinito se FileSetSpecType non è impostato.
  • NEW_LINE_DELIMITED_MANIFEST. Indica che gli URI forniti sono file manifest delimitati da nuova riga, con un URI per riga. Gli URI con caratteri jolly non sono supportati nei file manifest e tutti i file di dati di riferimento devono trovarsi nello stesso bucket del file manifest.

Ad esempio, se hai un URI di origine "gs://bucket/path/file" e il valore file_set_spec_type è FILE_SYSTEM_MATCH, il file viene utilizzato direttamente come file di dati. Se file_set_spec_type è NEW_LINE_DELIMITED_MANIFEST, ogni riga del file è interpretata come un URI che punta a un file di dati.

ignore_unknown_values

BOOL

Se true, ignora i valori aggiuntivi che non sono rappresentati. nello schema della tabella, senza restituire un errore.

Si applica ai dati CSV e JSON.

json_extension

STRING

Per i dati JSON, indica un particolare formato di interscambio JSON. Se non specificato, BigQuery legge i dati come JSON generico record.

I valori supportati includono:
GEOJSON. Dati GeoJSON delimitato da nuova riga. Per ulteriori informazioni le informazioni, vedi Creazione di un una tabella esterna da un file GeoJSON delimitato da nuova riga.

max_bad_records

INT64

Il numero massimo di record non validi da ignorare durante la lettura dei dati.

Si applica a: dati CSV, JSON e Fogli Google.

max_staleness

INTERVAL

Applicabile per Tavoli BigLake e tabelle di oggetti.

Specifica se i metadati memorizzati nella cache vengono utilizzati dalle operazioni rispetto alla e il grado di attualità dei metadati memorizzati nella cache per l'operazione per utilizzarlo.

Per disabilitare la memorizzazione nella cache dei metadati, specifica 0. Questa è l'impostazione predefinita.

Per abilitare la memorizzazione nella cache dei metadati, specifica valore letterale intervallo compreso tra 30 minuti e 7 giorni. Ad esempio, specifica INTERVAL 4 HOUR per un intervallo di inattività di 4 ore. Con questo valore, le operazioni sulla tabella utilizzano i metadati memorizzati nella cache se è stato aggiornato nelle ultime 4 ore. Se i metadati memorizzati nella cache è precedente, l'operazione torna al recupero dei metadati Cloud Storage.

null_marker

STRING

La stringa che rappresenta i valori NULL in un file CSV.

Si applica ai dati CSV.

object_metadata

STRING

Obbligatorio solo quando crei un'istanza tabella degli oggetti.

Imposta il valore di questa opzione su SIMPLE quando la creazione di una tabella di oggetti.

preserve_ascii_control_characters

BOOL

Se true, i caratteri di controllo ASCII incorporati che corrispondono ai primi 32 caratteri della tabella ASCII, "\x00" a '\x1F', vengono conservati.

Si applica ai dati CSV.

projection_fields

STRING

Un elenco di proprietà delle entità da caricare.

Si applica ai dati Datastore.

quote

STRING

La stringa utilizzata per citare le sezioni di dati in un file CSV. Se i tuoi dati contiene caratteri di nuova riga tra virgolette, imposta anche allow_quoted_newlines a true.

Si applica ai dati CSV.

reference_file_schema_uri

STRING

File di riferimento fornito dall'utente con lo schema della tabella.

Si applica ai dati Parquet/ORC/AVRO.

Esempio: "gs://bucket/path/reference_schema_file.parquet".

require_hive_partition_filter

BOOL

Se true, tutte le query su questa tabella richiedono una partizione che può essere utilizzato per eliminare le partizioni durante la lettura dei dati. Si applica solo alle tabelle esterne partizionate in hive.

Si applica ai dati Avro, CSV, JSON, Parquet e ORC.

sheet_range

STRING

Intervallo di un foglio di lavoro di Fogli Google da cui eseguire le query.

Si applica ai dati di Fogli Google.

Esempio: "sheet1!A1:B20",

skip_leading_rows

INT64

Il numero di righe all'inizio di un file da saltare durante la lettura dell'attributo e i dati di Google Cloud.

Si applica ai dati CSV e Fogli Google.

uris

Per le tabelle esterne, incluse le tabelle di oggetti, che non sono Tabelle Bigtable:

ARRAY<STRING>

Un array di URI completi per le posizioni dei dati esterni. Ogni URI può contenere un asterisco (*) carattere jolly, che deve essere successivo al nome del bucket. Se specifichi uris valori che hanno come target più file, tutti questi i file devono condividere uno schema compatibile.

I seguenti esempi mostrano valori uris validi:

  • ['gs://bucket/path1/myfile.csv']
  • ['gs://bucket/path1/*.csv']
  • ['gs://bucket/path1/*', 'gs://bucket/path2/file00*']

Per le tabelle Bigtable:

STRING

L'URI che identifica la tabella Bigtable da utilizzare come origine dati. Puoi specificare un solo URI Bigtable.

Esempio: https://googleapis.com/bigtable/projects/project_id/instances/instance_id[/appProfiles/app_profile]/tables/table_name

Per ulteriori informazioni sulla creazione di una Bigtable URI, consulta Recupero dell'URI Bigtable.

Ambito e sintassi

Le query su questa vista devono includere un set di dati o un qualificatore di regione. Per con un qualificatore del set di dati, devi disporre delle autorizzazioni per il set di dati. Per le query con un qualificatore della regione, devi disporre delle autorizzazioni per il progetto. Per ulteriori informazioni per le informazioni, consulta Sintassi. La tabella seguente illustra gli ambiti delle risorse e delle regioni per questa vista:

Nome vista Ambito risorsa Ambito della regione
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.TABLE_OPTIONS Livello di progetto REGION
[PROJECT_ID.]DATASET_ID.INFORMATION_SCHEMA.TABLE_OPTIONS Livello del set di dati Posizione del set di dati
Sostituisci quanto segue:

Esempio

Esempio 1:

L'esempio seguente recupera i tempi di scadenza predefiniti per tutte le tabelle in mydataset nel tuo progetto predefinito (myproject) eseguendo una query INFORMATION_SCHEMA.TABLE_OPTIONS visualizzazione.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'expiration_timestamp';

Il risultato è simile al seguente:

  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | table_catalog  | table_schema  | table_name |     option_name      | option_type |             option_value             |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  | myproject      | mydataset     | mytable1   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2020-01-16T21:12:28.000Z" |
  | myproject      | mydataset     | mytable2   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2021-01-01T21:12:28.000Z" |
  +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
  

Esempio 2:

L'esempio seguente recupera i metadati su tutte le tabelle in mydataset che che contengono dati di test. La query utilizza i valori dell'opzione description per trovare tabelle che contengono "test" in qualsiasi punto della descrizione. mydataset è in progetto predefinito: myproject.

Per eseguire la query su un progetto diverso da quello predefinito, aggiungi al set di dati nel seguente formato: `project_id`.dataset.INFORMATION_SCHEMA.view; ad esempio `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

  SELECT
    *
  FROM
    mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
  WHERE
    option_name = 'description'
    AND option_value LIKE '%test%';

Il risultato è simile al seguente:

  +----------------+---------------+------------+-------------+-------------+--------------+
  | table_catalog  | table_schema  | table_name | option_name | option_type | option_value |
  +----------------+---------------+------------+-------------+-------------+--------------+
  | myproject      | mydataset     | mytable1   | description | STRING      | "test data"  |
  | myproject      | mydataset     | mytable2   | description | STRING      | "test data"  |
  +----------------+---------------+------------+-------------+-------------+--------------+