Ansicht TABLE_OPTIONS

Die Ansicht INFORMATION_SCHEMA.TABLE_OPTIONS enthält eine Zeile für jede Option, für jede Tabelle oder Ansicht in einem Dataset. Die Ansichten TABLES und TABLE_OPTIONS enthalten auch allgemeine Informationen zu Ansichten. Detaillierte Informationen erhalten Sie, wenn Sie die Ansicht INFORMATION_SCHEMA.VIEWS abfragen.

Erforderliche Berechtigungen

Zum Abfragen der INFORMATION_SCHEMA.TABLE_OPTIONS-Ansicht benötigen Sie folgende IAM-Berechtigungen (Identity and Access Management):

  • bigquery.tables.get
  • bigquery.tables.list
  • bigquery.routines.get
  • bigquery.routines.list

Die folgenden vordefinierten IAM-Rollen enthalten jeweils die vorherigen Berechtigungen:

  • roles/bigquery.admin
  • roles/bigquery.dataViewer
  • roles/bigquery.metadataViewer

Weitere Informationen zu BigQuery-Berechtigungen finden Sie unter Zugriffssteuerung mit IAM.

Schema

Wenn Sie die Ansicht INFORMATION_SCHEMA.TABLE_OPTIONS abfragen, wird in den Abfrageergebnissen jede Tabelle oder Ansicht eines Datasets in einer eigenen Zeile für jede Option dargestellt. Detaillierte Informationen zu Ansichten erhalten Sie, wenn Sie stattdessen die Ansicht INFORMATION_SCHEMA.VIEWS abfragen.

Die Ansicht INFORMATION_SCHEMA.TABLE_OPTIONS hat das folgende Schema:

Spaltenname Datentyp Wert
TABLE_CATALOG STRING Die ID des Projekts, das das Dataset enthält
TABLE_SCHEMA STRING Der Name des Datasets, das die Tabelle oder Ansicht enthält (auch als datasetId bezeichnet)
TABLE_NAME STRING Der Name der Tabelle oder Ansicht (auch als tableId bezeichnet)
OPTION_NAME STRING Ein Namenswert der Optionstabelle
OPTION_TYPE STRING Ein Datentypwert der Optionstabelle
OPTION_VALUE STRING Eine Wertoption der Optionstabelle
Optionstabelle

OPTION_NAME

OPTION_TYPE

OPTION_VALUE

description

STRING

Eine Beschreibung der Tabelle

enable_refresh

BOOL

Gibt an, ob die automatische Aktualisierung für eine materialisierte Ansicht aktiviert ist

expiration_timestamp

TIMESTAMP

Die Zeit, zu der diese Tabelle abläuft

friendly_name

STRING

Der beschreibende Name der Tabelle

kms_key_name

STRING

Der Name des Cloud KMS-Schlüssels zum Verschlüsseln der Tabelle

labels

ARRAY<STRUCT<STRING, STRING>>

Ein STRUCT-Array, das die Labels der Tabelle darstellt

partition_expiration_days

FLOAT64

Die Standardlebensdauer aller Partitionen in einer partitionierten Tabelle in Tagen

refresh_interval_minutes

FLOAT64

Gibt an, wie häufig eine materialisierte Ansicht aktualisiert wird

require_partition_filter

BOOL

Gibt an, ob Abfragen über die Tabelle einen Partitionsfilter erfordern

tags

ARRAY<STRUCT<STRING, STRING>>

Tags, die einer Tabelle in einer nutzerdefinierten <Schlüssel, Wert>-Syntax angehängt sind. Weitere Informationen finden Sie unter Tags und bedingter Zugriff.

Für externe Tabellen sind die folgenden Optionen möglich:

Optionen
allow_jagged_rows

BOOL

Bei true werden Zeilen ohne nachgestellte optionale Spalten zugelassen.

Gilt für CSV-Daten.

allow_quoted_newlines

BOOL

Bei true werden in Anführungszeichen eingeschlossene Datenabschnitte mit Zeilenumbruchzeichen in der Datei zugelassen.

Gilt für CSV-Daten.

bigtable_options

STRING

Nur erforderlich, wenn Sie eine externe Bigtable-Tabelle erstellen.

Gibt das Schema der externen Bigtable-Tabelle im JSON-Format an.

Eine Liste der Optionen für Bigtable-Tabellendefinitionen finden Sie in der REST API-Referenz unter BigtableOptions.

column_name_character_map

STRING

Bestimmt, welche Zeichen für den Spaltennamen unterstützt werden und wie mit nicht unterstützten Zeichen umgegangen wird. Die Standardeinstellung ist STRICT. Das bedeutet, dass BigQuery bei nicht unterstützten Zeichen Fehler anzeigt. V1 und V2 ersetzen alle nicht unterstützten Zeichen durch Unterstriche.

Unterstützte Werte sind:

  • STRICT: Hiermit werden flexible Spaltennamen aktiviert. Dies ist der Standardwert. Ladejobs mit nicht unterstützten Zeichen in Spaltennamen schlagen mit einer Fehlermeldung fehl. Wenn Sie nicht unterstützte Zeichen durch Unterstriche ersetzen möchten, damit der Ladevorgang erfolgreich ist, geben Sie die Konfigurationseinstellung default_column_name_character_map an.
  • V1. Spaltennamen dürfen nur Standardzeichen für Spaltennamen enthalten. Nicht unterstützte Zeichen werden durch Unterstriche ersetzt. Das ist das Standardverhalten für Tabellen, die vor der Einführung von column_name_character_map erstellt wurden.
  • V2. Neben Standardzeichen für Spaltennamen werden auch flexible Spaltennamen unterstützt. Nicht unterstützte Zeichen werden durch Unterstriche ersetzt.
  • Gilt für CSV- und Parquet-Daten.

compression

STRING

Komprimierungstyp der Datenquelle. Diese Werte werden unterstützt: GZIP Wenn keine Angabe erfolgt, ist die Datenquelle unkomprimiert.

Gilt für CSV- und JSON-Daten.

decimal_target_types

ARRAY<STRING>

Bestimmt, wie ein Decimal-Typ konvertiert wird. Entspricht ExternalDataConfiguration.decimal_target_types

Beispiel: ["NUMERIC", "BIGNUMERIC"].

description

STRING

Eine Beschreibung dieser Tabelle.

enable_list_inference

BOOL

Verwenden Sie bei true die Schemainferenz speziell für den logischen Parquet-LIST-Typ.

Gilt für Parquet-Daten.

enable_logical_types

BOOL

Bei true werden logische Avro-Typen in die entsprechenden SQL-Typen konvertiert. Weitere Informationen finden Sie unter Logische Typen.

Gilt für Avro-Daten.

encoding

STRING

Die Zeichencodierung der Daten. Unterstützte Werte sind: UTF8 (oder UTF-8), ISO_8859_1 (oder ISO-8859-1).

Gilt für CSV-Daten.

enum_as_string

BOOL

Wenn true, wird der logische Parquet-ENUM-Typ standardmäßig als STRING und nicht als BYTES abgeleitet.

Gilt für Parquet-Daten.

expiration_timestamp

TIMESTAMP

Die Zeit, zu der diese Tabelle abläuft. Wenn keine Angabe erfolgt, läuft die Tabelle nicht ab.

Beispiel: "2025-01-01 00:00:00 UTC".

field_delimiter

STRING

Das Trennzeichen für Felder in einer CSV-Datei.

Gilt für CSV-Daten.

format

STRING

Das Format der externen Daten. Unterstützte Werte für CREATE EXTERNAL TABLE umfassen: AVRO, CLOUD_BIGTABLE, CSV, DATASTORE_BACKUP, DELTA_LAKE (Vorschau), GOOGLE_SHEETS, NEWLINE_DELIMITED_JSON (oder JSON), ORC, PARQUET.

Unterstützte Werte für LOAD DATA umfassen: AVRO, CSV ,DELTA_LAKE (Vorschau )NEWLINE_DELIMITED_JSON (oderJSON), ORC, PARQUET.

Der Wert JSON entspricht NEWLINE_DELIMITED_JSON.

hive_partition_uri_prefix

STRING

Ein gemeinsames Präfix für alle Quell-URIs, bevor die Codierung des Partitionierungsschlüssels beginnt. Gilt nur für mit Hive partitionierte Tabellen.

Gilt für Avro-, CSV-, JSON-, Parquet- und ORC-Daten.

Beispiel: "gs://bucket/path".

file_set_spec_type

STRING

Gibt an, wie Quell-URIs für Ladejobs und externe Tabellen interpretiert werden.

Unterstützte Werte sind:

  • FILE_SYSTEM_MATCH. Maximiert die Quell-URIs, indem Dateien aus dem Objektspeicher aufgelistet werden. Dies ist das Standardverhalten, wenn FileSetSpecType nicht festgelegt ist.
  • NEW_LINE_DELIMITED_MANIFEST. Gibt an, dass die angegebenen URIs Manifestdateien mit Zeilenumbruch mit einem URI pro Zeile sind. Platzhalter-URIs werden in den Manifestdateien nicht unterstützt. Alle referenzierten Datendateien müssen sich im selben Bucket wie die Manifestdatei befinden.

Wenn Sie beispielsweise den Quell-URI "gs://bucket/path/file" haben und file_set_spec_type den Wert FILE_SYSTEM_MATCH hat, wird die Datei direkt als Datendatei verwendet. Wenn file_set_spec_type den Wert NEW_LINE_DELIMITED_MANIFEST hat, wird jede Zeile in der Datei als URI interpretiert, der auf eine Datendatei verweist.

ignore_unknown_values

BOOL

Bei true werden zusätzliche Werte ignoriert, die nicht im Tabellenschema enthalten sind, ohne dass ein Fehler zurückgegeben wird.

Gilt für CSV- und JSON-Daten.

json_extension

STRING

Gibt für JSON-Daten ein bestimmtes JSON-Austauschformat an. Wenn nicht angegeben, liest BigQuery die Daten als generische JSON-Einträge.

Diese Werte werden unterstützt:
GEOJSON. Durch Zeilenumbruch getrennte GeoJSON-Daten. Weitere Informationen finden Sie unter Externe Tabelle aus einer durch Zeilenumbruch getrennten GeoJSON-Datei erstellen.

max_bad_records

INT64

Die maximale Anzahl fehlerhafter Datensätze, die beim Lesen der Daten ignoriert werden.

Gilt für CSV-, JSON- und Google Sheets-Daten.

max_staleness

INTERVAL

Gilt für BigLake-Tabellen und Objekttabellen.

Gibt an, ob im Cache gespeicherte Metadaten von Vorgängen für die Tabelle verwendet werden und wie aktuell die im Cache gespeicherten Metadaten sein müssen, damit der Vorgang sie verwenden kann.

Geben Sie 0 an, um das Caching von Metadaten zu deaktivieren. Das ist die Standardeinstellung.

Geben Sie zum Aktivieren des Metadaten-Cachings für das Intervallliteral einen Wert zwischen 30 Minuten und 7 Tagen an. Beispiel: Geben Sie INTERVAL 4 HOUR für ein Veralterungsintervall von vier Stunden an. Mit diesem Wert verwenden Vorgänge im Zusammenhang mit der Tabelle im Cache gespeicherte Metadaten, wenn sie innerhalb der letzten vier Stunden aktualisiert wurden. Sind die im Cache gespeicherten Metadaten älter, werden für den Vorgang stattdessen Metadaten aus Cloud Storage abgerufen.

null_marker

STRING

Der String, der NULL-Werte in einer CSV-Datei darstellt.

Gilt für CSV-Daten.

object_metadata

STRING

Nur erforderlich, wenn Sie eine Objekttabelle erstellen.

Legen Sie den Wert dieser Option beim Erstellen einer Objekttabelle auf SIMPLE fest.

preserve_ascii_control_characters

BOOL

Bei true werden die eingebetteten ASCII-Steuerzeichen, die die ersten 32 Zeichen in der ASCII-Tabelle sind, von „\x00” bis „\x1F” beibehalten.

Gilt für CSV-Daten.

projection_fields

STRING

Eine Liste der zu ladenden Entitätsattribute.

Gilt für Datastore-Daten.

quote

STRING

Der String, der zum Kennzeichnen von Datenabschnitten in einer CSV-Datei verwendet wird. Wenn Ihre Daten Zeilenumbruchzeichen in Anführungszeichen enthalten, setzen Sie auch das Attribut allow_quoted_newlines auf true.

Gilt für CSV-Daten.

reference_file_schema_uri

STRING

Vom Nutzer bereitgestellte Referenzdatei mit dem Tabellenschema.

Gilt für Parquet-/ORC-/AVRO-Daten.

Beispiel: "gs://bucket/path/reference_schema_file.parquet".

require_hive_partition_filter

BOOL

Bei true ist für alle Abfragen über diese Tabelle ein Partitionsfilter erforderlich, mit dem Partitionen beim Lesen von Daten entfernt werden können. Gilt nur für mit Hive partitionierte Tabellen.

Gilt für Avro-, CSV-, JSON-, Parquet- und ORC-Daten.

sheet_range

STRING

Bereich einer Google Sheets-Tabelle, aus der abgefragt werden soll.

Gilt für Google Sheets-Daten.

Beispiel: "sheet1!A1:B20".

skip_leading_rows

INT64

Die Anzahl der Zeilen am Anfang einer Datei, die beim Lesen der Daten übersprungen werden sollen.

Gilt für CSV- und Google Sheets-Daten.

uris

Für externe Tabellen, einschließlich Objekttabellen, die keine Bigtable-Tabellen sind:

ARRAY<STRING>

Ein Array von voll qualifizierten URIs für die externen Datenspeicherorte. Jeder URI kann ein Sternchen (*) als Platzhalterzeichen enthalten, das nach dem Bucket-Namen stehen muss. Wenn Sie uris-Werte angeben, die auf mehrere Dateien abzielen, müssen alle diese Dateien ein kompatibles Schema verwenden.

Die folgenden Beispiele zeigen gültige uris-Werte:

  • ['gs://bucket/path1/myfile.csv']
  • ['gs://bucket/path1/*.csv']
  • ['gs://bucket/path1/*', 'gs://bucket/path2/file00*']

Für Bigtable-Tabellen:

STRING

Der URI zur Identifizierung der Bigtable-Tabelle, die als Datenquelle verwendet werden soll. Sie können nur einen Bigtable-URI angeben.

Beispiel: https://googleapis.com/bigtable/projects/project_id/instances/instance_id[/appProfiles/app_profile]/tables/table_name

Weitere Informationen zum Erstellen eines Bigtable-URI finden Sie unter Bigtable-URI abrufen.

Bereich und Syntax

Für Abfragen dieser Ansicht muss ein Dataset- oder Regions-Qualifier verwendet werden. Für Abfragen mit einem Dataset-Qualifier benötigen Sie Berechtigungen für das Dataset. Für Abfragen mit einem Regions-Qualifier müssen Sie Berechtigungen für das Projekt haben. Weitere Informationen finden Sie unter Syntax. In der folgenden Tabelle werden die Regions- und Ressourcenbereiche für diese Ansicht erläutert:

Ansichtsname Ressourcenbereich Regionsbereich
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.TABLE_OPTIONS auf Projektebene REGION
[PROJECT_ID.]DATASET_ID.INFORMATION_SCHEMA.TABLE_OPTIONS Dataset-Ebene Dataset-Standort
Ersetzen Sie Folgendes:

  • Optional: PROJECT_ID: die ID Ihres Google Cloud-Projekts. Wenn keine Angabe erfolgt, wird das Standardprojekt verwendet.

    Beispiel

    Beispiel 1:

    Im folgenden Beispiel werden die Standardablaufzeiten für alle Tabellen in mydataset in Ihrem Standardprojekt myproject durch Abfrage der Ansicht INFORMATION_SCHEMA.TABLE_OPTIONS abgerufen.

    Dem Dataset fügen Sie die Projekt-ID im folgenden Format hinzu, um die Abfrage für ein anderes Projekt als Ihr Standardprojekt auszuführen: `project_id`.dataset.INFORMATION_SCHEMA.view; beispielsweise `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

      SELECT
        *
      FROM
        mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
      WHERE
        option_name = 'expiration_timestamp';

    Das Ergebnis sieht etwa so aus:

      +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
      | table_catalog  | table_schema  | table_name |     option_name      | option_type |             option_value             |
      +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
      | myproject      | mydataset     | mytable1   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2020-01-16T21:12:28.000Z" |
      | myproject      | mydataset     | mytable2   | expiration_timestamp | TIMESTAMP   | TIMESTAMP "2021-01-01T21:12:28.000Z" |
      +----------------+---------------+------------+----------------------+-------------+--------------------------------------+
      

    Beispiel 2:

    Im folgenden Beispiel werden Metadaten von allen Tabellen in mydataset abgerufen, die Testdaten enthalten. Für die Abfrage werden zur Ermittlung von Tabellen, die den Begriff "test" in der Beschreibung enthalten, die Werte der Option description verwendet. mydataset befindet sich in Ihrem Standardprojekt myproject.

    Wenn Sie die Abfrage für ein anderes Projekt als Ihr Standardprojekt ausführen möchten, fügen Sie dem Dataset die Projekt-ID im folgenden Format hinzu: `project_id`.dataset.INFORMATION_SCHEMA.view; beispielsweise so: `myproject`.mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS.

      SELECT
        *
      FROM
        mydataset.INFORMATION_SCHEMA.TABLE_OPTIONS
      WHERE
        option_name = 'description'
        AND option_value LIKE '%test%';

    Das Ergebnis sieht etwa so aus:

      +----------------+---------------+------------+-------------+-------------+--------------+
      | table_catalog  | table_schema  | table_name | option_name | option_type | option_value |
      +----------------+---------------+------------+-------------+-------------+--------------+
      | myproject      | mydataset     | mytable1   | description | STRING      | "test data"  |
      | myproject      | mydataset     | mytable2   | description | STRING      | "test data"  |
      +----------------+---------------+------------+-------------+-------------+--------------+