Referenz zum Befehlszeilentool

In diesem Dokument werden die Befehle und Flags des bq-Befehlszeilentools erläutert. Informationen zur Verwendung der Befehlszeilenschnittstelle finden Sie unter bq-Befehlszeilentool verwenden.

Globale Flags

Im bq-Befehlszeilentool können Sie die folgenden globalen Flags verwenden.

[VERWORFEN] bq Autorisierungs-Flags

Die bq-Autorisierungs-Flags wurden verworfen. Informationen zum Konfigurieren der Autorisierung für das bq-Befehlszeilentool finden Sie unter Cloud SDK-Tools autorisieren.

--application_default_credential_file
Weitere Informationen finden Sie unter Authentifizierung für Server-zu-Server-Produktionsanwendungen einrichten. Der Standardwert ist ''.
--credential_file
Der Dateiname, der zum Speichern des OAuth-Tokens verwendet wird. Der Standardwert ist $HOME/.bigquery.v2.token.
--service_account
Verwenden Sie die E-Mail-Adresse dieses Dienstkontos für die Autorisierung. Beispiel: 1234567890@developer.gserviceaccount.com Der Standardwert ist ''.
--service_account_credential_file
Die Datei, die als Anmeldedatenspeicher für Dienstkonten verwendet wird. Dieses Flag muss gesetzt sein, wenn Sie ein Dienstkonto verwenden.
--service_account_private_key_file
Die Datei, die den privaten Schlüssel des Dienstkontos enthält. Dieses Flag ist erforderlich, wenn das Flag --service_account angegeben ist. Der Standardwert ist ''.
--service_account_private_key_password
Das Passwort für den privaten Schlüssel. Das Passwort muss mit dem Passwort übereinstimmen, das Sie beim Erstellen des Schlüssels festgelegt haben. Der Standardwert ist notasecret.
--use_gce_service_account
Geben Sie dieses Flag bei der Ausführung auf einer Compute Engine-Instanz an, um die Anmeldedaten eines Dienstkontos anstelle von gespeicherten Anmeldedaten zu verwenden. Weitere Informationen finden Sie unter Dienstkonten für Instanzen erstellen und aktivieren. Der Standardwert ist false.

Globale Flags bq

--api
Der API-Endpunkt, der aufgerufen werden soll. Der Standardwert ist https://www.googleapis.com.

--api_version Die zu verwendende API-Version. Der Standardwert ist v2

--apilog
Protokolliert alle API-Anfragen und -Antworten in der von diesem Flag angegebenen Datei. Sie können auch stdout und stderr verwenden. Bei Angabe eines leeren Strings ('') wird zu stdout weitergeleitet.
--bigqueryrc
Der Pfad zur Konfigurationsdatei des Befehlszeilentools. Die Konfigurationsdatei gibt neue Standardwerte für alle Flags an und kann überschrieben werden. Dazu wird das Flag in der Befehlszeile angegeben. Wenn das Flag --bigqueryrc nicht angegeben ist, wird die Umgebungsvariable BIGQUERYRC verwendet. Wird dies nicht angegeben, wird der Pfad ~/.bigqueryrc verwendet. Der Standardwert ist $HOME/.bigqueryrc
--ca_certificates_file
Der Speicherort Ihrer CA-Zertifikatsdatei. Der Standardwert ist ''.
--dataset_id
Das Standard-Dataset für Anfragen. Dieses Flag wird ignoriert, wenn es nicht anwendbar ist. Sie können als Wert project_id:dataset oder dataset festlegen. Wenn project_id fehlt, wird das Standardprojekt verwendet. Sie können diese Einstellung durch Angabe des Flags --project_id überschreiben. Der Standardwert ist ''.
--debug_mode
Zeigt Tracebacks bei Python-Ausnahmen an. Der Standardwert ist false.
--disable_ssl_validation
Deaktiviert die HTTPS-Zertifikatsprüfung. Der Standardwert ist false.
--discovery_file
Der Dateiname der JSON-Datei, die für die Erkennung gelesen werden soll. Der Standardwert ist ''.
--enable_gdrive
Wenn hierfür true festgelegt ist, wird ein neues OAuth-Token mit dem GDrive-Bereich angefordert. Wenn false festgelegt ist, wird ein neues OAuth-Token ohne GDrive-Bereich angefordert.
--fingerprint_job_id
Legt fest, ob eine Job-ID verwendet werden soll, die von einem Fingerabdruck der Jobkonfiguration abgeleitet wurde. Dadurch wird verhindert, dass ein Job versehentlich mehrmals ausgeführt wird. Der Standardwert ist false.
--flagfile
Wenn angegeben, werden Flag-Definitionen aus der übermittelten Datei in das Befehlszeilentool eingefügt. Der Standardwert ist ''.
--format

Gibt das Format der Ausgabe des Befehls an. Es gibt folgende Optionen:

  • pretty: Formatierte Tabellenausgabe
  • sparse: Einfachere Tabellenausgabe
  • prettyjson: Leicht lesbares JSON-Format
  • json: Maximal komprimiertes JSON
  • csv: CSV-Format mit Header

pretty, sparse und prettyjson sind für Menschen lesbar. json und csv dienen der Übergabe an ein anderes Programm. Wenn none angegeben ist, erzeugt der Befehl keine Ausgabe. Wenn das Flag --format fehlt, wird basierend auf dem Befehl ein geeignetes Ausgabeformat ausgewählt.

--headless

Gibt an, ob die bq-Sitzung ohne Nutzerinteraktion ausgeführt werden soll. Ist das Flag auf true gesetzt, wird die Interaktion deaktiviert. So wird beispielsweise der Debugger durch debug_mode nicht unterbrochen, und die Häufigkeit des Informationsdrucks verringert sich. Der Standardwert ist false.

--job_id

Eine eindeutige Job-ID, die für die Anfrage verwendet werden soll. Wurde in einer Joberstellungsanfrage keine Job-ID angegeben, wird sie generiert. Dieses Flag gilt nur für Befehle, die Jobs erstellen: cp, extract, load und query. Weitere Informationen finden Sie unter Jobs programmatisch ausführen.

--job_property

Ein zusätzliches Schlüssel/Wert-Paar, das in das Feld für Attribute in der Jobkonfiguration aufgenommen werden soll. Definieren Sie dieses Flag wiederholt, um weitere Attribute anzugeben.

--location

Ein String, der Ihrer Region oder Ihrem multiregionalen Standort entspricht. Für den Befehl cancel und den Befehl show ist das Standort-Flag erforderlich, wenn Sie das Flag -j dazu verwenden, Jobinformationen abzurufen. Für die folgenden Befehle ist das Standort-Flag optional:

Alle anderen Befehle ignorieren das Flag --location.

--max_rows_per_request

Eine Ganzzahl, die die maximale Anzahl von Zeilen angibt, die pro Lesevorgang zurückgegeben werden.

--project_id

Die Projekt-ID für Anfragen. Der Standardwert ist ''.

--proxy_address

Der Name oder die IP-Adresse des Proxyhosts, der für die Verbindung mit der GCP verwendet werden soll. Der Standardwert ist ''.

--proxy_password

Das Passwort, das zur Authentifizierung beim Proxy-Host verwendet werden soll. Der Standardwert ist ''.

--proxy_port

Die Portnummer zum Herstellen der Verbindung mit dem Proxyhost. Der Standardwert ist ''.

--proxy_username

Der Nutzername für die Authentifizierung beim Proxyhost. Der Standardwert ist ''.

--quiet oder -q

Wenn true festgelegt ist, werden Statusaktualisierungen während der Jobausführung ignoriert. Der Standardwert ist false.

--synchronous_mode oder -sync

Wenn true festgelegt ist, wird auf den Abschluss des Befehls gewartet, bevor er zurückgegeben wird. Der Abschlussstatus des Jobs wird als Fehlercode verwendet. Wenn false festgelegt ist, wird der Job erstellt und für den Fehlercode der Status "Erfolgreicher Abschluss" verwendet. Der Standardwert ist true.

--trace

Ein Tracing-Token, das als token:token angegeben wird, um es in API-Anfragen einzuschließen.

Befehlsspezifische Flags

Im bq-Befehlszeilentool können Sie folgende Befehls-Flags verwenden.

bq cancel

Der Befehl cancel wird zum Abbrechen von Jobs verwendet. Der Befehl cancel hat keine befehlsspezifischen Flags.

Weitere Informationen zur Verwendung des Befehls cancel finden Sie unter Jobs verwalten.

Der Befehl cancel verwendet die folgenden globalen Flags.

--job_id
Eine eindeutige Job-ID für die Kündigungsanfrage. Sie können die Job-ID ohne Verwendung des Flags --job_id angeben. Beispiel: bq cancel [JOB_ID].
--synchronous_mode oder --sync
Wartet auf den Abschluss des Befehls, bevor er zurückgegeben wird. Wenn false festgelegt ist, wird der Befehl sofort zurückgegeben. Der Standardwert ist true.

bq cp

Der Befehl cp wird zum Kopieren von Tabellen verwendet. Der Befehl cp verwendet die folgenden befehlsspezifischen Flags.

Weitere Informationen zur Verwendung des Befehls cp finden Sie unter Tabellen verwalten.

--append_table oder -a
Kopiert eine Tabelle kopiert und fügt sie an eine vorhandene Tabelle an. Der Standardwert ist false.
--destination_kms_key
Der Cloud KMS-Schlüssel, der für die Verschlüsselung der Zieltabellendaten verwendet wird.
--force oder -f
Überschreibt eine vorhandene Zieltabelle ohne Eingabeaufforderung. Der Standardwert ist false.
--no_clobber oder -n
Überschreibt eine vorhandene Zieltabelle nicht. Der Standardwert ist false.

bq extract

Mit dem Befehl extract werden Tabellendaten in Cloud Storage exportiert.

Weitere Informationen zur Verwendung des Befehls extract finden Sie unter Tabellendaten exportieren.

Der Befehl extract verwendet die folgenden befehlsspezifischen Flags:

--compression
Der für exportierte Dateien zu verwendende Komprimierungstyp. Mögliche Werte sind GZIP (nur CSV und JSON), DEFLATE (nur Avro), SNAPPY (nur Avro) und NONE. Der Standardwert ist NONE.
--destination_format

Das Format für die exportierten Daten. Zulässige Werte:

  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO

Der Standardwert ist CSV.

--field_delimiter oder -F

Das Zeichen, das die Begrenzung zwischen den Spalten in der Ausgabedatei für CSV-Exporte angibt. Sowohl \t als auch tab sind als Tabulatortrennzeichen zulässig.

--print_header

Druckt bei Formaten mit Kopfzeilen die entsprechenden Kopfzeilen. Der Standardwert ist true.

bq head

Mit dem Befehl head werden Zeilen in einer Tabelle angezeigt.

Weitere Informationen zur Verwendung des Befehls head finden Sie unter Tabellendaten verwalten.

Der Befehl head verwendet die folgenden befehlsspezifischen Flags:

--job oder -j
Geben Sie dieses Flag mit einer gültigen Job-ID an, um die Ergebnisse eines Abfragejobs zu lesen. Der Standardwert ist false.
--max_rows oder -n
Eine Ganzzahl, die beim Anzeigen von Tabellendaten die Anzahl der zu druckenden Zeilen angibt. Der Standardwert ist 100.
--selected_fields oder -c
Eine durch Kommas getrennte Liste, die eine Teilmenge von Feldern (einschließlich verschachtelter und wiederkehrender Felder) angibt, die beim Abrufen von Tabellendaten zurückgegeben werden. Wenn nicht angegeben, werden alle Spalten abgerufen.
--start_row oder -s
Eine Ganzzahl, die angibt, wie viele Zeilen vor dem Abrufen von Tabellendaten übersprungen werden sollen. Der Standardwert ist 0 (Start in der ersten Zeile).
--table oder -t
Geben Sie dieses Flag mit einer Tabellen-ID an, um Zeilen aus einer Tabelle zu lesen. Der Standardwert ist false.

bq insert

Mit dem Befehl insert können Sie Zeilen, die durch Zeilenumbruch getrennte JSON-formatierte Daten enthalten, über den Streaming-Zwischenspeicher einfügen. Dieser Befehl ist nur für Testzwecke vorgesehen. Zum Streamen von Daten in BigQuery verwenden Sie die API-Methode insertAll.

Weitere Informationen finden Sie unter Daten in BigQuery streamen.

Der Befehl insert verwendet die folgenden befehlsspezifischen Flags:

--ignore_unknown_values oder -i
Ignoriert alle Werte in einer Zeile, die nicht im Schema der Tabelle enthalten sind.
--skip_invalid_rows oder -s
Versucht, alle gültigen Zeilen einzufügen, auch wenn ungültige Zeilen vorhanden sind.
--template_suffix oder -x
Verwendet die Zieltabelle als Basisvorlage, und die Zeilen werden in eine Instanztabelle mit dem Namen {destination}{templateSuffix} eingefügt. BigQuery verwaltet das Erstellen der Instanztabelle mithilfe des Schemas der Basisvorlage.

bq load

Mit dem Befehl load werden Daten in eine Tabelle geladen.

Weitere Informationen zum Laden von Daten aus Cloud Storage mit dem Befehl load finden Sie unter:

Weitere Informationen zum Laden von Daten aus einer lokalen Quelle mit dem Befehl load finden Sie unter Daten aus einer lokalen Datenquelle in BigQuery laden.

Der Befehl load verwendet die folgenden befehlsspezifischen Flags:

--allow_jagged_rows
Lässt nachgestellte optionale Spalten in CSV-Daten zu.
--allow_quoted_newlines
Lässt Zeilenumbrüche innerhalb von Abschnitten in Anführungszeichen in CSV-Daten zu.
--autodetect
Aktiviert die automatische Schemaerkennung für CSV- und JSON-Daten.
--clustering_fields
Eine durch Kommas getrennte Liste mit bis zu vier Spaltennamen. Dieses Flag kann nur für partitionierte Tabellen genutzt werden.
--destination_kms_key
Der Cloud KMS-Schlüssel für die Verschlüsselung der Zieltabellendaten.
--encoding oder -E
Die in den Daten verwendete Zeichencodierung. Zulässige Werte:
  • ISO-8859-1 (auch bekannt als Latin-1)
  • UTF-8
--field_delimiter oder -F
Das Zeichen, das die Begrenzung zwischen Spalten in den Daten angibt. Sowohl \t als auch tab sind als Tabulatortrennzeichen zulässig.
--ignore_unknown_values
Ignoriert für CSV- und JSON-Dateien Zeilen mit zusätzlichen Spaltenwerten, die nicht mit dem Schema übereinstimmen, und lädt diese nicht.
--max_bad_records
Eine Ganzzahl, die die Höchstzahl ungültiger Datensätze angibt, bevor der gesamte Job fehlschlägt. Der Standardwert ist 0. Es werden höchstens fünf Fehler pro Typ zurückgegeben, unabhängig vom Wert --max_bad_records.
--null_marker
Ein optionaler benutzerdefinierter String, der einen NULL-Wert in CSV-Daten darstellt.
--projection_fields
Wenn für --source_format der Wert DATASTORE_BACKUP angegeben ist, legt das Flag fest, welche Entitätsattribute aus einem Datastore-Export als eine durch Kommas getrennte Liste geladen werden sollen. Bei Attributnamen wird zwischen Groß- und Kleinschreibung unterschieden. Außerdem müssen sie sich auf Attribute der obersten Ebene beziehen. Der Standardwert ist ''. Dieses Flag kann auch für Firestore-Exporte verwendet werden.
--quote
Das Anführungszeichen zum Umschließen von Datensätzen. Der Standardwert ist " Wenn Sie kein Anführungszeichen angeben möchten, verwenden Sie einen leeren String.
--replace
Löscht vorhandene Daten, wenn neue Daten geladen werden. Der Standardwert ist false.
--schema
Entweder der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format field:data_type, field:data_type.
--schema_update_option

Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Zulässige Werte:

  • ALLOW_FIELD_ADDITION: Ermöglicht das Einfügen neuer Felder zur Schemadefinition
  • ALLOW_FIELD_RELAXATION: Ermöglicht das Ändern von REQUIRED-Feldern in NULLABLE

Wiederholen Sie dieses Flag, wenn Sie mehrere Optionen für die Schemaaktualisierung angeben möchten.

--skip_leading_rows

Eine Ganzzahl, die die Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei angibt.

--source_format

Das Format der Quelldaten. Zulässige Werte:

  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO
  • DATASTORE_BACKUP
  • PARQUET
  • ORC
--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Der einzig mögliche Wert ist derzeit DAY. Er generiert eine Partition pro Tag.

--use_avro_logical_types

Wenn sourceFormat auf AVRO gesetzt ist, werden logische Typen in die entsprechenden Typen konvertiert, z. B. TIMESTAMP, anstatt nur deren Rohtypen zu verwenden, z. B. INTEGER.

bq ls

Der Befehl ls listet Objekte in einer Sammlung auf.

Weitere Informationen zur Verwendung des Befehls ls finden Sie unter:

Der Befehl ls verwendet die folgenden befehlsspezifischen Flags:

--all oder -a
Ruft alle Ergebnisse ab: Jobs von allen Nutzern oder allen Datasets (einschließlich ausgeblendeter). Das Flag wird nicht benötigt, wenn Übertragungskonfigurationen oder Übertragungsausführungen aufgelistet werden.
--datasets oder -d
Listet Datasets auf. Der Standardwert ist false.
--filter

Listet Datasets auf, die dem Filterausdruck entsprechen. Verwenden Sie eine durch Leerzeichen getrennte Liste mit Labelschlüsseln und -werten im Format labels.key:value. Für Übertragungskonfigurationen listet ein Filterausdruck im Format dataSourceIds:data_sources die Übertragungskonfigurationen für die angegebenen Datenquellen auf. Zulässige Werte:

  • dcm_dt: Campaign Manager
  • google_cloud_storage: Cloud Storage
  • dfp_dt: Google Ad Manager
  • adwords: Google Ads
  • merchant_center: Google Merchant Center
  • play: Google Play
  • doubleclick_search: Search Ads 360
  • youtube_channel: YouTube-Kanalberichte
  • youtube_content_owner: YouTube-Rechteinhaberberichte

Auch für Übertragungsausführungen listet ein Filterausdruck im Format states:state Übertragungsausführungen mit den angegebenen Zuständen auf. Zulässige Werte: + SUCCEEDED + FAILED + PENDING + RUNNING + CANCELLED

--jobs oder -j

Listet Jobs auf. Der Standardwert ist false. Es gilt standardmäßig ein Limit von 100.000 Ergebnissen.

--max_creation_time

Eine Ganzzahl, die einen Zeitstempel in Millisekunden darstellt. Zusammen mit dem Flag -j listet dieses Flag Jobs auf, die vor dem Zeitstempel erstellt wurden.

--max_results oder -n

Eine Ganzzahl, die die maximale Anzahl von Ergebnissen angibt. Der Standardwert ist 50.

--min_creation_time

Eine Ganzzahl, die einen Zeitstempel in Millisekunden darstellt. Zusammen mit dem Flag -j listet dieses Flag Jobs auf, die nach dem Zeitstempel erstellt wurden.

--message_type

Geben Sie messageTypes:message_type zum Auflisten von Logmeldungen für Übertragungsjobs eines bestimmten Typs an. Zulässige Werte:

  • INFO
  • WARNING
  • ERROR
--models oder -m

Listet BigQuery ML-Modelle auf.

--page_token oder -k

Listet Elemente beginnend mit diesem Seitentoken auf.

--projects oder -p

Ruft alle Projekte ab. Der Standardwert ist false

--run_attempt

Setzen Sie dieses Flag auf LATEST, um nur die neuesten Ausführungen einer Übertragung aufzulisten.

--transfer_config

Listet die Transferkonfigurationen auf. Wenn Sie dieses Flag verwenden, müssen Sie auch --transfer_location angeben. Der Standardwert ist false.

--transfer_location

Listet Übertragungskonfigurationen am angegebenen Speicherort auf. Sie legen den Übertragungsort bei der Erstellung der Übertragung fest.

--transfer_log

Listet die Logmeldungen von Übertragungen für die angegebene Übertragungsausführung auf. Der Standardwert ist false.

--transfer_run

Listet Übertragungen auf. Der Standardwert ist false.

bq mk

Mit dem Befehl mk wird ein Dataset, eine Tabelle, eine Datenansicht, eine materialisierte Ansicht oder eine Übertragungskonfiguration erstellt.

Weitere Informationen zur Verwendung des Befehls mk mit BigQuery finden Sie unter:

Weitere Informationen zur Verwendung des Befehls mk mit dem BigQuery Data Transfer Service finden Sie unter:

Der Befehl mk verwendet die folgenden befehlsspezifischen Flags:

--clustering_fields
Eine durch Kommas getrennte Liste mit Spaltennamen, die zum Clustern einer Tabelle verwendet werden. Dieses Flag ist derzeit nur für partitionierte Tabellen verfügbar. Wenn dieses Flag festgelegt ist, wird die Tabelle partitioniert und dann mithilfe der angegebenen Spalten geclustert.
--data_location
(Alt): Gibt den Speicherort des Datasets an. Verwenden Sie stattdessen das globale Flag --location.
--data_source

Gibt die Datenquelle für eine Übertragungskonfiguration an. Zulässige Werte:

  • dcm_dt: Campaign Manager
  • google_cloud_storage: Cloud Storage
  • dfp_dt: Google Ad Manager
  • adwords: Google Ads
  • merchant_center: Google Merchant Center
  • play: Google Play
  • doubleclick_search: Search Ads 360
  • youtube_channel: YouTube-Kanalberichte
  • youtube_content_owner: YouTube-Rechteinhaberberichte

Der Standardwert ist ''.

--dataset oder -d

Erstellt ein Dataset. Der Standardwert ist false

--default_kms_key

Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Tabellendaten in einem Dataset verwendet wird, wenn während der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.

--default_partition_expiration

Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag --time_partitioning_expiration angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene.

--default_table_expiration

Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.

--description

Die Beschreibung des Datasets oder der Tabelle.

--destination_kms_key

Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Tabellendaten verwendet wird.

--display_name

Der Anzeigename für die Übertragungskonfiguration. Der Standardwert ist ''

--enable_refresh

Gibt an, ob die automatische Aktualisierung für eine materialisierte Ansicht aktiviert ist. Der Standardwert beim Erstellen einer materialisierten Ansicht ist true.

--end_time

Ein Zeitstempel, der die Endzeit für eine Reihe von Übertragungsausführungen angibt. Das Format für den Zeitstempel ist RFC3339 UTC "Zulu".

--expiration

Eine Ganzzahl, die die Ablaufzeit der Tabelle oder Ansicht angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.

--external_table_definition

Gibt eine Tabellendefinition an, die zum Erstellen einer externen Tabelle verwendet werden soll. Der Wert kann entweder eine Inline-Tabellendefinition oder ein Pfad zu einer Datei mit einer JSON-Tabellendefinition sein. Das Format einer Inline-Definition ist schema@format=uri.

--force oder -f

Wenn dieses Flag angegeben und eine Ressource vorhanden ist, entspricht der Exit-Code 0. Der Standardwert ist false

--label

Ein Label, das für die Tabelle angegeben wird. Das Format dafür ist key:value. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.

--materialized_view

Wenn dieses Flag angegeben ist, wird eine materialisierte Ansicht erstellt.

--params oder -p

Die Parameter für eine Übertragungskonfiguration im JSON-Format: {"parameter":"value"}. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie unter Einführung in BigQuery Data Transfer Service.

--refresh_interval_ms

Die Zeit in Millisekunden für das Aktualisierungsintervall einer materialisierten Ansicht. Wenn nicht angegeben, beträgt das Aktualisierungsintervall für eine materialisierte Ansicht, für die die Aktualisierung aktiviert ist, 1.800.000 Millisekunden, also 30 Minuten.

--refresh_window_days

Eine Ganzzahl, die das Aktualisierungsfenster für eine Übertragungskonfiguration in Tagen angibt. Der Standardwert ist 0.

--require_partition_filter

Legt fest, ob für Abfragen in der bereitgestellten Tabelle ein Partitionsfilter erforderlich ist. Gilt nur für partitionierte Tabellen. Der Standardwert ist true.

--schema

Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format field:data_type,field:data_type. Der Standardwert ist ''.

--start_time

Ein Zeitstempel, der die Startzeit für eine Reihe von Übertragungsausführungen angibt. Das Format für den Zeitstempel ist RFC3339 UTC "Zulu".

--table oder -t

Erstellt eine Tabelle. Der Standardwert ist false.

--target_dataset

Der Zieldatensatz für eine Übertragungskonfiguration. Der Standardwert ist ''.

--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Der einzig mögliche Wert ist derzeit DAY. Er generiert eine Partition pro Tag.

--transfer_config

Erstellt eine Übertragungskonfiguration. Wenn Sie dieses Flag verwenden, müssen Sie auch die Parameter --data_source, --display_name, --target_dataset und --params angeben. Die Optionen für --params variieren je nach dem spezifischen Wert data_source. Der Standardwert ist false.

--transfer_run

Erstellt Übertragungsausführungen für einen Zeitraum. Der Standardwert ist false.

--use_legacy_sql

Wenn dieser Wert auf false gesetzt ist, wird eine Standard-SQL-Abfrage zum Erstellen einer Ansicht verwendet. Der Standardwert ist true (verwendet Legacy-SQL).

--view

Erstellt eine Ansicht. Der Standardwert ist ''.

--view_udf_resource

Der Cloud Storage-URI oder der Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource geladen und ausgewertet und dann von der SQL-Abfrage einer Ansicht verwendet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.

bq mkdef

Mit dem Befehl mkdef wird eine Tabellendefinition im JSON-Format für Daten erstellt, die in Cloud Storage oder Drive gespeichert sind.

Weitere Informationen zur Verwendung des Befehls mkdef finden Sie unter Tabellendefinitionsdatei für eine externe Datenquelle erstellen.

Der Befehl mkdef verwendet die folgenden befehlsspezifischen Flags:

--autodetect
Verwendet die automatische Schemaerkennung für CSV- und JSON-Daten.
--ignore_unknown_values oder -i
Ignoriert alle Werte in einer Zeile , die nicht im Schema der Tabelle enthalten sind.
--source_format
Das Format der Quelldaten. Zulässige Werte:
  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO
  • DATASTORE_BACKUP
  • GOOGLE_SHEETS Der Standardwert ist CSV.

bq partition

Mit dem Befehl partition werden mit Datum benannte Tabellen (enden mit YYYYMMDD) in partitionierte Tabellen konvertiert.

Weitere Informationen zur Verwendung des Befehls partition finden Sie unter Datumsfragmentierte Tabellen in nach Aufnahmezeit partitionierte Tabellen konvertieren.

Der Befehl partition verwendet die folgenden befehlsspezifischen Flags:

--no_clobber oder -n
Überschreibt keine vorhandenen Partitionen. Der Standardwert ist false.
--time_partitioning_expiration
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_type
Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Der einzig mögliche Wert ist derzeit DAY. Er generiert eine Partition pro Tag.

bq query

Mit dem Befehl query wird ein Abfragejob erstellt, der die angegebene SQL-Abfrage ausführt.

Weitere Informationen zur Verwendung des Befehls query finden Sie unter Interaktive Abfragen und Batchabfragen ausführen.

Der Befehl query verwendet die folgenden befehlsspezifischen Flags:

--allow_large_results
Aktiviert große Zieltabellengrößen für Legacy-SQL-Abfragen.
--append_table
Hängt Daten an eine Zieltabelle an. Der Standardwert ist false.
--batch
Führt Abfrage im Batchmodus aus. Der Standardwert ist false.
--clustering_fields
Verwendet eine durch Kommas getrennte Liste von Spalten, um die Zieltabelle in einer Abfrage zu clustern. Dieses Flag muss mit den Flags für die zeitbasierte Partitionierung verwendet werden, um entweder eine nach Aufnahmezeit partitionierte Tabelle oder eine nach der Spalte DATE oder TIMESTAMP partitionierte Tabelle zu erstellen. Wenn Sie dieses Flag angeben, wird die Tabelle zuerst partitioniert und dann anhand der entsprechenden Spalten geclustert.
--destination_kms_key
Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Zieltabellendaten verwendet wird.
--destination_schema
Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format field:data_type,field:data_type. Der Standardwert ist ''.
--destination_table
Der Name der Zieltabelle zum Schreiben von Abfrageergebnissen. Der Standardwert ist ''.
--dry_run
Überprüft die Abfrage, ohne sie auszuführen.
--external_table_definition
Der Tabellenname und die Schemadefinition, die in einer Abfrage für eine externe Tabelle verwendet werden. Das Schema kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format field:data_type,field:data_type sein. Das Format für den Tabellennamen und das Schema lautet: table::path_to_file oder table::schema@source_format=cloud_storage_uri. Wiederholen Sie dieses Flag, um mehrere Tabellen abzufragen.
--flatten_results
Vereinfacht verschachtelte und wiederkehrende Felder in den Ergebnissen von Abfragen in Legacy-SQL. Der Standardwert ist true.
--label
Ein Label, das auf einen Abfragejob im Format key:value angewendet werden soll. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--max_rows oder -n
Eine Ganzzahl, die die Anzahl der Zeilen angibt, die in den Abfrageergebnissen zurückgegeben werden sollen. Der Standardwert ist 100.
--maximum_bytes_billed
Eine Ganzzahl, die die für die Abfrage berechneten Byte begrenzt. Abfragen, die das Limit überschreiten, schlagen fehl (ohne dass eine Gebühr anfällt). Wenn nicht angegeben, wird die Menge der berechneten Byte auf den Standardwert des Projekts eingestellt.
--min_completion_ratio
[Experimentell] Eine Zahl zwischen 0 und 1, die den Mindestanteil der Daten angibt, die gescannt werden müssen, bevor eine Abfrage zurückgegeben wird. Wenn dieses Flag nicht festgelegt ist, wird der Standardwert 1.0 des Servers verwendet.
--parameter
Entweder eine JSON-Datei mit einer Liste von Abfrageparametern oder ein Abfrageparameter im Format name:type:value. Bei fehlender Namensangabe wird ein Positionsparameter erstellt. Ist type nicht angegeben, wird ein STRING-Wert im Format name::value oder ::value festgelegt. NULL generiert einen Nullwert. Wiederholen Sie dieses Flag, wenn Sie mehrere Parameter angeben möchten.
--replace
Überschreibt die Zieltabelle mit den Abfrageergebnissen. Der Standardwert ist false.
--require_cache
Führt die Abfrage nur aus, wenn Ergebnisse aus dem Cache abgerufen werden können.
--require_partition_filter
Erfordert für Abfragen der bereitgestellten Tabelle einen Partitionsfilter. Dieses Flag kann nur für eine partitionierte Tabelle verwendet werden.
--rpc
Verwendet die Abfrage-API im RPC-Format anstelle der REST API-Methode jobs.insert. Der Standardwert ist false.
--schedule
Macht aus einer Abfrage eine wiederkehrende geplante Abfrage. Hierfür ist ein Zeitplan erforderlich, der angibt, wie häufig die Abfrage ausgeführt werden soll. Beispiele:
  • --schedule='every 24 hours'
  • --schedule='every 3 hours'
--schema_update_option

Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Zulässige Werte:

  • ALLOW_FIELD_ADDITION: Ermöglicht das Einfügen neuer Felder zur Schemadefinition
  • ALLOW_FIELD_RELAXATION: Ermöglicht das Ändern von REQUIRED-Feldern in NULLABLE

Wiederholen Sie dieses Flag, um mehrere Optionen für die Schemaaktualisierung anzugeben.

--start_row oder -s

Eine Ganzzahl, die die erste Zeile angibt, die im Abfrageergebnis zurückgegeben werden soll. Der Standardwert ist 0.

--target_dataset

Bei Angabe dieses Flags mit --schedule wird das Ziel-Dataset für eine geplante Abfrage aktualisiert. Die Abfrage muss in DDL oder DML vorliegen.

--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Der einzig mögliche Wert ist derzeit DAY. Er generiert eine Partition pro Tag.

--udf_resource

Dieses Flag gilt nur für Legacy-SQL-Abfragen. Es legt den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei fest, die sofort als benutzerdefinierte Funktionsressource geladen und ausgewertet und dann von der SQL-Abfrage einer Ansicht verwendet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.

--use_cache

Mit diesem Flag können Abfrageergebnisse zwischengespeichert werden. Der Standardwert ist true.

--use_legacy_sql

Wenn dieser Wert auf false gesetzt ist, wird eine Standard-SQL-Abfrage ausgeführt. Der Standardwert ist true (verwendet Legacy-SQL).

bq rm

Mit dem Befehl rm wird ein Dataset, eine Tabelle, eine Datenansicht, ein Modell oder eine Übertragungskonfiguration gelöscht.

Weitere Informationen zur Verwendung des Befehls rm finden Sie unter:

Der Befehl rm verwendet die folgenden befehlsspezifischen Flags:

--dataset oder -d
Löscht ein Dataset. Der Standardwert ist false.
--force oder -f
Löscht eine Tabelle, eine Ansicht oder ein Dataset ohne Eingabeaufforderung. Der Standardwert ist false.
--model oder -m
Löscht ein BigQuery ML-Modell.
--recursive oder -r
Löscht ein Dataset sowie alle darin enthaltenen Tabellen, Tabellendaten und Modelle. Der Standardwert ist false.
--table oder -t
Löscht eine Tabelle. Der Standardwert ist false.
--transfer_config
Löscht eine Übertragungskonfiguration. Der Standardwert ist false.

bq show

Mit dem Befehl show werden Informationen zu einem Objekt angezeigt.

Weitere Informationen zur Verwendung des Befehls show finden Sie unter:

Der Befehl show verwendet die folgenden befehlsspezifischen Flags:

--dataset oder -d
Ruft Informationen zu einem Dataset ab. Der Standardwert ist false.
--encryption_service_account
Ruft das Dienstkonto eines Nutzers ab, sofern vorhanden, oder erstellt ein Dienstkonto, sofern nicht vorhanden. Der Standardwert ist false.
--job oder -j
Ruft Informationen zu einem Job ab. Der Standardwert ist false
--model oder -m
Ruft Informationen zu einem BigQuery ML-Modell ab.
--schema
Ruft nur das Schema der Tabelle ab. Der Standardwert ist false
--transfer_config
Ruft Informationen zu einer Übertragungskonfiguration ab. Der Standardwert ist false.
--transfer_run
Ruft Informationen zu einer Übertragungsausführung ab. Der Standardwert ist false.
--view
Ruft Informationen zu einer Ansicht ab. Der Standardwert ist false

bq update

Mit dem Befehl update wird ein Dataset, eine Tabelle, eine Datenansicht, ein Modell oder eine Übertragungskonfiguration aktualisiert.

Weitere Informationen zur Verwendung des Befehls update finden Sie unter:

Der Befehl update verwendet die folgenden befehlsspezifischen Flags:

--clear_label
Entfernt ein Label mit dem Format key:. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu entfernen.
--dataset oder -d
Aktualisiert ein Dataset. Der Standardwert ist false.
--default_kms_key
Aktualisiert ein Dataset und legt den Cloud KMS-Schlüssel fest, mit dem die Tabellendaten in einem Dataset verschlüsselt werden, wenn während der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration

Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Für dieses Flag gilt kein Mindestwert.

Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag --time_partitioning_expiration angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene. Geben Sie 0 an, um einen vorhandenen Ablauf zu entfernen.

--default_table_expiration

Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset aktualisiert. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert. Geben Sie 0 an, um den vorhandenen Ablauf zu entfernen.

--description

Aktualisiert die Beschreibung eines Datasets, einer Tabelle, eines Modells oder einer Ansicht.

--display_name

Aktualisiert den Anzeigenamen für eine Übertragungskonfiguration. Der Standardwert ist ''.

--etag

Aktualisiert Ressourcen nur, wenn das etag übereinstimmt.

--expiration

Eine Ganzzahl, die die Ablaufzeit in Sekunden für eine Tabelle, eine Ansicht oder ein Modell aktualisiert. Wenn Sie 0 angeben, wird die Ablaufzeit entfernt.

--external_table_definition

Aktualisiert eine externe Tabelle mit der angegebenen Tabellendefinition. Das Schema kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format field:data_type,field:data_type sein. Das Format für den Tabellennamen und das Schema lautet: table::path_to_file oder table::schema@source_format=cloud_storage_uri.

--model oder -m

Aktualisiert Metadaten für ein BigQuery ML-Modell.

--params oder -p

Aktualisiert Parameter für eine Übertragungskonfiguration im JSON-Format: {"parameter":"value"}. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie unter Einführung in BigQuery Data Transfer Service.

--refresh_window_days

Eine Ganzzahl, die ein aktualisiertes Aktualisierungsfenster (in Tagen) für eine Übertragungskonfiguration angibt.

--schema

Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format field:data_type,field:data_type. Der Standardwert ist ''.

--set_label

Ein zu aktualisierendes Label im Format key:value. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu aktualisieren.

--source

Der Pfad zu einer lokalen JSON-Datei, die eine Nutzlast zum Aktualisieren einer Ressource enthält. Mit diesem Flag können Sie beispielsweise eine JSON-Datei angeben, die eine Dataset-Ressource mit einem aktualisierten access-Attribut enthält. Die Datei wird verwendet, um die Zugriffssteuerungen des Datasets zu überschreiben.

--table oder -t

Aktualisiert eine Tabelle. Der Standardwert ist false.

--target_dataset

Aktualisiert das Ziel-Dataset für eine Übertragungskonfiguration. Der Standardwert ist ''.

--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) aktualisiert wird, wenn eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Aktualisiert das Feld, mit dem festgelegt wird, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Aktualisiert den zeitbasierten Partitionierungstyp für eine Tabelle. Der einzig mögliche Wert ist derzeit DAY. Er generiert eine Partition pro Tag.

--transfer_config

Aktualisiert eine Übertragungskonfiguration. Der Standardwert ist false.

--update_credentials

Aktualisiert die Anmeldedaten einer Übertragungskonfiguration. Der Standardwert ist false.

--use_legacy_sql

Wenn dieser Wert auf false gesetzt ist, wird die SQL-Abfrage für eine Ansicht von Legacy-SQL auf Standard-SQL aktualisiert. Der Standardwert ist true, verwendet also Legacy-SQL.

--view

Aktualisiert die SQL-Abfrage für eine Ansicht. Der Standardwert ist ''.

--view_udf_resource

Aktualisiert den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource in die SQL-Abfrage einer Ansicht geladen und dort ausgewertet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.

bq wait

Mit dem Befehl wait wird einige Sekunden gewartet, bis ein Job abgeschlossen ist.

Der Befehl wait verwendet das globale Flag --job_id und die folgenden befehlsspezifischen Flags.

integer
Ein ganzzahliger Wert > = 0, der die Wartezeit angibt (dieser Wert ist kein Flag – Sie geben die Ganzzahl in der Befehlszeile an). Wenn Sie 0 eingeben, fragt der Befehl den Job ab und wird nach dessen Abschluss sofort zurückgegeben. Wenn Sie keinen ganzzahligen Wert angeben, wartet der Befehl für unbegrenzte Zeit.
--fail_on_error
Beendet den Vorgang nach Ablauf der Wartezeit mit einem Fehler, falls der Job noch ausgeführt wird oder aufgrund eines Fehlers abgebrochen wurde. Der Standardwert ist true.
--wait_for_status

Wartet auf einen bestimmten Jobstatus, bevor der Vorgang beendet wird. Zulässige Werte:

  • PENDING
  • RUNNING
  • DONE

Der Standardwert ist DONE.