Referenz zum Befehlszeilentool

In diesem Dokument werden die Befehle und Flags des bq-Befehlszeilentools erläutert. Weitere Informationen zum Verwenden des bq-Befehlszeilentools finden Sie unter bq-Befehlszeilentool verwenden.

Globale Flags

Im bq-Befehlszeilentool können Sie die folgenden globalen Flags verwenden.

[VERWORFEN] bq Autorisierungs-Flags

Die bq-Autorisierungs-Flags wurden verworfen. Informationen zum Konfigurieren der Autorisierung für das bq-Befehlszeilentool finden Sie unter Cloud SDK-Tools autorisieren.

--application_default_credential_file
Weitere Informationen finden Sie unter Authentifizierung für Server-zu-Server-Produktionsanwendungen einrichten. Der Standardwert ist ''.
--credential_file
Der Dateiname, der zum Speichern des OAuth-Tokens verwendet wird. Der Standardwert ist $HOME/.bigquery.v2.token.
--service_account
Verwenden Sie die E-Mail-Adresse dieses Dienstkontos für die Autorisierung. Beispiel: 1234567890@developer.gserviceaccount.com Der Standardwert ist ''.
--service_account_credential_file
Die Datei, die als Anmeldedatenspeicher für Dienstkonten verwendet wird. Dieses Flag muss gesetzt sein, wenn Sie ein Dienstkonto verwenden.
--service_account_private_key_file
Die Datei, die den privaten Schlüssel des Dienstkontos enthält. Dieses Flag ist erforderlich, wenn das Flag --service_account angegeben ist. Der Standardwert ist ''.
--service_account_private_key_password
Das Passwort für den privaten Schlüssel. Das Passwort muss mit dem Passwort übereinstimmen, das Sie beim Erstellen des Schlüssels festgelegt haben. Der Standardwert ist notasecret.
--use_gce_service_account
Geben Sie dieses Flag bei der Ausführung auf einer Compute Engine-Instanz an, um die Anmeldedaten eines Dienstkontos anstelle von gespeicherten Anmeldedaten zu verwenden. Weitere Informationen finden Sie unter Dienstkonten für Instanzen erstellen und aktivieren. Der Standardwert ist false.

Globale Flags in bq

--api
Der API-Endpunkt, der aufgerufen werden soll. Der Standardwert ist https://www.googleapis.com.

--api_version Die zu verwendende API-Version. Der Standardwert ist v2

--apilog
Protokolliert alle API-Anfragen und -Antworten in der von diesem Flag angegebenen Datei. Sie können auch stdout und stderr verwenden. Bei Angabe eines leeren Strings ('') wird zu stdout weitergeleitet.
--bigqueryrc
Der Pfad zur Konfigurationsdatei des bq-Befehlszeilentools. Die Konfigurationsdatei gibt neue Standardwerte für alle Flags an und kann überschrieben werden. Dazu wird das Flag in der Befehlszeile angegeben. Wenn das Flag --bigqueryrc nicht angegeben ist, wird die Umgebungsvariable BIGQUERYRC verwendet. Wenn diese nicht angegeben ist, wird der Pfad ~/.bigqueryrc verwendet. Der Standardwert ist $HOME/.bigqueryrc
--ca_certificates_file
Der Speicherort Ihrer CA-Zertifikatsdatei. Der Standardwert ist ''.
--dataset_id
Das Standard-Dataset für Anfragen. Dieses Flag wird ignoriert, wenn es nicht anwendbar ist. Sie können als Wert project_id:dataset oder dataset festlegen. Wenn project_id fehlt, wird das Standardprojekt verwendet. Sie können diese Einstellung durch Angabe des Flags --project_id überschreiben. Der Standardwert ist ''.
--debug_mode
Zeigt Tracebacks bei Python-Ausnahmen an. Der Standardwert ist false.
--disable_ssl_validation
Deaktiviert die HTTPS-Zertifikatsprüfung. Der Standardwert ist false.
--discovery_file
Der Dateiname der JSON-Datei, die für die Erkennung gelesen werden soll. Der Standardwert ist ''.
--enable_gdrive
Wenn hierfür true festgelegt ist, wird ein neues OAuth-Token mit dem GDrive-Bereich angefordert. Wenn false festgelegt ist, wird ein neues OAuth-Token ohne GDrive-Bereich angefordert.
--fingerprint_job_id
Legt fest, ob eine Job-ID verwendet werden soll, die von einem Fingerabdruck der Jobkonfiguration abgeleitet wurde. Dadurch wird verhindert, dass ein Job versehentlich mehrmals ausgeführt wird. Der Standardwert ist false.
--flagfile
Wenn angegeben, werden Flag-Definitionen aus der übermittelten Datei in das bq-Befehlszeilentool eingefügt. Der Standardwert ist ''.
--format

Gibt das Format der Ausgabe des Befehls an. Es gibt folgende Optionen:

  • pretty: Formatierte Tabellenausgabe
  • sparse: Einfachere Tabellenausgabe
  • prettyjson: Leicht lesbares JSON-Format
  • json: Maximal komprimiertes JSON
  • csv: CSV-Format mit Header

pretty, sparse und prettyjson sind für Menschen lesbar. json und csv dienen der Übergabe an ein anderes Programm. Wenn none angegeben ist, erzeugt der Befehl keine Ausgabe. Wenn das Flag --format fehlt, wird basierend auf dem Befehl ein geeignetes Ausgabeformat ausgewählt.

--headless

Gibt an, ob die bq-Sitzung ohne Nutzerinteraktion ausgeführt werden soll. Ist das Flag auf true gesetzt, wird die Interaktion deaktiviert. So wird beispielsweise der Debugger durch debug_mode nicht unterbrochen, und die Häufigkeit des Informationsdrucks verringert sich. Der Standardwert ist false.

--job_id

Eine eindeutige Job-ID, die für die Anfrage verwendet werden soll. Wurde in einer Joberstellungsanfrage keine Job-ID angegeben, wird sie generiert. Dieses Flag gilt nur für Befehle, die Jobs erstellen: cp, extract, load und query. Weitere Informationen finden Sie unter Jobs programmatisch ausführen.

--job_property

Ein zusätzliches Schlüssel/Wert-Paar, das in das Feld für Attribute in der Jobkonfiguration aufgenommen werden soll. Definieren Sie dieses Flag wiederholt, um weitere Attribute anzugeben.

--location

Ein String, der Ihrer Region oder Ihrem multiregionalen Standort entspricht. Für den Befehl cancel und den Befehl show ist das Standort-Flag erforderlich, wenn Sie das Flag -j dazu verwenden, Jobinformationen abzurufen. Für die folgenden Befehle ist das Standort-Flag optional:

Alle anderen Befehle ignorieren das Flag --location.

--max_rows_per_request

Eine Ganzzahl, die die maximale Anzahl von Zeilen angibt, die pro Lesevorgang zurückgegeben werden.

--project_id

Die Projekt-ID für Anfragen. Der Standardwert ist ''.

--proxy_address

Der Name oder die IP-Adresse des Proxyhosts, der für die Verbindung mit Google Cloud verwendet werden soll. Der Standardwert ist ''.

--proxy_password

Das Passwort, das zur Authentifizierung beim Proxy-Host verwendet werden soll. Der Standardwert ist ''.

--proxy_port

Die Portnummer zum Herstellen der Verbindung mit dem Proxyhost. Der Standardwert ist ''.

--proxy_username

Der Nutzername für die Authentifizierung beim Proxyhost. Der Standardwert ist ''.

--quiet oder -q

Wenn true festgelegt ist, werden Statusaktualisierungen während der Jobausführung ignoriert. Der Standardwert ist false.

--synchronous_mode oder -sync

Wenn true festgelegt ist, wird auf den Abschluss des Befehls gewartet, bevor er zurückgegeben wird. Der Abschlussstatus des Jobs wird als Fehlercode verwendet. Wenn false festgelegt ist, wird der Job erstellt und für den Fehlercode der Status "Erfolgreicher Abschluss" verwendet. Der Standardwert ist true.

--trace

Ein Tracing-Token, das als token:token angegeben wird, um es in API-Anfragen einzuschließen.

Befehlsspezifische Flags

Im bq-Befehlszeilentool können Sie folgende Befehls-Flags verwenden.

bq add-iam-policy-binding

Der Befehl add-iam-policy-binding ruft die IAM-Richtlinie (Identity and Access Management) für eine Ressource (Tabelle oder Ansicht) ab und fügt in einem Schritt eine Bindung zur Richtlinie hinzu.

Dieser Befehl ist eine Alternative zum dreistufigen Prozess, bei dem der Befehl get-iam-policy zum Abrufen der Richtliniendatei (im JSON-Format) und zum Bearbeiten der Richtliniendatei verwendet wird. Anschließend wird der Befehl set-iam-policy genutzt, um die Richtlinie mit einer neuen Bindung zu aktualisieren.

Verwendung:

bq add-iam-policy-binding --member="MEMBER" --role="ROLE" [-COMMAND_FLAGS] RESOURCE_IDENTIFIER

Der Befehl add-iam-policy-binding verwendet die folgenden befehlsspezifischen Flags und Argumente.

--member
Der Mitgliederteil der IAM-Richtlinienbindung. Das Flag --member ist zusammen mit dem Flag --role erforderlich. Eine Kombination aus --member und --role entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie.
--role
Der Rollenteil der IAM-Richtlinienbindung. Das Flag --role ist mit dem Flag --member erforderlich. Eine Kombination aus --member- und --role-Flags entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie.
-t --table/view
Verwendet, sofern angegeben, eine Bindung zur IAM-Richtlinie einer Tabelle oder Ansicht. Optional: Der Standardwert ist false.

RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.

bq cancel

Der Befehl cancel wird zum Abbrechen von Jobs verwendet. Der Befehl cancel hat keine befehlsspezifischen Flags.

Weitere Informationen zur Verwendung des Befehls cancel finden Sie unter Jobs verwalten.

Der Befehl cancel verwendet die folgenden globalen Flags.

--job_id
Eine eindeutige Job-ID für die Kündigungsanfrage. Sie können die Job-ID ohne Verwendung des Flags --job_id angeben. Beispiel: bq cancel [JOB_ID].
--synchronous_mode oder --sync
Wartet auf den Abschluss des Befehls, bevor er zurückgegeben wird. Wenn false festgelegt ist, wird der Befehl sofort zurückgegeben. Der Standardwert ist true.

bq cp

Der Befehl cp wird zum Kopieren von Tabellen verwendet. Der Befehl cp verwendet die folgenden befehlsspezifischen Flags.

Weitere Informationen zur Verwendung des Befehls cp finden Sie unter Tabellen verwalten.

--append_table oder -a
Kopiert eine Tabelle kopiert und fügt sie an eine vorhandene Tabelle an. Der Standardwert ist false.
--destination_kms_key
Der Cloud KMS-Schlüssel, der für die Verschlüsselung der Zieltabellendaten verwendet wird.
--force oder -f
Überschreibt eine vorhandene Zieltabelle ohne Eingabeaufforderung. Der Standardwert ist false.
--no_clobber oder -n
Überschreibt eine vorhandene Zieltabelle nicht. Der Standardwert ist false.

bq extract

Mit dem Befehl extract werden Tabellendaten in Cloud Storage exportiert.

Weitere Informationen zur Verwendung des Befehls extract finden Sie unter Tabellendaten exportieren.

Der Befehl extract verwendet die folgenden befehlsspezifischen Flags:

--compression
Der für exportierte Dateien zu verwendende Komprimierungstyp. Mögliche Werte sind GZIP (nur CSV und JSON), DEFLATE (nur Avro), SNAPPY (nur Avro) und NONE. Der Standardwert ist NONE.
--destination_format

Das Format für die exportierten Daten. Zulässige Werte:

  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO

Der Standardwert ist CSV.

--field_delimiter oder -F

Das Zeichen, das die Begrenzung zwischen den Spalten in der Ausgabedatei für CSV-Exporte angibt. Sowohl \t als auch tab sind als Tabulatortrennzeichen zulässig.

--print_header

Druckt bei Formaten mit Kopfzeilen die entsprechenden Kopfzeilen. Der Standardwert ist true.

bq get-iam-policy

Mit dem Befehl get-iam-policy wird die IAM-Richtlinie für eine Ressource (Tabelle oder Ansicht) abgerufen und in stdout ausgegeben. Die Richtlinie hat das JSON-Format.

Weitere Informationen zum Befehl get-iam-policy mit Beispielen finden Sie unter Einführung in die Tabellenzugriffssteuerung.

Verwendung:

bq get-iam-policy [-COMMAND_FLAG] RESOURCE_IDENTIFIER

Der Befehl get-iam-policy verwendet das folgende befehlsspezifische Flag.

-t --table/view

Wenn dieses Flag angegeben ist, wird die IAM-Richtlinie einer Tabelle oder Ansicht abgerufen. Optional: Der Standardwert ist false

RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.

bq head

Mit dem Befehl head werden Zeilen in einer Tabelle angezeigt.

Weitere Informationen zur Verwendung des Befehls head finden Sie unter Tabellendaten verwalten.

Der Befehl head verwendet die folgenden befehlsspezifischen Flags:

--job oder -j
Geben Sie dieses Flag mit einer gültigen Job-ID an, um die Ergebnisse eines Abfragejobs zu lesen. Der Standardwert ist false.
--max_rows oder -n
Eine Ganzzahl, die beim Anzeigen von Tabellendaten die Anzahl der zu druckenden Zeilen angibt. Der Standardwert ist 100.
--selected_fields oder -c
Eine durch Kommas getrennte Liste, die eine Teilmenge von Feldern (einschließlich verschachtelter und wiederkehrender Felder) angibt, die beim Abrufen von Tabellendaten zurückgegeben werden. Wenn nicht angegeben, werden alle Spalten abgerufen.
--start_row oder -s
Eine Ganzzahl, die angibt, wie viele Zeilen vor dem Abrufen von Tabellendaten übersprungen werden sollen. Der Standardwert ist 0 (Start in der ersten Zeile).
--table oder -t
Geben Sie dieses Flag mit einer Tabellen-ID an, um Zeilen aus einer Tabelle zu lesen. Der Standardwert ist false.

bq insert

Mit dem Befehl insert können Sie Zeilen, die durch Zeilenumbruch getrennte JSON-formatierte Daten enthalten, über den Streaming-Zwischenspeicher einfügen. Datentypen werden so konvertiert, dass sie den Spaltentypen der Zieltabelle entsprechen. Dieser Befehl ist nur für Testzwecke vorgesehen. Zum Streamen von Daten in BigQuery verwenden Sie die API-Methode insertAll.

Weitere Informationen finden Sie unter Daten in BigQuery streamen.

Der Befehl insert verwendet die folgenden befehlsspezifischen Flags:

--ignore_unknown_values oder -i
Ignoriert alle Werte in einer Zeile, die nicht im Schema der Tabelle enthalten sind.
--skip_invalid_rows oder -s
Versucht, alle gültigen Zeilen einzufügen, auch wenn ungültige Zeilen vorhanden sind.
--template_suffix oder -x
Verwendet die Zieltabelle als Basisvorlage, und die Zeilen werden in eine Instanztabelle mit dem Namen {destination}{templateSuffix} eingefügt. BigQuery verwaltet das Erstellen der Instanztabelle mithilfe des Schemas der Basisvorlage.

bq load

Mit dem Befehl load werden Daten in eine Tabelle geladen.

Weitere Informationen zum Laden von Daten aus Cloud Storage mit dem Befehl load finden Sie unter:

Weitere Informationen zum Laden von Daten aus einer lokalen Quelle mit dem Befehl load finden Sie unter Daten aus einer lokalen Datenquelle in BigQuery laden.

Der Befehl load verwendet die folgenden befehlsspezifischen Flags:

--allow_jagged_rows
Lässt nachgestellte optionale Spalten in CSV-Daten zu.
--allow_quoted_newlines
Lässt Zeilenumbrüche innerhalb von Abschnitten in Anführungszeichen in CSV-Daten zu.
--autodetect
Aktiviert die automatische Schemaerkennung für CSV- und JSON-Daten.
--clustering_fields
Eine durch Kommas getrennte Liste mit bis zu vier Spaltennamen.
--destination_kms_key
Der Cloud KMS-Schlüssel für die Verschlüsselung der Zieltabellendaten.
--encoding oder -E
Die in den Daten verwendete Zeichencodierung. Zulässige Werte:
  • ISO-8859-1 (auch bekannt als Latin-1)
  • UTF-8
--field_delimiter oder -F
Das Zeichen, das die Begrenzung zwischen Spalten in den Daten angibt. Sowohl \t als auch tab sind als Tabulatortrennzeichen zulässig.
--ignore_unknown_values
Ignoriert für CSV- und JSON-Dateien Zeilen mit zusätzlichen Spaltenwerten, die nicht mit dem Schema übereinstimmen, und lädt diese nicht. Gleichermaßen werden bei Avro-, Parquet- und ORC-Dateien Felder im Dateischema, die im Tabellenschema nicht vorhanden sind, ignoriert und nicht geladen.
--max_bad_records
Eine Ganzzahl, die die Höchstzahl ungültiger Datensätze angibt, bevor der gesamte Job fehlschlägt. Der Standardwert ist 0. Es werden höchstens fünf Fehler pro Typ zurückgegeben, unabhängig vom Wert --max_bad_records.
--null_marker
Ein optionaler benutzerdefinierter String, der einen NULL-Wert in CSV-Daten darstellt.
--projection_fields
Wenn für --source_format der Wert DATASTORE_BACKUP angegeben ist, legt das Flag fest, welche Entitätsattribute aus einem Datastore-Export als eine durch Kommas getrennte Liste geladen werden sollen. Bei Attributnamen wird zwischen Groß- und Kleinschreibung unterschieden. Außerdem müssen sie sich auf Attribute der obersten Ebene beziehen. Der Standardwert ist ''. Dieses Flag kann auch für Firestore-Exporte verwendet werden.
--quote
Das Anführungszeichen zum Umschließen von Datensätzen. Der Standardwert ist " Wenn Sie kein Anführungszeichen angeben möchten, verwenden Sie einen leeren String.
--replace
Wenn dieses Flag angegeben ist, werden alle vorhandenen Daten und Schemas gelöscht, wenn neue Daten geladen werden. Cloud KMS-Schlüssel werden ebenfalls entfernt, wenn Sie nicht das Flag --destination_kms_key angeben. Der Standardwert ist false.
--schema
Entweder der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format field:data_type, field:data_type.
--schema_update_option

Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Zulässige Werte:

  • ALLOW_FIELD_ADDITION: Ermöglicht das Einfügen neuer Felder zur Schemadefinition
  • ALLOW_FIELD_RELAXATION: Ermöglicht das Ändern von REQUIRED-Feldern in NULLABLE

Wiederholen Sie dieses Flag, wenn Sie mehrere Optionen für die Schemaaktualisierung angeben möchten.

--skip_leading_rows

Eine Ganzzahl, die die Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei angibt.

--source_format

Das Format der Quelldaten. Zulässige Werte:

  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO
  • DATASTORE_BACKUP
  • PARQUET
  • ORC
--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Mögliche Werte sind DAY, HOUR, MONTH oder YEAR.

--use_avro_logical_types

Wenn sourceFormat auf AVRO gesetzt ist, werden logische Typen in die entsprechenden Typen konvertiert, z. B. TIMESTAMP, anstatt nur deren Rohtypen zu verwenden, z. B. INTEGER.

bq ls

Der Befehl ls listet Objekte in einer Sammlung auf.

Weitere Informationen zur Verwendung des Befehls ls finden Sie unter:

Der Befehl ls verwendet die folgenden befehlsspezifischen Flags:

--all oder -a
Ruft alle Ergebnisse ab: Jobs von allen Nutzern oder allen Datasets (einschließlich ausgeblendeter). Das Flag wird nicht benötigt, wenn Übertragungskonfigurationen oder Übertragungsausführungen aufgelistet werden.
--capacity_commitment
Listet Kapazitätszusicherungen auf. Der Standardwert ist false.
--datasets oder -d
Listet Datasets auf. Der Standardwert ist false.
--filter
Listet Datasets auf, die dem Filterausdruck entsprechen. Verwenden Sie eine durch Leerzeichen getrennte Liste mit Labelschlüsseln und -werten im Format labels.key:value. Für Übertragungskonfigurationen listet ein Filterausdruck im Format dataSourceIds:data_sources die Übertragungskonfigurationen für die angegebenen Datenquellen auf. Zulässige Werte:
  • dcm_dt: Campaign Manager
  • dcm_dt: Campaign Manager
  • google_cloud_storage: Cloud Storage
  • dfp_dt: Google Ad Manager
  • adwords: Google Ads
  • merchant_center: Google Merchant Center
  • play: Google Play
  • doubleclick_search: Search Ads 360
  • youtube_channel: YouTube-Kanalberichte
  • youtube_content_owner: YouTube-Rechteinhaberberichte

Auch für Übertragungsausführungen listet ein Filterausdruck im Format states:state Übertragungsausführungen mit den angegebenen Zuständen auf. Zulässige Werte:

  • SUCCEEDED
  • FAILED
  • PENDING
  • RUNNING
  • CANCELLED
--jobs oder -j
Wenn dieses Flag angegeben ist, werden Jobs aufgelistet. Der Standardwert ist false. Es gilt standardmäßig ein Limit von 100.000 Ergebnissen.
--max_creation_time
Eine Ganzzahl, die einen Zeitstempel in Millisekunden darstellt. Zusammen mit dem Flag -j listet dieses Flag Jobs auf, die vor dem Zeitstempel erstellt wurden.
--max_results oder -n
Eine Ganzzahl, die die maximale Anzahl von Ergebnissen angibt. Der Standardwert ist 50.
--min_creation_time
Eine Ganzzahl, die einen Zeitstempel in Millisekunden darstellt. Zusammen mit dem Flag -j listet dieses Flag Jobs auf, die nach dem Zeitstempel erstellt wurden.
--message_type

Geben Sie messageTypes:message_type zum Auflisten von Logmeldungen für Übertragungsjobs eines bestimmten Typs an. Zulässige Werte:

  • INFO
  • WARNING
  • ERROR
--models oder -m

Listet BigQuery ML-Modelle auf.

--page_token oder -k

Listet Elemente beginnend mit diesem Seitentoken auf.

--projects oder -p

Ruft alle Projekte ab. Der Standardwert ist false

--reservation

Wenn dieses Flag angegeben ist, werden alle Reservierungen für ein bestimmtes Projekt und eine bestimmte Zone aufgelistet. Der Standardwert ist false.

--reservation_assignment

Listet alle Reservierungszuweisungen für ein bestimmtes Projekt und einen Standort auf. Der Standardwert ist false.

--run_attempt

Setzen Sie dieses Flag auf LATEST, um nur die neuesten Ausführungen einer Übertragung aufzulisten.

--transfer_config

Listet die Transferkonfigurationen auf. Wenn Sie dieses Flag verwenden, müssen Sie auch --transfer_location angeben. Der Standardwert ist false.

--transfer_location

Listet Übertragungskonfigurationen am angegebenen Speicherort auf. Sie legen den Übertragungsort bei der Erstellung der Übertragung fest.

--transfer_log

Listet die Logmeldungen von Übertragungen für die angegebene Übertragungsausführung auf. Der Standardwert ist false.

--transfer_run

Listet Übertragungen auf. Der Standardwert ist false.

bq mk

Mit dem Befehl mk werden verschiedene BigQuery-Ressourcen erstellt, einschließlich Datasets, Tabellen, Ansichten, materialisierte Ansichten und Übertragungskonfigurationen.

Der Befehl mk verwendet ein Typ-Flag, das den Typ der zu erstellenden Ressource angibt, sowie andere Flags, die vom Ressourcentyp abhängen.

bq mk TYPE_FLAG [ OTHER FLAGS ] [ ARGS ]

Dabei steht TYPE_FLAG für einen der folgenden Werte:

Zusätzlich zu den unten aufgeführten befehlsspezifischen Flags unterstützt bq mk das folgende Flag:

--force oder -f
Ignorieren Sie Fehler, wenn eine Ressource mit demselben Namen bereits vorhanden ist. Wenn dieses Flag angegeben und eine Ressource vorhanden ist, entspricht der Exit-Code 0. Dieses Flag bewirkt nicht, dass der Befehl mk die Ressource überschreibt. Der Standardwert ist false.

bq mk --capacity_commitment

Erwerben Sie eine Kapazitätszusicherung. Weitere Informationen finden Sie unter Mit Zusicherungen arbeiten. Die folgenden Flags werden unterstützt:

--location
Der Standort des Projekts.
--plan
Der Plantyp. Eine der folgenden Möglichkeiten: FLEX, MONTHLY, ANNUAL.
--project_id
Die Projekt-ID des Projekts, das die Slots verwaltet.
--slots
Die Anzahl der Slots, die gekauft werden sollen.

bq mk --dataset

Erstellt ein Dataset. Weitere Informationen finden Sie unter Datasets erstellen. Die folgenden Flags werden unterstützt:

--data_location
(Alt): Gibt den Speicherort des Datasets an. Verwenden Sie stattdessen das globale Flag --location.
--default_kms_key
Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Tabellendaten in einem Dataset verwendet wird, wenn während der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration
Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag --time_partitioning_expiration angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene.
--default_table_expiration
Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--description
Die Beschreibung des Datasets.
--label
Ein Label für das Dataset. Das Format dafür ist key:value. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.

bq mk --materialized_view

Erstellt eine materialisierte Ansicht. Die folgenden Flags werden unterstützt:

--enable_refresh
Gibt an, ob die automatische Aktualisierung für eine materialisierte Ansicht aktiviert ist. Der Standardwert beim Erstellen einer materialisierten Ansicht ist true.
--refresh_interval_ms
Die Zeit in Millisekunden für das Aktualisierungsintervall einer materialisierten Ansicht. Wenn nicht angegeben, beträgt das Aktualisierungsintervall für eine materialisierte Ansicht, für die die Aktualisierung aktiviert ist, 1.800.000 Millisekunden, also 30 Minuten.

Weitere Informationen finden Sie unter Materialisierte Ansichten erstellen und verwenden.

bq mk --reservation

Erstellt eine Reservierung mit dedizierten Slots. Weitere Informationen finden Sie unter Mit Reservierungen arbeiten. Die folgenden Flags werden unterstützt:

--ignore_idle_slots
Bei true werden in dieser Reservierung ausgeführte Jobs nur Slots verwenden, die der Reservierung zugewiesen sind. Bei false können Jobs in dieser Reservierung inaktive Slots aus anderen Reservierungen oder Slots verwenden, die keiner Reservierung zugewiesen sind. Der Standardwert ist false. Weitere Informationen finden Sie unter Inaktive Slots.
--location
Der Standort des Projekts.
--project_id
Die Projekt-ID des Projekts, zu dem die Reservierung gehört.
--slots
Die Anzahl der Slots, die dieser Reservierung zugewiesen werden sollen.

bq mk --reservation_assignment

Weist einer Reservierung ein Projekt, einen Ordner oder eine Organisation zu. Weitere Informationen finden Sie unter Mit Zuweisungen arbeiten. Die folgenden Flags werden unterstützt:

--assignee_id
Die ID des Ordners, der Organisation oder des Projekts.
--assignee_type
Der Entitätstyp, der der Reservierung zugewiesen werden soll. Entweder FOLDER, ORGANIZATION oder PROJECT.
--job_type
Die Art des Jobs, der der Reservierung zugewiesen werden soll. Entweder QUERY, PIPELINE oder ML_EXTERNAL.
--location
Der Standort des Projekts.
--project_id
Die Projekt-ID des Projekts, zu dem die Reservierung gehört.
reservation_id
Die ID der Reservierung.

bq mk --table

Erstellt eine Tabelle. Weitere Informationen finden Sie unter Tabellen erstellen und verwenden. Die folgenden Flags werden unterstützt:

--clustering_fields
Eine durch Kommas getrennte Liste mit Spaltennamen, die zum Clustern einer Tabelle verwendet werden. Wenn dieses Flag angegeben ist, wird die Tabelle mit den bereitgestellten Spalten geclustert. Bei der Partitionierung wird die Tabelle zuerst partitioniert und dann werden die Partitionen anhand der bereitgestellten Spalten geclustert.
--description
Die Beschreibung der Tabelle.
--destination_kms_key
Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Tabellendaten verwendet wird.
--expiration
Eine Ganzzahl, die die Ablaufzeit der Tabelle angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--external_table_definition
Gibt eine Tabellendefinition an, die zum Erstellen einer externen Tabelle verwendet werden soll. Der Wert kann entweder eine Inline-Tabellendefinition oder ein Pfad zu einer Datei mit einer JSON-Tabellendefinition sein. Das Format einer Inline-Definition ist schema@format=uri.
--label
Ein Label, das für die Tabelle angegeben wird. Das Format dafür ist key:value. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--range_partitioning

Gibt Optionen für eine Partition nach Ganzzahlbereich als durch Kommas getrennte Liste im Format column_name,start,end,interval an:

  • column_name ist die Spalte, die zum Erstellen der Partitionen nach Ganzzahlbereich verwendet wird.
  • start ist der Anfang der Bereichspartitionierung (einschließlich).
  • end ist das Ende der Bereichspartitionierung (ausschließlich).
  • interval ist die Breite des jeweiligen Bereichs in der Partition.
--require_partition_filter

Legt fest, ob für Abfragen in der bereitgestellten Tabelle ein Partitionsfilter erforderlich ist. Gilt nur für partitionierte Tabellen. Der Standardwert ist false.

--schema

Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format field:data_type,field:data_type. Der Standardwert ist ''.

--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Mögliche Werte sind DAY, HOUR, MONTH oder YEAR.

bq mk --transfer_config

Erstellt eine Übertragungskonfiguration. Die folgenden Flags werden unterstützt:

--data_source
Gibt die Datenquelle an. Erforderlich beim Erstellen einer Übertragungskonfiguration. Zulässige Werte:
  • dcm_dt: Campaign Manager
  • dcm_dt: Campaign Manager
  • google_cloud_storage: Cloud Storage
  • dfp_dt: Google Ad Manager
  • adwords: Google Ads
  • merchant_center: Google Merchant Center
  • play: Google Play
  • doubleclick_search: Search Ads 360
  • youtube_channel: YouTube-Kanalberichte
  • youtube_content_owner: YouTube-Rechteinhaberberichte

Der Standardwert ist ''.

--display_name
Der Anzeigename für die Übertragungskonfiguration. Der Standardwert ist ''.
--params oder -p
Die Parameter für die Übertragungskonfiguration im JSON-Format: {"parameter":"value"}. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie unter Einführung in BigQuery Data Transfer Service.
--refresh_window_days
Eine Ganzzahl, die das Aktualisierungsfenster für eine Übertragungskonfiguration in Tagen angibt. Der Standardwert ist 0.
--target_dataset
Das Ziel-Dataset für die Übertragungskonfiguration. Der Standardwert ist ''.

Weitere Informationen zur Verwendung des Befehls mk mit BigQuery Data Transfer Service finden Sie unter:

bq mk --transfer_run

Erstellt eine Übertragungsausführung. Die folgenden Flags werden unterstützt:

--start_time
Ein Zeitstempel, der die Startzeit für eine Reihe von Übertragungsausführungen angibt. Das Format für den Zeitstempel ist RFC3339 UTC "Zulu".
--end_time
Ein Zeitstempel, der die Endzeit für eine Reihe von Übertragungsausführungen angibt. Das Format für den Zeitstempel ist RFC3339 UTC "Zulu".

bq mk --view

Erstellt eine Ansicht. Weitere Informationen finden Sie unter Ansichten erstellen. Die folgenden Flags werden unterstützt:

--description
Die Beschreibung der Ansicht.
--expiration
Eine Ganzzahl, die die Ablaufzeit der Ansicht angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--label
Ein Label für die Ansicht. Das Format dafür ist key:value. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--use_legacy_sql
Wenn dieser Wert auf false gesetzt ist, wird eine Standard-SQL-Abfrage zum Erstellen einer Ansicht verwendet. Der Standardwert ist true (verwendet Legacy-SQL).
--view_udf_resource
Der Cloud Storage-URI oder der Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource geladen und ausgewertet und dann von der SQL-Abfrage einer Ansicht verwendet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.

bq mkdef

Mit dem Befehl mkdef wird eine Tabellendefinition im JSON-Format für Daten erstellt, die in Cloud Storage oder Drive gespeichert sind.

Weitere Informationen zur Verwendung des Befehls mkdef finden Sie unter Tabellendefinitionsdatei für eine externe Datenquelle erstellen.

Der Befehl mkdef verwendet die folgenden befehlsspezifischen Flags:

--autodetect
Verwendet die automatische Schemaerkennung für CSV- und JSON-Daten.
--ignore_unknown_values oder -i
Ignoriert alle Werte in einer Zeile , die nicht im Schema der Tabelle enthalten sind.
--source_format
Das Format der Quelldaten. Zulässige Werte:
  • CSV
  • NEWLINE_DELIMITED_JSON
  • AVRO
  • DATASTORE_BACKUP
  • GOOGLE_SHEETS Der Standardwert ist CSV.

bq partition

Mit dem Befehl partition werden mit Datum benannte Tabellen (enden mit YYYYMMDD) in partitionierte Tabellen konvertiert.

Weitere Informationen zur Verwendung des Befehls partition finden Sie unter Datumsfragmentierte Tabellen in nach Aufnahmezeit partitionierte Tabellen konvertieren.

Der Befehl partition verwendet die folgenden befehlsspezifischen Flags:

--no_clobber oder -n
Überschreibt keine vorhandenen Partitionen. Der Standardwert ist false.
--time_partitioning_expiration
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_type
Gibt den Partitionstyp an. Mögliche Werte sind DAY, HOUR, MONTH oder YEAR.

bq query

Mit dem Befehl query wird ein Abfragejob erstellt, der die angegebene SQL-Abfrage ausführt.

Weitere Informationen zur Verwendung des Befehls query finden Sie unter Interaktive Abfragen und Batchabfragen ausführen.

Der Befehl query verwendet die folgenden befehlsspezifischen Flags:

--allow_large_results
Aktiviert große Zieltabellengrößen für Legacy-SQL-Abfragen.
--append_table
Hängt Daten an eine Zieltabelle an. Der Standardwert ist false.
--batch
Führt Abfrage im Batchmodus aus. Der Standardwert ist false.
--clustering_fields
Verwendet eine durch Kommas getrennte Liste von Spalten, um die Zieltabelle in einer Abfrage zu clustern. Wenn dieses Flag angegeben ist, wird die Tabelle mit den bereitgestellten Spalten geclustert. Bei der Partitionierung wird die Tabelle zuerst partitioniert und dann werden die Partitionen anhand der bereitgestellten Spalten geclustert.
--destination_kms_key
Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Zieltabellendaten verwendet wird.
--destination_schema
Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format field:data_type,field:data_type. Der Standardwert ist ''.
--destination_table
Der Name der Zieltabelle zum Schreiben von Abfrageergebnissen. Der Standardwert ist ''.
--dry_run
Überprüft die Abfrage, ohne sie auszuführen.
--external_table_definition
Der Tabellenname und die Schemadefinition, die in einer Abfrage für eine externe Tabelle verwendet werden. Das Schema kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format field:data_type,field:data_type sein. Das Format für den Tabellennamen und das Schema lautet: table::path_to_file oder table::schema@source_format=cloud_storage_uri. Wiederholen Sie dieses Flag, um mehrere Tabellen abzufragen.
--flatten_results
Vereinfacht verschachtelte und wiederkehrende Felder in den Ergebnissen von Abfragen in Legacy-SQL. Der Standardwert ist true.
--label
Ein Label, das auf einen Abfragejob im Format key:value angewendet werden soll. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--max_rows oder -n
Eine Ganzzahl, die die Anzahl der Zeilen angibt, die in den Abfrageergebnissen zurückgegeben werden sollen. Der Standardwert ist 100.
--maximum_bytes_billed
Eine Ganzzahl, die die für die Abfrage berechneten Byte begrenzt. Abfragen, die das Limit überschreiten, schlagen fehl (ohne dass eine Gebühr anfällt). Wenn nicht angegeben, wird die Menge der berechneten Byte auf den Standardwert des Projekts eingestellt.
--min_completion_ratio
[Experimentell] Eine Zahl zwischen 0 und 1, die den Mindestanteil der Daten angibt, die gescannt werden müssen, bevor eine Abfrage zurückgegeben wird. Wenn dieses Flag nicht festgelegt ist, wird der Standardwert 1.0 des Servers verwendet.
--parameter
Entweder eine JSON-Datei mit einer Liste von Abfrageparametern oder ein Abfrageparameter im Format name:type:value. Bei fehlender Namensangabe wird ein Positionsparameter erstellt. Ist type nicht angegeben, wird ein STRING-Wert im Format name::value oder ::value festgelegt. NULL generiert einen Nullwert. Wiederholen Sie dieses Flag, wenn Sie mehrere Parameter angeben möchten.
--replace
Überschreibt die Zieltabelle mit den Abfrageergebnissen. Der Standardwert ist false.
--require_cache
Führt die Abfrage nur aus, wenn Ergebnisse aus dem Cache abgerufen werden können.
--require_partition_filter
Erfordert für Abfragen der bereitgestellten Tabelle einen Partitionsfilter. Dieses Flag kann nur für eine partitionierte Tabelle verwendet werden.
--rpc
Verwendet die Abfrage-API im RPC-Format anstelle der REST API-Methode jobs.insert. Der Standardwert ist false.
--schedule
Macht aus einer Abfrage eine wiederkehrende geplante Abfrage. Hierfür ist ein Zeitplan erforderlich, der angibt, wie häufig die Abfrage ausgeführt werden soll. Beispiele:
  • --schedule='every 24 hours'
  • --schedule='every 3 hours'
--schema_update_option

Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Zulässige Werte:

  • ALLOW_FIELD_ADDITION: Ermöglicht das Einfügen neuer Felder zur Schemadefinition
  • ALLOW_FIELD_RELAXATION: Ermöglicht das Ändern von REQUIRED-Feldern in NULLABLE

Wiederholen Sie dieses Flag, um mehrere Optionen für die Schemaaktualisierung anzugeben.

--start_row oder -s

Eine Ganzzahl, die die erste Zeile angibt, die im Abfrageergebnis zurückgegeben werden soll. Der Standardwert ist 0.

--target_dataset

Bei Angabe dieses Flags mit --schedule wird das Ziel-Dataset für eine geplante Abfrage aktualisiert. Die Abfrage muss in DDL oder DML vorliegen.

--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Gibt bei Verwendung mit dem Flag destination_table den Partitionstyp für die Zieltabelle an. Mögliche Werte sind DAY, HOUR, MONTH oder YEAR.

--udf_resource

Dieses Flag gilt nur für Legacy-SQL-Abfragen. Es legt den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei fest, die sofort als benutzerdefinierte Funktionsressource geladen und ausgewertet und dann von der SQL-Abfrage einer Ansicht verwendet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.

--use_cache

Mit diesem Flag können Abfrageergebnisse zwischengespeichert werden. Der Standardwert ist true.

--use_legacy_sql

Wenn dieser Wert auf false gesetzt ist, wird eine Standard-SQL-Abfrage ausgeführt. Der Standardwert ist true (verwendet Legacy-SQL).

bq remove-iam-policy-binding

Mit dem Befehl remove-iam-policy-binding wird die IAM-Richtlinie für eine Ressource (Tabelle oder Ansicht) abgerufen und in einem Schritt die Bindung aus der Richtlinie entfernt.

Dieser Befehl ist eine Alternative zum dreistufigen Prozess, bei dem der Befehl get-iam-policy zum Abrufen der Richtliniendatei (im JSON-Format) und zum Bearbeiten der Richtliniendatei verwendet wird. Anschließend wird der Befehl set-iam-policy genutzt, um die Richtlinie ohne die neue Bindung zu aktualisieren.

Verwendung:

bq remove-iam-policy-binding --member="MEMBER" --role="ROLE" [-COMMAND_FLAGS] RESOURCE_IDENTIFIER

Der Befehl remove-iam-policy-binding verwendet die folgenden befehlsspezifischen Flags und Argumente.

--member
Der Mitgliederteil der IAM-Richtlinienbindung. Das Flag --member ist zusammen mit dem Flag --role erforderlich. Eine Kombination aus --member und --role entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie.
--role
Der Rollenteil der IAM-Richtlinienbindung. Das Flag --role ist mit dem Flag --member erforderlich. Eine Kombination aus --member- und --role-Flags entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie.
-t --table/view
Entfernt, sofern angegeben, eine Bindung aus der IAM-Richtlinie einer Tabelle oder Ansicht. Optional: Der Standardwert ist false.

RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.

bq rm

Der Befehl rm löscht eine Kapazitätszusicherung, ein Dataset, ein Modell, eine Reservierung, eine Reservierungszuweisung, eine Tabelle, eine Übertragungskonfiguration oder eine Ansicht.

Weitere Informationen zur Verwendung des Befehls rm finden Sie unter:

Der Befehl rm verwendet die folgenden befehlsspezifischen Flags:

--capacity_commitment
Löscht eine Kapazitätszusicherung. Der Standardwert ist false.
--dataset oder -d
Löscht ein Dataset. Der Standardwert ist false.
--force oder -f
Löscht eine Tabelle, eine Ansicht oder ein Dataset ohne Eingabeaufforderung. Der Standardwert ist false.
--model oder -m
Löscht ein BigQuery ML-Modell.
--recursive oder -r
Löscht ein Dataset sowie alle darin enthaltenen Tabellen, Tabellendaten und Modelle. Der Standardwert ist false.
--reservation
Wenn dieses Flag angegeben ist, wird eine Reservierung gelöscht. Der Standardwert ist false.
--reservation_assignment
Löscht eine Reservierungszuweisung. Der Standardwert ist false.
--table oder -t
Löscht eine Tabelle. Der Standardwert ist false.
--transfer_config
Löscht eine Übertragungskonfiguration. Der Standardwert ist false.

bq set-iam-policy

Mit dem Befehl set-iam-policy wird die IAM-Richtlinie für eine Ressource (Tabelle oder Ansicht) festgelegt oder aktualisiert. Nach dem Festlegen der Richtlinie wird die neue Richtlinie in stdout ausgegeben. Die Richtlinie hat das JSON-Format.

Das Feld etag in der aktualisierten Richtlinie muss mit dem Wert etag der aktuellen Richtlinie übereinstimmen. Andernfalls schlägt die Aktualisierung fehl. Diese Funktion verhindert gleichzeitige Aktualisierungen.

Sie können die aktuelle Richtlinie und den etag-Wert mit dem Befehl bq get-iam-policy abrufen.

Weitere Informationen zum Befehl set-iam-policy mit Beispielen finden Sie unter Einführung in die Tabellenzugriffssteuerung.

Verwendung:

bq get-iam-policy [-COMMAND_FLAG] RESOURCE_IDENTIFIER FILE_NAME

Der Befehl set-iam-policy verwendet die folgenden befehlsspezifischen Flags und Argumente.

-t --table/view
Legt, sofern angegeben, die IAM-Richtlinie einer Tabelle oder Ansicht fest. Optional: Der Standardwert ist false

RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.

FILE_NAME ist der Name einer Datei, die die Richtlinie im JSON-Format enthält.

bq show

Mit dem Befehl show werden Informationen zu einem Objekt angezeigt.

Weitere Informationen zur Verwendung des Befehls show finden Sie unter:

Der Befehl show verwendet die folgenden befehlsspezifischen Flags:

--assignee_id
Gibt bei Verwendung mit dem Flag reservation_assignment die ID eines Ordners, einer Organisation oder eines Projekts an. Mit dem Flag --assignee_type geben Sie an, welche Art von Zuständigen angezeigt werden soll.
--assignee_type
Ergibt bei Angabe mit dem Flag reservation_assignment den Zustellertyp, der angezeigt werden soll. Entweder FOLDER, ORGANIZATION oder PROJECT.
--reservation
Ruft Informationen zu einer Reservierung ab. Der Standardwert ist false.
--dataset oder -d
Ruft Informationen zu einem Dataset ab. Der Standardwert ist false.
--encryption_service_account
Ruft das Dienstkonto eines Nutzers ab, sofern vorhanden, oder erstellt ein Dienstkonto, sofern nicht vorhanden. Der Standardwert ist false.
--job oder -j
Ruft Informationen zu einem Job ab. Der Standardwert ist false.
--job_type
Gibt bei Verwendung mit dem Flag reservation_assignment den Typ der anzuzeigenden Jobreservierungszuweisung an. Entweder QUERY, PIPELINE oder ML_EXTERNAL.
--model oder -m
Ruft Informationen zu einem BigQuery ML-Modell ab.
--reservation
Ruft Informationen zu einer Reservierung ab. Der Standardwert ist false.
--reservation_assignment
Ruft Informationen zu Reservierungszuweisungen für einen bestimmten Ordner, eine bestimmte Organisation oder ein bestimmtes Projekt ab. Wenn die Zielressource explizite Zuweisungen hat, werden diese angezeigt. Andernfalls werden mit dem Befehl alle Zuweisungen angezeigt, die von den übergeordneten Ressourcen übernommen wurden. Ein Projekt kann beispielsweise Zuweisungen vom übergeordneten Ordner übernehmen. Wenn Sie dieses Flag verwenden, werden die Flags --job_type, --assignee_type und --assignee_id angewendet.
--schema
Ruft nur das Schema der Tabelle ab. Der Standardwert ist false.
--transfer_config
Ruft Informationen zu einer Übertragungskonfiguration ab. Der Standardwert ist false.
--transfer_run
Ruft Informationen zu einer Übertragungsausführung ab. Der Standardwert ist false.
--view
Ruft Informationen zu einer Ansicht ab. Der Standardwert ist false.

bq update

Mit dem Befehl update werden eine Kapazitätszusicherung, ein Dataset, ein Modell, eine Reservierung, eine Reservierungszuweisung, eine Tabelle, eine Übertragungskonfiguration oder eine Ansicht aktualisiert.

Weitere Informationen zur Verwendung des Befehls update finden Sie unter:

Der Befehl update verwendet die folgenden befehlsspezifischen Flags:

--capacity_commitment
Aktualisiert eine Kapazitätszusicherung. Der Standardwert ist false. Verwenden Sie dieses Flag mit den Flags --merge, --plan, --renewal_plan, --split und --slots.
--clear_label
Entfernt ein Label mit dem Format key:. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu entfernen.
--dataset oder -d
Aktualisiert ein Dataset. Der Standardwert ist false.
--default_kms_key
Aktualisiert ein Dataset und legt den Cloud KMS-Schlüssel fest, mit dem die Tabellendaten in einem Dataset verschlüsselt werden, wenn während der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration

Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Für dieses Flag gilt kein Mindestwert.

Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag --time_partitioning_expiration angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene. Geben Sie 0 an, um einen vorhandenen Ablauf zu entfernen.

--default_table_expiration

Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset aktualisiert. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert. Geben Sie 0 an, um den vorhandenen Ablauf zu entfernen.

--description

Aktualisiert die Beschreibung eines Datasets, einer Tabelle, eines Modells oder einer Ansicht.

--destination_reservation_id

Bei Verwendung mit dem Flag --reservation_assignment wird eine vorhandene Reservierungszuweisung in die angegebene Reservierung verschoben. Der Wert ist die ID der Zielreservierung. Weitere Informationen finden Sie unter Zuweisung in eine andere Reservierung verschieben.

--display_name

Aktualisiert den Anzeigenamen für eine Übertragungskonfiguration. Der Standardwert ist ''.

--etag

Aktualisiert Ressourcen nur, wenn das etag übereinstimmt.

--expiration

Eine Ganzzahl, die die Ablaufzeit in Sekunden für eine Tabelle, eine Ansicht oder ein Modell aktualisiert. Wenn Sie 0 angeben, wird die Ablaufzeit entfernt.

--external_table_definition

Aktualisiert eine externe Tabelle mit der angegebenen Tabellendefinition. Das Schema kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format field:data_type,field:data_type sein. Das Format für den Tabellennamen und das Schema lautet: table::path_to_file oder table::schema@source_format=cloud_storage_uri.

--ignore_idle_slots

Wird mit dem Flag --reservation verwendet. Bei true können Jobs, die in der angegebenen Reservierung ausgeführt werden, nur Slots verwenden, die dieser Reservierung zugewiesen sind. Bei false können Jobs in dieser Reservierung inaktive Slots aus anderen Reservierungen oder Slots verwenden, die keiner Reservierung zugewiesen sind. Der Standardwert ist false. Weitere Informationen finden Sie unter Inaktive Slots.

--merge

Bei Verwendung mit dem Flag --capacity_commitment werden zwei Kapazitätszusicherungen zusammengeführt. Der Standardwert ist false. Weitere Informationen finden Sie unter Zwei Zusicherungen zusammenführen.

--model oder -m

Aktualisiert Metadaten für ein BigQuery ML-Modell.

--params oder -p

Aktualisiert Parameter für eine Übertragungskonfiguration im JSON-Format: {"parameter":"value"}. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie unter Einführung in BigQuery Data Transfer Service.

--plan

Wenn das Flag mit dem Flag --capacity_commitment verwendet wird, wird eine Kapazitätszusicherung in eine Zusicherung mit längerer Dauer umgewandelt. Eine der folgenden Möglichkeiten: FLEX, MONTHLY, ANNUAL. Der Standardwert ist ''.

--refresh_window_days

Eine Ganzzahl, die ein aktualisiertes Aktualisierungsfenster (in Tagen) für eine Übertragungskonfiguration angibt.

--renewal_plan

Gibt bei Verwendung mit dem Flag --capacity_commitment den Verlängerungsplan für eine vorhandene Kapazitätszusicherung an. Eine der folgenden Möglichkeiten: FLEX, MONTHLY, ANNUAL. Der Standardwert ist ''.

--reservation

Aktualisiert eine Reservierung. Der Standardwert ist false.

--reservation_assignment

Aktualisiert eine Reservierungszuweisung. Der Standardwert ist false.

--schema

Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format field:data_type,field:data_type. Der Standardwert ist ''.

--set_label

Ein zu aktualisierendes Label im Format key:value. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu aktualisieren.

--slots

Gibt bei Verwendung mit den Flags --capacity_commitment und --split die Anzahl der Slots an, die von einer vorhandenen Kapazitätszusicherung in eine neue Zusicherung aufgeteilt werden sollen. Bei Verwendung mit dem Flag --reservation, wird die Anzahl der Slots in einer Reservierung aktualisiert.

--source

Der Pfad zu einer lokalen JSON-Datei, die eine Nutzlast zum Aktualisieren einer Ressource enthält. Mit diesem Flag können Sie beispielsweise eine JSON-Datei angeben, die eine Dataset-Ressource mit einem aktualisierten access-Attribut enthält. Die Datei wird verwendet, um die Zugriffssteuerungen des Datasets zu überschreiben.

--split

Bei Verwendung mit dem Flag --capacity_commitment wird eine vorhandene Kapazitätszusicherung aufgeteilt. Der Standardwert ist false. Weitere Informationen finden Sie unter Zusicherung teilen.

--table oder -t

Aktualisiert eine Tabelle. Der Standardwert ist false.

--target_dataset

Aktualisiert das Ziel-Dataset für eine Übertragungskonfiguration. Der Standardwert ist ''.

--time_partitioning_expiration

Eine Ganzzahl, die (in Sekunden) aktualisiert wird, wenn eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.

--time_partitioning_field

Aktualisiert das Feld, mit dem festgelegt wird, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.

--time_partitioning_type

Gibt den Partitionierungstyp an. Mögliche Werte sind DAY, HOUR, MONTH oder YEAR. Sie können den Partitionierungstyp einer vorhandenen Tabelle nicht ändern.

--transfer_config

Aktualisiert eine Übertragungskonfiguration. Der Standardwert ist false.

--update_credentials

Aktualisiert die Anmeldedaten einer Übertragungskonfiguration. Der Standardwert ist false.

--use_legacy_sql

Wenn dieser Wert auf false gesetzt ist, wird die SQL-Abfrage für eine Ansicht von Legacy-SQL auf Standard-SQL aktualisiert. Der Standardwert ist true, verwendet also Legacy-SQL.

--view

Aktualisiert die SQL-Abfrage für eine Ansicht. Der Standardwert ist ''.

--view_udf_resource

Aktualisiert den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource in die SQL-Abfrage einer Ansicht geladen und dort ausgewertet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.

bq wait

Mit dem Befehl wait wird einige Sekunden gewartet, bis ein Job abgeschlossen ist.

Der Befehl wait verwendet das globale Flag --job_id und die folgenden befehlsspezifischen Flags.

integer
Ein ganzzahliger Wert > = 0, der die Wartezeit angibt (dieser Wert ist kein Flag – Sie geben die Ganzzahl in der Befehlszeile an). Wenn Sie 0 eingeben, fragt der Befehl den Job ab und wird nach dessen Abschluss sofort zurückgegeben. Wenn Sie keinen ganzzahligen Wert angeben, wartet der Befehl für unbegrenzte Zeit.
--fail_on_error
Beendet den Vorgang nach Ablauf der Wartezeit mit einem Fehler, falls der Job noch ausgeführt wird oder aufgrund eines Fehlers abgebrochen wurde. Der Standardwert ist true.
--wait_for_status

Wartet auf einen bestimmten Jobstatus, bevor der Vorgang beendet wird. Zulässige Werte:

  • PENDING
  • RUNNING
  • DONE

Der Standardwert ist DONE.