In diesem Dokument werden die Befehle und Flags des bq
-Befehlszeilentools erläutert. Weitere Informationen zum Verwenden des bq
-Befehlszeilentools finden Sie unter bq
-Befehlszeilentool verwenden.
Globale Flags
Im bq
-Befehlszeilentool können Sie die folgenden globalen Flags verwenden.
[VERWORFEN] bq
Autorisierungs-Flags
Die bq
-Autorisierungs-Flags wurden verworfen. Informationen zum Konfigurieren der Autorisierung für das bq
-Befehlszeilentool finden Sie unter Cloud SDK-Tools autorisieren.
--application_default_credential_file
- Weitere Informationen finden Sie unter Authentifizierung für Server-zu-Server-Produktionsanwendungen einrichten.
Der Standardwert ist
''
. --credential_file
- Der Dateiname, der zum Speichern des OAuth-Tokens verwendet wird. Der Standardwert ist
$HOME/.bigquery.v2.token
. --service_account
- Verwenden Sie die E-Mail-Adresse dieses Dienstkontos für die Autorisierung.
Beispiel:
1234567890@developer.gserviceaccount.com
Der Standardwert ist''
. --service_account_credential_file
- Die Datei, die als Anmeldedatenspeicher für Dienstkonten verwendet wird. Dieses Flag muss gesetzt sein, wenn Sie ein Dienstkonto verwenden.
--service_account_private_key_file
- Die Datei, die den privaten Schlüssel des Dienstkontos enthält. Dieses Flag ist erforderlich, wenn das Flag
--service_account
angegeben ist. Der Standardwert ist''
. --service_account_private_key_password
- Das Passwort für den privaten Schlüssel. Das Passwort muss mit dem Passwort übereinstimmen, das Sie beim Erstellen des Schlüssels festgelegt haben. Der Standardwert ist
notasecret
. --use_gce_service_account
- Geben Sie dieses Flag bei der Ausführung auf einer Compute Engine-Instanz an, um die Anmeldedaten eines Dienstkontos anstelle von gespeicherten Anmeldedaten zu verwenden. Weitere Informationen finden Sie unter Dienstkonten für Instanzen erstellen und aktivieren.
Der Standardwert ist
false
.
Globale Flags in bq
--api
- Der API-Endpunkt, der aufgerufen werden soll. Der Standardwert ist
https://www.googleapis.com
.
--api_version
Die zu verwendende API-Version. Der Standardwert ist v2
--apilog
- Protokolliert alle API-Anfragen und -Antworten in der von diesem Flag angegebenen Datei. Sie können auch
stdout
undstderr
verwenden. Wenn Sie den leeren String''
angeben, werden Logs instdout
protokolliert. --bigqueryrc
- Der Pfad zur Konfigurationsdatei des
bq
-Befehlszeilentools. Die Konfigurationsdatei gibt neue Standardwerte für alle Flags an und kann überschrieben werden. Dazu wird das Flag in der Befehlszeile angegeben. Wenn das Flag--bigqueryrc
nicht angegeben ist, wird die UmgebungsvariableBIGQUERYRC
verwendet. Wenn diese nicht angegeben ist, wird der Pfad~/.bigqueryrc
verwendet. Der Standardwert ist$HOME/.bigqueryrc
--ca_certificates_file
- Der Speicherort Ihrer CA-Zertifikatsdatei. Der Standardwert ist
''
. --dataset_id
- Das Standard-Dataset für Anfragen. Dieses Flag wird ignoriert, wenn es nicht anwendbar ist. Sie können als Wert
PROJECT:DATASET
oderDATASET
festlegen. WennPROJECT
fehlt, wird das Standardprojekt verwendet. Sie können diese Einstellung durch Angabe des Flags--project_id
überschreiben. Der Standardwert ist''
. --debug_mode
- Zeigt Tracebacks bei Python-Ausnahmen an. Der Standardwert ist
false
. --disable_ssl_validation
- Deaktiviert die HTTPS-Zertifikatsprüfung. Der Standardwert ist
false
. --discovery_file
- Der Dateiname der JSON-Datei, die für die Erkennung gelesen werden soll. Der Standardwert ist
''
. --enable_gdrive
- Wenn hierfür
true
festgelegt ist, wird ein neues OAuth-Token mit dem GDrive-Bereich angefordert. Wennfalse
festgelegt ist, wird ein neues OAuth-Token ohne GDrive-Bereich angefordert. --fingerprint_job_id
- Legt fest, ob eine Job-ID verwendet werden soll, die von einem Fingerabdruck der Jobkonfiguration abgeleitet wurde. Dadurch wird verhindert, dass derselbe Job versehentlich mehrmals ausgeführt wird. Der Standardwert ist
false
. --flagfile
- Wenn angegeben, werden Flag-Definitionen aus der übermittelten Datei in das
bq
-Befehlszeilentool eingefügt. Der Standardwert ist''
. --format
Gibt das Format der Ausgabe des Befehls an. Es gibt folgende Optionen:
pretty
: Formatierte Tabellenausgabesparse
: Einfachere Tabellenausgabeprettyjson
: Leicht lesbares JSON-Formatjson
: Maximal komprimiertes JSONcsv
: CSV-Format mit Header
pretty
,sparse
undprettyjson
sind für Menschen lesbar.json
undcsv
dienen der Übergabe an ein anderes Programm. Wennnone
angegeben ist, erzeugt der Befehl keine Ausgabe. Wenn das Flag--format
fehlt, wird basierend auf dem Befehl ein geeignetes Ausgabeformat ausgewählt.--headless
Gibt an, ob die
bq
-Sitzung ohne Nutzerinteraktion ausgeführt werden soll. Ist das Flag auftrue
gesetzt, wird die Interaktion deaktiviert. So wird beispielsweise der Debugger durchdebug_mode
nicht unterbrochen, und die Häufigkeit des Informationsdrucks verringert sich. Der Standardwert istfalse
.--httplib2_debuglevel=DEBUG_LEVEL
Gibt an, ob HTTP-Informationen zur Fehlerbehebung angezeigt werden sollen. Wenn
DEBUG_LEVEL
> 0 ist, werden zusätzlich zu den Fehlermeldungen HTTP-Serveranfragen und -Antworten in stderr protokolliert. WennDEBUG_LEVEL
nicht > 0 ist oder wenn das Flag--httplib2_debuglevel
nicht verwendet wird, werden nur Fehlermeldungen angezeigt.Beispiel:
--httplib2_debuglevel=1
--job_id
- Eine eindeutige Job-ID, die für die Anfrage verwendet werden soll. Wurde in einer Joberstellungsanfrage keine Job-ID angegeben, wird sie generiert. Dieses Flag gilt nur für Befehle, die Jobs erstellen:
cp
,extract
,load
undquery
. Weitere Informationen finden Sie unter Jobs programmatisch ausführen. --job_property
- Ein Schlüssel/Wert-Paar, das in das Feld für Attribute in der Jobkonfiguration aufgenommen werden soll. Wiederholen Sie dieses Flag, um weitere Properties anzugeben.
--location
Eine Zeichenfolge, die Ihrer Region oder Ihrem multiregionalen Standort entspricht. Für den Befehl
cancel
und den Befehlshow
ist das Standort-Flag erforderlich, wenn Sie das Flag-j
dazu verwenden, Jobinformationen abzurufen. Für die folgenden Befehle ist das Standort-Flag optional:query
cp
load
extract
partition
wait
mk
, wenn Sie das Flag-d
verwenden, um ein Dataset zu erstellen
Alle anderen Befehle ignorieren das Flag
--location
.--max_rows_per_request
Eine Ganzzahl, die die maximale Anzahl von Zeilen angibt, die pro Lesevorgang zurückgegeben werden.
--project_id
Die Projekt-ID für Anfragen. Der Standardwert ist
''
.--proxy_address
Der Name oder die IP-Adresse des Proxyhosts, der für die Verbindung mit Google Cloud verwendet werden soll. Der Standardwert ist
''
.--proxy_password
Das Passwort, das zur Authentifizierung beim Proxy-Host verwendet werden soll. Der Standardwert ist
''
.--proxy_port
Die Portnummer zum Herstellen der Verbindung mit dem Proxyhost. Der Standardwert ist
''
.--proxy_username
Der Nutzername für die Authentifizierung beim Proxyhost. Der Standardwert ist
''
.--quiet
oder-q
Wenn
true
festgelegt ist, werden Statusaktualisierungen während der Jobausführung ignoriert. Der Standardwert istfalse
.--synchronous_mode
oder-sync
Wenn
true
festgelegt ist, wird auf den Abschluss des Befehls gewartet, bevor er zurückgegeben wird. Der Abschlussstatus des Jobs wird als Fehlercode verwendet. Wennfalse
festgelegt ist, wird der Job erstellt und für den Fehlercode der Status "Erfolgreicher Abschluss" verwendet. Der Standardwert isttrue
.--trace
Ein Tracing-Token, das als
token:TOKEN
angegeben wird, um es in API-Anfragen einzuschließen.
Befehlsspezifische Flags
Im bq
-Befehlszeilentool können Sie folgende Befehls-Flags verwenden.
bq add-iam-policy-binding
Der Befehl add-iam-policy-binding
ruft die IAM-Richtlinie (Identity and Access Management) für eine Ressource (Tabelle oder Ansicht) ab und fügt in einem Schritt eine Bindung zur Richtlinie hinzu.
Dieser Befehl ist eine Alternative zum folgenden dreistufigen Prozess:
- Mit dem Befehl
get-iam-policy
die Richtliniendatei abrufen (im JSON-Format) - Richtliniendatei bearbeiten
- Verwenden Sie den Befehl
set-iam-policy
, um die Richtlinie mit einer neuen Bindung zu aktualisieren.
Verwendung:
bq add-iam-policy-binding --member="MEMBER" --role="ROLE" [-COMMAND_FLAGS] RESOURCE_IDENTIFIER
Der Befehl add-iam-policy-binding
verwendet die folgenden befehlsspezifischen Flags und Argumente.
--member
- Der Mitgliederteil der IAM-Richtlinienbindung. Das Flag
--member
ist zusammen mit dem Flag--role
erforderlich. Eine Kombination aus--member
und--role
entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie. --role
- Der Rollenteil der IAM-Richtlinienbindung. Das Flag
--role
ist mit dem Flag--member
erforderlich. Eine Kombination aus--member
- und--role
-Flags entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie. -t --table/view
- Verwendet, sofern angegeben, eine Bindung zur IAM-Richtlinie einer Tabelle oder Ansicht. Optional.
Der Standardwert ist
false
.
RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.
bq cancel
Der Befehl cancel
wird zum Abbrechen von Jobs verwendet. Der Befehl cancel
hat keine befehlsspezifischen Flags.
Weitere Informationen zur Verwendung des Befehls cancel
finden Sie unter Jobs verwalten.
Der Befehl cancel
verwendet die folgenden globalen Flags.
--job_id
- Eine eindeutige Job-ID für die Kündigungsanfrage.
Sie können die Job-ID ohne Verwendung des Flags
--job_id
angeben. Beispiel:bq cancel JOB_ID
. --synchronous_mode
oder--sync
- Wartet auf den Abschluss des Befehls, bevor er zurückgegeben wird. Wenn
false
festgelegt ist, wird der Befehl sofort zurückgegeben. Der Standardwert isttrue
.
bq cp
Der Befehl cp
wird zum Kopieren von Tabellen verwendet. Der Befehl cp
verwendet die folgenden befehlsspezifischen Flags.
Weitere Informationen zur Verwendung des Befehls cp
finden Sie unter Tabellen verwalten.
--append_table
oder-a
- Kopiert eine Tabelle kopiert und fügt sie an eine vorhandene Tabelle an. Der Standardwert ist
false
. --destination_kms_key
- Der Cloud KMS-Schlüssel, der für die Verschlüsselung der Zieltabellendaten verwendet wird.
--force
oder-f
- Überschreibt eine vorhandene Zieltabelle ohne Eingabeaufforderung. Der Standardwert ist
false
. --no_clobber
oder-n
- Überschreibt eine vorhandene Zieltabelle nicht. Der Standardwert ist
false
.
bq extract
Mit dem Befehl extract
werden Tabellendaten in Cloud Storage exportiert.
Weitere Informationen zur Verwendung des Befehls extract
finden Sie unter Tabellendaten exportieren.
Verwendung:
bq extract [-COMMAND_FLAGS] 'RESOURCE_IDENTIFIER' DESTINATION
Der Befehl extract
verwendet die folgenden befehlsspezifischen Flags:
--compression
- Der für exportierte Dateien zu verwendende Komprimierungstyp. Mögliche Werte sind
GZIP
(nur CSV und JSON),DEFLATE
(nur Avro),SNAPPY
(nur Avro) undNONE
. Der Standardwert istNONE
. --destination_format
Das Format für die exportierten Daten. Zulässige Werte:
CSV
NEWLINE_DELIMITED_JSON
AVRO
Der Standardwert ist
CSV
.--field_delimiter
oder-F
Das Zeichen, das die Begrenzung zwischen den Spalten in der Ausgabedatei für CSV-Exporte angibt. Sowohl
\t
als auchtab
sind als Tabulatortrennzeichen zulässig.--print_header
oder--noprint_header
Wenn Sie das Drucken von Kopfzeilen für Formate mit Kopfzeilen unterdrücken möchten, geben Sie
--noprint_header
an. Wenn--print_header
oder kein Flag verwendet wird, sind Headerzeilen enthalten.
Beispiel:
bq extract --compression GZIP --destination_format CSV --field_delimiter tab --noprintheader 'myDataset.myTable' gs://my-bucket/myFile.csv.gzip
bq get-iam-policy
Mit dem Befehl get-iam-policy
wird die IAM-Richtlinie für eine Ressource (Tabelle oder Ansicht) abgerufen und in stdout ausgegeben. Die Richtlinie hat das JSON-Format.
Weitere Informationen zum Befehl get-iam-policy
mit Beispielen finden Sie unter Einführung in die Tabellenzugriffssteuerung.
Verwendung:
bq get-iam-policy [-COMMAND_FLAG] RESOURCE_IDENTIFIER
Der Befehl get-iam-policy
verwendet das folgende befehlsspezifische Flag.
-t --table/view
Wenn dieses Flag angegeben ist, wird die IAM-Richtlinie einer Tabelle oder Ansicht abgerufen. Optional. Der Standardwert ist
false
.RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.
bq head
Mit dem Befehl head
werden Zeilen in einer Tabelle angezeigt.
Weitere Informationen zur Verwendung des Befehls head
finden Sie unter Tabellendaten verwalten.
Der Befehl head
verwendet die folgenden befehlsspezifischen Flags:
--job
oder-j
- Geben Sie dieses Flag mit einer gültigen Job-ID an, um die Ergebnisse eines Abfragejobs zu lesen. Der Standardwert ist
false
. --max_rows
oder-n
- Eine Ganzzahl, die beim Anzeigen von Tabellendaten die Anzahl der zu druckenden Zeilen angibt. Der Standardwert ist
100
. --selected_fields
oder-c
- Eine durch Kommas getrennte Liste, die eine Teilmenge von Feldern (einschließlich verschachtelter und wiederkehrender Felder) angibt, die beim Abrufen von Tabellendaten zurückgegeben werden. Wenn nicht angegeben, werden alle Spalten abgerufen.
--start_row
oder-s
- Eine Ganzzahl, die angibt, wie viele Zeilen vor dem Abrufen von Tabellendaten übersprungen werden sollen. Der Standardwert ist
0
(Start in der ersten Zeile). --table
oder-t
- Geben Sie dieses Flag mit einer Tabellen-ID an, um Zeilen aus einer Tabelle zu lesen. Der Standardwert ist
false
.
bq insert
Mit dem Befehl insert
können Sie Zeilen, die durch Zeilenumbruch getrennte JSON-formatierte Daten enthalten, über den Streaming-Zwischenspeicher einfügen. Datentypen werden so konvertiert, dass sie den Spaltentypen der Zieltabelle entsprechen. Dieser Befehl ist nur für Testzwecke vorgesehen. Zum Streamen von Daten in BigQuery verwenden Sie die API-Methode insertAll
.
Weitere Informationen finden Sie unter Daten in BigQuery streamen.
Verwendung:
bq insert [COMMAND_FLAGS] TABLE FILE
Der Befehl insert
verwendet die folgenden befehlsspezifischen Flags:
--ignore_unknown_values
oder-i
- Ignoriert alle Schlüssel/Wert-Paare, die nicht mit dem Schema der Tabelle übereinstimmen. Die Zeile wird mit den Daten eingefügt, die dem Schema entsprechen. Wenn das Flag nicht angegeben ist, werden Zeilen mit Daten, die nicht mit dem Schema der Tabelle übereinstimmen, nicht eingefügt.
--skip_invalid_rows
oder-s
- Versucht, alle gültigen Zeilen einzufügen, auch wenn ungültige Zeilen vorhanden sind. Wenn das Flag nicht angegeben ist, schlägt der Befehl fehl, wenn ungültige Zeilen vorhanden sind.
--template_suffix
oder-x
- Verwendet die Zieltabelle als Basisvorlage, und die Zeilen werden in eine Instanztabelle mit dem Namen
{destination}{templateSuffix}
eingefügt. BigQuery erstellt die Instanztabelle mithilfe des Schemas der Basisvorlage.
Beispiele:
bq insert --ignore_unknown_values myDataset.myTable /tmp/myData.json
echo '{"a":1, "b":2}' | bq insert myDataset.myTable
bq load
Mit dem Befehl load
werden Daten in eine Tabelle geladen.
Weitere Informationen zum Laden von Daten aus Cloud Storage mit dem Befehl load
finden Sie unter:
- Avro-Daten laden
- CSV-Daten laden
- JSON-Daten laden
- ORC-Daten laden
- Parquet-Daten laden
- Daten aus Datastore-Exporten laden
- Daten aus Firestore-Exporten laden
Weitere Informationen zum Laden von Daten aus einer lokalen Quelle mit dem Befehl load
finden Sie unter Daten aus lokalen Dateien laden.
Der Befehl load
verwendet die folgenden befehlsspezifischen Flags:
--allow_jagged_rows
- Lässt nachgestellte optionale Spalten in CSV-Daten zu.
--allow_quoted_newlines
- Lässt Zeilenumbrüche innerhalb von Abschnitten in Anführungszeichen in CSV-Daten zu.
--autodetect
- Aktiviert die automatische Schemaerkennung für CSV- und JSON-Daten.
--clustering_fields
- Eine durch Kommas getrennte Liste mit bis zu vier Spaltennamen.
--destination_kms_key
- Der Cloud KMS-Schlüssel für die Verschlüsselung der Zieltabellendaten.
--encoding
oder-E
- Die in den Daten verwendete Zeichencodierung. Zulässige Werte:
- ISO-8859-1 (auch bekannt als Latin-1)
- UTF-8
--field_delimiter
oder-F
- Das Zeichen, das die Begrenzung zwischen Spalten in den Daten angibt. Sowohl
\t
als auchtab
sind als Tabulatortrennzeichen zulässig. --ignore_unknown_values
- Wenn dieses Flag angegeben ist, werden für CSV- und JSON-Dateien Zeilen mit zusätzlichen Spaltenwerten, die nicht dem Tabellenschema entsprechen, ignoriert und nicht geladen. Ebenso werden Felder für Avro-, Parquet- und ORC-Dateien im Tabellenschema, die nicht im Tabellenschema vorhanden sind, ignoriert und nicht geladen.
--max_bad_records
- Eine Ganzzahl, die die Höchstzahl ungültiger Datensätze angibt, bevor der gesamte Job fehlschlägt. Der Standardwert ist
0
. Es werden höchstens fünf Fehler pro Typ zurückgegeben, unabhängig vom Wert--max_bad_records
. --null_marker
- Ein optionaler benutzerdefinierter String, der einen
NULL
-Wert in CSV-Daten darstellt. --projection_fields
- Wenn für
--source_format
der WertDATASTORE_BACKUP
angegeben ist, legt das Flag fest, welche Entitätsattribute aus einem Datastore-Export als eine durch Kommas getrennte Liste geladen werden sollen. Bei Attributnamen wird zwischen Groß- und Kleinschreibung unterschieden. Außerdem müssen sie sich auf Attribute der obersten Ebene beziehen. Der Standardwert ist''
. Dieses Flag kann auch für Firestore-Exporte verwendet werden. --quote
- Das Anführungszeichen zum Umschließen von Datensätzen. Der Standardwert ist
"
Wenn Sie kein Anführungszeichen angeben möchten, verwenden Sie einen leeren String. --replace
- Wenn dieses Flag angegeben ist, werden alle vorhandenen Daten und Schemas gelöscht, wenn neue Daten geladen werden. Cloud KMS-Schlüssel werden ebenfalls entfernt, wenn Sie nicht das Flag
--destination_kms_key
angeben. Der Standardwert istfalse
. Mit der AnweisungTRUNCATE TABLE
können Sie alle Zeilen aus einer Tabelle entfernen, ohne das Schema zu löschen. --schema
- Entweder der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE,FIELD:DATA_TYPE
. --schema_update_option
Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Zulässige Werte:
ALLOW_FIELD_ADDITION
: Ermöglicht das Einfügen neuer Felder zur SchemadefinitionALLOW_FIELD_RELAXATION
: Ermöglicht das Ändern vonREQUIRED
-Feldern inNULLABLE
Wiederholen Sie dieses Flag, wenn Sie mehrere Optionen für die Schemaaktualisierung angeben möchten.
--skip_leading_rows
Eine Ganzzahl, die die Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei angibt.
--source_format
Das Format der Quelldaten. Zulässige Werte:
CSV
NEWLINE_DELIMITED_JSON
AVRO
DATASTORE_BACKUP
PARQUET
ORC
--time_partitioning_expiration
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field
Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type
Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Mögliche Werte sind
DAY
,HOUR
,MONTH
oderYEAR
.
--use_avro_logical_types
Wenn sourceFormat
auf AVRO
gesetzt ist, werden logische Typen in die entsprechenden Typen konvertiert, z. B. TIMESTAMP
, anstatt nur deren Rohtypen zu verwenden, z. B. INTEGER
.
bq ls
Der Befehl ls
listet Objekte in einer Sammlung auf.
Weitere Informationen zur Verwendung des Befehls ls
finden Sie unter:
- Jobs verwalten
- Datasets in einem Projekt auflisten
- Tabellen erstellen und verwenden
- Ansichten in einem Dataset auflisten
- Mit Übertragungen arbeiten
- Mit Reservierungen arbeiten
Der Befehl ls
verwendet die folgenden befehlsspezifischen Flags:
--all
oder-a
- Ruft alle Ergebnisse ab: Jobs von allen Nutzern oder allen Datasets (einschließlich ausgeblendeter). Das Flag wird nicht benötigt, wenn Übertragungskonfigurationen oder Übertragungsausführungen aufgelistet werden.
--capacity_commitment
- Listet Kapazitätszusicherungen auf. Der Standardwert ist
false
. --datasets
oder-d
- Listet Datasets auf. Der Standardwert ist
false
. --filter "FILTER"
Listet Datasets auf, die zu
FILTER
passen und aus einem oder mehreren durch Leerzeichen getrennten Trips im Formatlabels.KEY:VALUE
bestehen. Wenn mehr als ein Triple angegeben wird, werden nur Datasets zurückgegeben, die mit allen Tripls übereinstimmen (d. h., sie werden mit dem Operator "AND" und nicht mit ODER verknüpft).Verwenden Sie zum Filtern basierend auf Dataset-Labels die Schlüssel und Werte, die Sie auf Ihre Datasets angewendet haben. Beispiel:
--filter "labels.department:marketing labels.team:sales"
Verwenden Sie
dataSourceIds
als Schlüssel und verwenden Sie eine der folgenden Datenquellen als Wert, um auf der Grundlage von Übertragungskonfigurationen zu filtern:dcm_dt
: Campaign Managergoogle_cloud_storage
: Cloud Storagecross_region_copy
: Dataset kopierendfp_dt
: Google Ad Manageradwords
: Google Adsmerchant_center
: Google Merchant Centerplay
: Google Playdoubleclick_search
: Search Ads 360youtube_channel
: YouTube-Kanalberichteyoutube_content_owner
: YouTube-Rechteinhaberberichte
--filter "labels.dataSourceIds:dcm_dt"
Verwenden Sie
states
als Schlüssel und verwenden Sie einen der folgenden Übertragungsstatus als Wert, um nach Übertragungsausführungen zu filtern:SUCCEEDED
FAILED
PENDING
RUNNING
CANCELLED
Beispiel:
--filter "labels.states:FAILED"
--jobs
oder-j
Listet Jobs auf. Der Standardwert ist
false
. Es gilt standardmäßig ein Limit von 100.000 Ergebnissen.--max_creation_time
Eine Ganzzahl, die einen Zeitstempel in Millisekunden darstellt. Zusammen mit dem Flag
-j
listet dieses Flag Jobs auf, die vor dem Zeitstempel erstellt wurden.--max_results
oder-n
Eine Ganzzahl, die die maximale Anzahl von Ergebnissen angibt. Der Standardwert ist 50.
--min_creation_time
Eine Ganzzahl, die einen Zeitstempel in Millisekunden darstellt. Zusammen mit dem Flag
-j
listet dieses Flag Jobs auf, die nach dem Zeitstempel erstellt wurden.--message_type
Geben Sie
messageTypes:MESSAGE_TYPE
zum Auflisten von Logmeldungen für Übertragungsjobs eines bestimmten Typs an. Zulässige Werte:INFO
WARNING
ERROR
--models
oder-m
Listet BigQuery ML-Modelle auf.
--page_token
oder-k
Listet Elemente beginnend mit diesem Seitentoken auf.
--projects
oder-p
Ruft alle Projekte ab. Der Standardwert ist
false
.--reservation
Wenn dieses Flag angegeben ist, werden alle Reservierungen für ein bestimmtes Projekt und eine bestimmte Zone aufgelistet. Der Standardwert ist
false
.--reservation_assignment
Listet alle Reservierungszuweisungen für ein bestimmtes Projekt und einen Standort auf. Der Standardwert ist
false
.--run_attempt
Setzen Sie dieses Flag auf
LATEST
, um nur die neuesten Ausführungen einer Übertragung aufzulisten.--transfer_config
Listet die Transferkonfigurationen auf. Wenn Sie dieses Flag verwenden, müssen Sie auch
--transfer_location
angeben. Der Standardwert istfalse
.--transfer_location
Listet Übertragungskonfigurationen am angegebenen Speicherort auf. Sie legen den Übertragungsort bei der Erstellung der Übertragung fest.
--transfer_log
Listet die Logmeldungen von Übertragungen für die angegebene Übertragungsausführung auf. Der Standardwert ist
false
.--transfer_run
Listet Übertragungen auf. Der Standardwert ist
false
.
bq mk
Mit dem Befehl mk
werden verschiedene BigQuery-Ressourcen erstellt, einschließlich Datasets, Tabellen, Ansichten, materialisierte Ansichten und Übertragungskonfigurationen.
Der Befehl mk
verwendet ein Typ-Flag, das den Typ der zu erstellenden Ressource angibt, sowie andere Flags, die vom Ressourcentyp abhängen.
bq mk TYPE_FLAG [ OTHER FLAGS ] [ ARGS ]
Dabei steht TYPE_FLAG für einen der folgenden Werte:
--capacity_commitment
: Erwerben Sie eine Kapazitätszusicherung.--dataset
oder-d
: Erstellen Sie ein Dataset.--materialized_view
: Erstellen Sie eine materialisierte Ansicht.--reservation
: Erstellen Sie eine Reservierung.--reservation_assignment
: Ordnen Sie einer Reservierung einen Ordner, ein Projekt oder eine Organisation zu.--table
oder-t
: Erstellen Sie eine Tabelle.--transfer_config
: Erstellen Sie eine Übertragungskonfiguration.--view
: Erstellen Sie eine Ansicht.--transfer_run
: Erstellen Sie eine Übertragungsausführung für einen Zeitraum.
Zusätzlich zu den unten aufgeführten befehlsspezifischen Flags unterstützt bq mk
das folgende Flag:
--force
oder-f
- Ignorieren Sie Fehler, wenn eine Ressource mit demselben Namen bereits vorhanden ist. Wenn dieses Flag angegeben und eine Ressource vorhanden ist, entspricht der Exit-Code 0. Dieses Flag bewirkt nicht, dass der Befehl
mk
die Ressource überschreibt. Der Standardwert istfalse
.
bq mk --capacity_commitment
Erwerben Sie eine Kapazitätszusicherung. Weitere Informationen finden Sie unter Mit Zusicherungen arbeiten. Die folgenden Flags werden unterstützt:
--location
- Der Standort des Projekts.
--plan
- Der Plantyp. Eine der folgenden Möglichkeiten:
FLEX
,MONTHLY
,ANNUAL
. --project_id
- Die Projekt-ID des Projekts, das die Slots verwaltet.
--slots
- Die Anzahl der Slots, die gekauft werden sollen.
bq mk --dataset
Erstellt ein Dataset. Weitere Informationen finden Sie unter Datasets erstellen. Die folgenden Flags werden unterstützt:
--data_location
- (Alt): Gibt den Speicherort des Datasets an. Verwenden Sie stattdessen das globale Flag
--location
. --default_kms_key
- Gibt den Cloud KMS-Schlüssel zum Verschlüsseln der Tabellendaten in einem Dataset an, wenn während der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration
- Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert.
Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag
--time_partitioning_expiration
angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene. --default_table_expiration
- Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--description
- Die Beschreibung des Datasets.
--label
- Ein Label für das Dataset. Das Format dafür ist
KEY:VALUE
. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
bq mk --materialized_view
Erstellt eine materialisierte Ansicht. Die folgenden Flags werden unterstützt:
--enable_refresh
- Gibt an, ob die automatische Aktualisierung für eine materialisierte Ansicht aktiviert ist. Der Standardwert beim Erstellen einer materialisierten Ansicht ist
true
. --refresh_interval_ms
- Die Zeit in Millisekunden für das Aktualisierungsintervall einer materialisierten Ansicht. Wenn nicht angegeben, beträgt das Aktualisierungsintervall für eine materialisierte Ansicht, für die die Aktualisierung aktiviert ist, 1.800.000 Millisekunden, also 30 Minuten.
Weitere Informationen finden Sie unter Materialisierte Ansichten erstellen und verwenden.
bq mk --reservation
Erstellt eine Reservierung mit dedizierten Slots. Weitere Informationen finden Sie unter Mit Reservierungen arbeiten. Die folgenden Flags werden unterstützt:
--ignore_idle_slots
- Bei
true
werden in dieser Reservierung ausgeführte Jobs nur Slots verwenden, die der Reservierung zugewiesen sind. Beifalse
können Jobs in dieser Reservierung inaktive Slots aus anderen Reservierungen oder Slots verwenden, die keiner Reservierung zugewiesen sind. Der Standardwert istfalse
. Weitere Informationen finden Sie unter Inaktive Slots. --location
- Der Standort des Projekts.
--project_id
- Die Projekt-ID des Projekts, zu dem die Reservierung gehört.
--slots
- Die Anzahl der Slots, die dieser Reservierung zugewiesen werden sollen.
bq mk --reservation_assignment
Weist einer Reservierung ein Projekt, einen Ordner oder eine Organisation zu. Weitere Informationen finden Sie unter Mit Zuweisungen arbeiten. Die folgenden Flags werden unterstützt:
--assignee_id
- Die ID des Ordners, der Organisation oder des Projekts.
--assignee_type
- Der Entitätstyp, der der Reservierung zugewiesen werden soll. Entweder
FOLDER
,ORGANIZATION
oderPROJECT
. --job_type
- Die Art des Jobs, der der Reservierung zugewiesen werden soll. Entweder
QUERY
,PIPELINE
oderML_EXTERNAL
. --location
- Der Standort des Projekts.
--project_id
- Die Projekt-ID des Projekts, zu dem die Reservierung gehört.
reservation_id
- Die ID der Reservierung.
bq mk --table
Erstellt eine Tabelle. Weitere Informationen finden Sie unter Tabellen erstellen und verwenden. Die folgenden Flags werden unterstützt:
--clustering_fields
- Eine durch Kommas getrennte Liste mit Spaltennamen, die zum Clustern einer Tabelle verwendet werden. Wenn dieses Flag angegeben ist, wird die Tabelle mit den bereitgestellten Spalten geclustert. Bei der Partitionierung wird die Tabelle zuerst partitioniert und dann werden die Partitionen anhand der bereitgestellten Spalten geclustert.
--description
- Die Beschreibung der Tabelle.
--destination_kms_key
- Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Tabellendaten verwendet wird.
--expiration
- Eine Ganzzahl, die die Ablaufzeit der Tabelle angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--external_table_definition
- Gibt eine Tabellendefinition an, die zum Erstellen einer externen Tabelle verwendet werden soll. Der Wert kann entweder eine Inline-Tabellendefinition oder ein Pfad zu einer Datei mit einer JSON-Tabellendefinition sein. Das Format einer Inline-Definition ist
schema@format=uri
. --label
- Ein Label, das für die Tabelle angegeben wird. Das Format dafür ist
KEY:VALUE
. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben. --range_partitioning
Gibt Optionen für eine Partition nach Ganzzahlbereich als durch Kommas getrennte Liste im Format
column_name,start,end,interval
an:column_name
ist die Spalte, die zum Erstellen der Partitionen nach Ganzzahlbereich verwendet wird.start
ist der Anfang der Bereichspartitionierung (einschließlich).end
ist das Ende der Bereichspartitionierung (ausschließlich).interval
ist die Breite des jeweiligen Bereichs in der Partition.
--require_partition_filter
Legt fest, ob für Abfragen in der bereitgestellten Tabelle ein Partitionsfilter erforderlich ist. Gilt nur für partitionierte Tabellen. Der Standardwert ist
false
.--schema
Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE, FIELD:DATA_TYPE
. Der Standardwert ist''
.--time_partitioning_expiration
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field
Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type
Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Mögliche Werte sind
DAY
,HOUR
,MONTH
oderYEAR
.
bq mk --transfer_config
Erstellt eine Übertragungskonfiguration. Die folgenden Flags werden unterstützt:
--data_source
- Gibt die Datenquelle an. Erforderlich beim Erstellen einer Übertragungskonfiguration. Zulässige Werte:
dcm_dt
: Campaign Managergoogle_cloud_storage
: Cloud Storagecross_region_copy
: Dataset kopierendfp_dt
: Google Ad Manageradwords
: Google Adsmerchant_center
: Google Merchant Centerplay
: Google Playdoubleclick_search
: Search Ads 360youtube_channel
: YouTube-Kanalberichteyoutube_content_owner
: YouTube-Rechteinhaberberichte
- Der Standardwert ist
''
. --display_name
- Der Anzeigename für die Übertragungskonfiguration. Der Standardwert ist
''
. --params
oder-p
- Die Parameter für die Übertragungskonfiguration im JSON-Format:
{"PARAMETER":"VALUE"}
. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie unter Einführung in BigQuery Data Transfer Service. --refresh_window_days
- Eine Ganzzahl, die das Aktualisierungsfenster für eine Übertragungskonfiguration in Tagen angibt. Der Standardwert ist
0
. --target_dataset
- Das Ziel-Dataset für die Übertragungskonfiguration. Der Standardwert ist
''
.
Weitere Informationen zur Verwendung des Befehls mk
mit BigQuery Data Transfer Service finden Sie unter:
- Campaign Manager-Übertragung einrichten
- Cloud Storage-Übertragung einrichten
- Google Ad Manager-Übertragung einrichten
- Google Ads-Übertragung einrichten
- Google Merchant Center-Übertragung einrichten (Beta)
- Google Play-Übertragung einrichten
- Search Ads 360-Übertragung einrichten (Beta)
- YouTube-Kanalübertragung einrichten
- YouTube-Rechteinhaber-Übertragung einrichten
bq mk --transfer_run
Erstellt eine Übertragungsausführung. Die folgenden Flags werden unterstützt:
--start_time
- Ein Zeitstempel, der die Startzeit für eine Reihe von Übertragungsausführungen angibt. Das Format für den Zeitstempel ist RFC3339 UTC "Zulu".
--end_time
- Ein Zeitstempel, der die Endzeit für eine Reihe von Übertragungsausführungen angibt. Das Format für den Zeitstempel ist RFC3339 UTC "Zulu".
bq mk --view
Erstellt eine Ansicht. Weitere Informationen finden Sie unter Ansichten erstellen. Die folgenden Flags werden unterstützt:
--description
- Die Beschreibung der Ansicht.
--expiration
- Eine Ganzzahl, die die Ablaufzeit der Ansicht angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--label
- Ein Label für die Ansicht. Das Format dafür ist
KEY:VALUE
. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben. --use_legacy_sql
- Wenn dieser Wert auf
false
gesetzt ist, wird eine Standard-SQL-Abfrage zum Erstellen einer Ansicht verwendet. Der Standardwert isttrue
(verwendet Legacy-SQL). --view_udf_resource
- Der Cloud Storage-URI oder der Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource geladen und ausgewertet und dann von der SQL-Abfrage einer Ansicht verwendet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.
bq mkdef
Mit dem Befehl mkdef
wird eine Tabellendefinition im JSON-Format für Daten erstellt, die in Cloud Storage oder Drive gespeichert sind.
Weitere Informationen zur Verwendung des Befehls mkdef
finden Sie unter Tabellendefinitionsdatei für eine externe Datenquelle erstellen.
Der Befehl mkdef
verwendet die folgenden befehlsspezifischen Flags:
--autodetect
- Verwendet die automatische Schemaerkennung für CSV- und JSON-Daten.
--ignore_unknown_values
oder-i
- Ignoriert alle Werte in einer Zeile , die nicht im Schema der Tabelle enthalten sind.
--source_format
Das Format der Quelldaten. Zulässige Werte:
AVRO
CSV
DATASTORE_BACKUP
GOOGLE_SHEETS
NEWLINE_DELIMITED_JSON
ORC
PARQUET
Der Standardwert ist
CSV
.
bq partition
Mit dem Befehl partition
werden mit Datum benannte Tabellen (enden mit YYYYMMDD) in partitionierte Tabellen konvertiert.
Weitere Informationen zur Verwendung des Befehls partition
finden Sie unter Datumsfragmentierte Tabellen in nach Aufnahmezeit partitionierte Tabellen konvertieren.
Der Befehl partition
verwendet die folgenden befehlsspezifischen Flags:
--no_clobber
oder-n
- Überschreibt keine vorhandenen Partitionen. Der Standardwert ist
false
. --time_partitioning_expiration
- Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_type
- Gibt den Partitionstyp an. Mögliche Werte sind
DAY
,HOUR
,MONTH
oderYEAR
.
bq query
Mit dem Befehl query
wird ein Abfragejob erstellt, der die angegebene SQL-Abfrage ausführt.
Weitere Informationen zur Verwendung des Befehls query
finden Sie unter Interaktive Abfragen und Batchabfragen ausführen.
Der Befehl query
verwendet die folgenden befehlsspezifischen Flags:
--allow_large_results
- Aktiviert große Zieltabellengrößen für Legacy-SQL-Abfragen.
--append_table
- Hängt Daten an eine Zieltabelle an. Der Standardwert ist
false
. --batch
- Führt Abfrage im Batchmodus aus. Der Standardwert ist
false
. --clustering_fields
- Verwendet eine durch Kommas getrennte Liste von Spalten, um die Zieltabelle in einer Abfrage zu clustern. Wenn dieses Flag angegeben ist, wird die Tabelle mit den bereitgestellten Spalten geclustert. Bei der Partitionierung wird die Tabelle zuerst partitioniert und dann werden die Partitionen anhand der bereitgestellten Spalten geclustert.
--destination_kms_key
- Der Cloud KMS-Schlüssel, der zum Verschlüsseln der Zieltabellendaten verwendet wird.
--destination_schema
- Der Pfad zu einer lokalen JSON-Schemadatei oder einer durch Kommas getrennten Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE,FIELD:DATA_TYPE. Der Standardwert ist
''
. --destination_table TABLE
Wenn dieses Flag angegeben ist, werden die Abfrageergebnisse unter
TABLE
gespeichert. Geben SieTABLE
im folgenden Format an:PROJECT
:DATASET
.TABLE
. WennPROJECT
nicht angegeben ist, wird vom aktuellen Projekt ausgegangen. Wenn das Flag--destination_table
nicht angegeben ist, werden die Abfrageergebnisse in einer temporären Tabelle gespeichert.Beispiele:
--destination_table myProject:myDataset.myTable
--destination_table myDataset.myTable
--dry_run
Wenn dieses Flag angegeben ist, wird die Abfrage überprüft, aber nicht ausgeführt.
--external_table_definition
Der Tabellenname und die Schemadefinition, die in einer Abfrage für eine externe Tabelle verwendet werden. Das Schema kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE,FIELD:DATA_TYPE
sein. Das Format für den Tabellennamen und das Schema lautet:TABLE::PATH_TO_FILE
oderTABLE::SCHEMA@SOURCE_FORMAT=CLOUD_STORAGE_URI
. Wiederholen Sie dieses Flag, um mehrere Tabellen abzufragen.--flatten_results
Wenn dieses Flag angegeben ist, werden verschachtelte und wiederkehrende Felder in den Ergebnissen von Abfragen in Legacy-SQL vereinfacht. Der Standardwert ist
true
.--label
Ein Label, das auf einen Abfragejob im Format
KEY:VALUE
angewendet werden soll. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.--max_rows
oder-n
Eine Ganzzahl, die die Anzahl der Zeilen angibt, die in den Abfrageergebnissen zurückgegeben werden sollen. Der Standardwert ist
100
.--maximum_bytes_billed
Eine Ganzzahl, die die für die Abfrage berechneten Byte begrenzt. Abfragen, die das Limit überschreiten, schlagen fehl (ohne dass eine Gebühr anfällt). Wenn nicht angegeben, wird die Menge der berechneten Byte auf den Standardwert des Projekts eingestellt.
--min_completion_ratio
[Experimentell] Eine Zahl zwischen 0 und 1, die den Mindestanteil der Daten angibt, die gescannt werden müssen, bevor eine Abfrage zurückgegeben wird. Wenn dieses Flag nicht gesetzt ist, wird der Standardserverwert
1.0
verwendet.--parameter
Entweder eine JSON-Datei mit einer Liste von Abfrageparametern oder ein Abfrageparameter im Format
NAME:TYPE:VALUE
. Bei fehlender Namensangabe wird ein Positionsparameter erstellt. Ist TYPE nicht angegeben, wird einSTRING
-Wert im FormatNAME::VALUE
oder::VALUE
festgelegt.NULL
erzeugt einen Nullwert. Wiederholen Sie dieses Flag, um mehrere Parameter anzugeben.--replace
Wenn dieses Flag angegeben ist, wird die Zieltabelle mit den Abfrageergebnissen überschrieben. Alle vorhandenen Daten und Schemas werden gelöscht. Cloud KMS-Schlüssel werden ebenfalls entfernt, wenn Sie nicht das Flag
--destination_kms_key
angeben. Der Standardwert istfalse
Zum Entfernen aller Zeilen aus einer Tabelle, ohne das Schema zu löschen, verwenden Sie die AnweisungTRUNCATE TABLE
.--require_cache
Wenn dieses Flag angegeben ist, wird die Abfrage nur ausgeführt, wenn Ergebnisse aus dem Cache abgerufen werden können.
--require_partition_filter
Wenn dieses Flag angegeben wird, ist für Abfragen der bereitgestellten Tabelle ein Partitionsfilter erforderlich. Es kann nur für eine partitionierte Tabelle verwendet werden.
--rpc
Verwendet die Abfrage-API im RPC-Format anstelle der REST API-Methode
jobs.insert
. Der Standardwert istfalse
.--schedule
Macht aus einer Abfrage eine wiederkehrende geplante Abfrage. Hierfür ist ein Zeitplan erforderlich, der angibt, wie häufig die Abfrage ausgeführt werden soll. Beispiele:
--schedule='every 24 hours'
--schedule='every 3 hours'
--schema_update_option
Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Zulässige Werte:
ALLOW_FIELD_ADDITION
: Ermöglicht das Einfügen neuer Felder zur SchemadefinitionALLOW_FIELD_RELAXATION
: Ermöglicht das Ändern vonREQUIRED
-Feldern inNULLABLE
Wiederholen Sie dieses Flag, um mehrere Optionen für die Schemaaktualisierung anzugeben.
--start_row
oder-s
Eine Ganzzahl, die die erste Zeile angibt, die im Abfrageergebnis zurückgegeben werden soll. Der Standardwert ist
0
.--target_dataset
Bei Angabe dieses Flags mit
--schedule
wird das Ziel-Dataset für eine geplante Abfrage aktualisiert. Die Abfrage muss in DDL oder DML vorliegen.--time_partitioning_expiration
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field
Mit diesem Feld wird festgelegt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type
Gibt bei Verwendung mit dem Flag
destination_table
den Partitionstyp für die Zieltabelle an. Mögliche Werte sindDAY
,HOUR
,MONTH
oderYEAR
.--udf_resource
Dieses Flag gilt nur für Legacy-SQL-Abfragen. Gibt den Cloud Storage-URI oder den Pfad zu einer lokalen Datei an, die eine benutzerdefinierte Funktionsressource enthält, die von einer Legacy-SQL-Abfrage verwendet werden muss. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.
--use_cache
Mit diesem Flag können Abfrageergebnisse zwischengespeichert werden. Der Standardwert ist
true
.--use_legacy_sql
Wenn dieser Wert auf
false
gesetzt ist, wird eine Standard-SQL-Abfrage ausgeführt. Der Standardwert isttrue
(verwendet Legacy-SQL).
bq remove-iam-policy-binding
Mit dem Befehl remove-iam-policy-binding
wird die IAM-Richtlinie für eine Ressource (Tabelle oder Ansicht) abgerufen und in einem Schritt die Bindung aus der Richtlinie entfernt.
Dieser Befehl ist eine Alternative zum folgenden dreistufigen Prozess:
- Mit dem Befehl
get-iam-policy
die Richtliniendatei abrufen (im JSON-Format) - Richtliniendatei bearbeiten
- Aktualisieren Sie die Richtlinie mit dem Befehl
set-iam-policy
ohne die Bindung.
Verwendung:
bq remove-iam-policy-binding --member="MEMBER" --role="ROLE" [-COMMAND_FLAGS] RESOURCE_IDENTIFIER
Der Befehl remove-iam-policy-binding
verwendet die folgenden befehlsspezifischen Flags und Argumente.
--member
- Der Mitgliederteil der IAM-Richtlinienbindung. Das Flag
--member
ist zusammen mit dem Flag--role
erforderlich. Eine Kombination aus--member
und--role
entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie. --role
- Der Rollenteil der IAM-Richtlinienbindung. Das Flag
--role
ist mit dem Flag--member
erforderlich. Eine Kombination aus--member
- und--role
-Flags entspricht einer Bindung. Ausführliche Informationen zu Bindungen finden Sie in der Referenz zur IAM-Richtlinie. -t --table/view
- Entfernt, sofern angegeben, eine Bindung aus der IAM-Richtlinie einer Tabelle oder Ansicht.
Optional. Der Standardwert ist
false
.
RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.
bq rm
Der Befehl rm
löscht eine Kapazitätszusicherung, ein Dataset, ein Modell, eine Reservierung, eine Reservierungszuweisung, eine Tabelle, eine Übertragungskonfiguration oder eine Ansicht.
Weitere Informationen zur Verwendung des Befehls rm
finden Sie unter:
- Datasets verwalten
- Tabellen verwalten
- Ansichten verwalten
- Mit Übertragungen arbeiten
- Mit Reservierungen arbeiten
Der Befehl rm
verwendet die folgenden befehlsspezifischen Flags:
--capacity_commitment
- Löscht eine Kapazitätszusicherung. Der Standardwert ist
false
. --dataset
oder-d
- Löscht ein Dataset. Der Standardwert ist
false
. --force
oder-f
- Löscht eine Tabelle, eine Ansicht oder ein Dataset ohne Eingabeaufforderung. Der Standardwert ist
false
. --model
oder-m
- Löscht ein BigQuery ML-Modell.
--recursive
oder-r
- Löscht ein Dataset sowie alle darin enthaltenen Tabellen, Tabellendaten und Modelle. Der Standardwert ist
false
. --reservation
- Wenn dieses Flag angegeben ist, wird eine Reservierung gelöscht. Der Standardwert ist
false
. --reservation_assignment
- Löscht eine Reservierungszuweisung. Der Standardwert ist
false
. --table
oder-t
- Löscht eine Tabelle. Der Standardwert ist
false
. --transfer_config
- Löscht eine Übertragungskonfiguration. Der Standardwert ist
false
.
bq set-iam-policy
Mit dem Befehl set-iam-policy
wird die IAM-Richtlinie für eine Ressource (Tabelle oder Ansicht) festgelegt (oder aktualisiert). Nach dem Festlegen der Richtlinie wird die neue Richtlinie in stdout ausgegeben. Die Richtlinie hat das JSON-Format.
Das Feld etag
in der aktualisierten Richtlinie muss mit dem Wert etag
der aktuellen Richtlinie übereinstimmen. Andernfalls schlägt die Aktualisierung fehl. Diese Funktion verhindert gleichzeitige Aktualisierungen.
Sie können die aktuelle Richtlinie und den etag
-Wert mit dem Befehl bq get-iam-policy
abrufen.
Weitere Informationen zum Befehl set-iam-policy
mit Beispielen finden Sie unter Einführung in die Tabellenzugriffssteuerung.
Verwendung:
bq get-iam-policy [-COMMAND_FLAG] RESOURCE_IDENTIFIER FILE_NAME
Der Befehl set-iam-policy
verwendet die folgenden befehlsspezifischen Flags und Argumente.
-t --table/view
- Legt, sofern angegeben, die IAM-Richtlinie einer Tabelle oder Ansicht fest. Optional. Der Standardwert ist
false
.
RESOURCE_IDENTIFIER ist die Ressource (Tabelle oder Ansicht), deren Richtlinie aktualisiert wird.
FILE_NAME ist der Name einer Datei, die die Richtlinie im JSON-Format enthält.
bq show
Mit dem Befehl show
werden Informationen zu einem Objekt angezeigt.
Weitere Informationen zur Verwendung des Befehls show
finden Sie unter:
- Informationen zu Datasets abrufen
- Tabellen erstellen und verwenden
- Informationen zu Ansichten abrufen
- Mit Übertragungen arbeiten
- Jobs verwalten
- Mit Reservierungen arbeiten
Der Befehl show
verwendet die folgenden befehlsspezifischen Flags:
--assignee_id
- Gibt bei Verwendung mit dem Flag
reservation_assignment
die ID eines Ordners, einer Organisation oder eines Projekts an. Mit dem Flag--assignee_type
geben Sie an, welche Art von Zuständigen angezeigt werden soll. --assignee_type
- Ergibt bei Angabe mit dem Flag
reservation_assignment
den Zustellertyp, der angezeigt werden soll. EntwederFOLDER
,ORGANIZATION
oderPROJECT
. --reservation
- Ruft Informationen zu einer Reservierung ab. Der Standardwert ist
false
. --dataset
oder-d
- Ruft Informationen zu einem Dataset ab.
Der Standardwert ist
false
. --encryption_service_account
- Ruft das Dienstkonto eines Nutzers ab, sofern vorhanden, oder erstellt ein Dienstkonto, sofern nicht vorhanden. Der Standardwert ist
false
. --job
oder-j
- Ruft Informationen zu einem Job ab. Der Standardwert ist
false
. --job_type
- Gibt bei Verwendung mit dem Flag
reservation_assignment
den Typ der anzuzeigenden Jobreservierungszuweisung an. EntwederQUERY
,PIPELINE
oderML_EXTERNAL
. --model
oder-m
- Ruft Informationen zu einem BigQuery ML-Modell ab.
--reservation
- Ruft Informationen zu einer Reservierung ab. Der Standardwert ist
false
. --reservation_assignment
- Zeigt Reservierungszuweisungen für einen bestimmten Ordner, eine bestimmte Organisation oder ein bestimmtes Projekt an. Gegebenenfalls werden die expliziten Zuweisungen der Zielressource angezeigt. Andernfalls werden Aufgaben angezeigt, die von übergeordneten Ressourcen übernommen wurden. Ein Projekt kann beispielsweise Zuweisungen vom übergeordneten Ordner übernehmen. Wenn Sie dieses Flag verwenden, werden die Flags
--job_type
,--assignee_type
und--assignee_id
angewendet. --schema
- Ruft nur das Schema der Tabelle ab. Der Standardwert ist
false
. --transfer_config
- Ruft Informationen zu einer Übertragungskonfiguration ab. Der Standardwert ist
false
. --transfer_run
- Ruft Informationen zu einer Übertragungsausführung ab. Der Standardwert ist
false
. --view
- Ruft Informationen zu einer Ansicht ab. Der Standardwert ist
false
.
bq update
Mit dem Befehl update
werden eine Kapazitätszusicherung, ein Dataset, ein Modell, eine Reservierung, eine Reservierungszuweisung, eine Tabelle, eine Übertragungskonfiguration oder eine Ansicht aktualisiert.
Weitere Informationen zur Verwendung des Befehls update
finden Sie unter:
- Dataset-Attribute aktualisieren
- Tabellen verwalten
- Ansichtsattribute aktualisieren
- Labels aktualisieren
- Mit Übertragungen arbeiten
- Mit Reservierungen arbeiten
Der Befehl update
verwendet die folgenden befehlsspezifischen Flags:
--capacity_commitment
- Aktualisiert eine Kapazitätszusicherung. Der Standardwert ist
false
. Verwenden Sie dieses Flag mit den Flags--merge
,--plan
,--renewal_plan
,--split
und--slots
. --clear_label
- Entfernt ein Label mit dem Format
KEY:VALUE
. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu entfernen. --dataset
oder-d
- Aktualisiert ein Dataset. Der Standardwert ist
false
. --default_kms_key
- Legt den standardmäßigen Cloud KMS-Schlüssel zum Verschlüsseln von Tabellendaten in einem Dataset fest. Der Standardschlüssel wird verwendet, wenn bei der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration
Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Für dieses Flag gilt kein Mindestwert.
Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag
--time_partitioning_expiration
angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene. Geben Sie0
an, um einen vorhandenen Ablauf zu entfernen.--default_table_expiration
Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset aktualisiert. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert. Geben Sie
0
an, um den vorhandenen Ablauf zu entfernen.--description
Aktualisiert die Beschreibung eines Datasets, einer Tabelle, eines Modells oder einer Ansicht.
--destination_reservation_id
Bei Verwendung mit dem Flag
--reservation_assignment
wird eine vorhandene Reservierungszuweisung in die angegebene Reservierung verschoben. Der Wert ist die ID der Zielreservierung. Weitere Informationen finden Sie unter Zuweisung in eine andere Reservierung verschieben.--display_name
Aktualisiert den Anzeigenamen für eine Übertragungskonfiguration. Der Standardwert ist
''
.--etag
Ressourcen nur dann aktualisieren, wenn das etag übereinstimmt.
--expiration
Eine Ganzzahl, die die Ablaufzeit in Sekunden für eine Tabelle oder Ansicht aktualisiert. Wenn Sie
0
angeben, gilt keine Ablaufzeit.--external_table_definition
Aktualisiert eine externe Tabelle mit der angegebenen Tabellendefinition. Das Schema kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE, FIELD:DATA_TYPE
sein. Das Format für den Tabellennamen und das Schema lautet:TABLE::PATH_TO_FILE
oderTABLE::SCHEMA@SOURCE_FORMAT=CLOUD_STORAGE_URI
.--ignore_idle_slots
Wird mit dem Flag
--reservation
verwendet. Beitrue
können Jobs, die in der angegebenen Reservierung ausgeführt werden, nur Slots verwenden, die dieser Reservierung zugewiesen sind. Beifalse
können Jobs in dieser Reservierung inaktive Slots aus anderen Reservierungen oder Slots verwenden, die keiner Reservierung zugewiesen sind. Der Standardwert istfalse
. Weitere Informationen finden Sie unter Inaktive Slots.--merge
Bei Verwendung mit dem Flag
--capacity_commitment
werden zwei Kapazitätszusicherungen zusammengeführt. Der Standardwert istfalse
. Weitere Informationen finden Sie unter Zwei Zusicherungen zusammenführen.--model
oder-m
Aktualisiert Metadaten für ein BigQuery ML-Modell.
--params
oder-p
Aktualisiert Parameter für eine Übertragungskonfiguration im JSON-Format:
{"PARAMETER":"VALUE"}
. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie unter Einführung in BigQuery Data Transfer Service.--plan
Wenn das Flag mit dem Flag
--capacity_commitment
verwendet wird, wird eine Kapazitätszusicherung in eine Zusicherung mit längerer Dauer umgewandelt. Eine der folgenden Möglichkeiten:FLEX
,MONTHLY
,ANNUAL
. Der Standardwert ist''
.--refresh_window_days
Eine Ganzzahl, die ein aktualisiertes Aktualisierungsfenster (in Tagen) für eine Übertragungskonfiguration angibt.
--renewal_plan
Gibt bei Verwendung mit dem Flag
--capacity_commitment
den Verlängerungsplan für eine vorhandene Kapazitätszusicherung an. Eine der folgenden Möglichkeiten:FLEX
,MONTHLY
,ANNUAL
. Der Standardwert ist''
.--reservation
Aktualisiert eine Reservierung. Der Standardwert ist
false
.--reservation_assignment
Aktualisiert eine Reservierungszuweisung. Der Standardwert ist
false
.--schema
Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE,FIELD:DATA_TYPE
. Der Standardwert ist''
.--set_label
Ein zu aktualisierendes Label im Format
KEY:VALUE
. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu aktualisieren.--slots
Gibt bei Verwendung mit den Flags
--capacity_commitment
und--split
die Anzahl der Slots an, die von einer vorhandenen Kapazitätszusicherung in eine neue Zusicherung aufgeteilt werden sollen. Bei Verwendung mit dem Flag--reservation
, wird die Anzahl der Slots in einer Reservierung aktualisiert.--source
Der Pfad zu einer lokalen JSON-Datei, die eine Nutzlast zum Aktualisieren einer Ressource enthält. Mit diesem Flag können Sie beispielsweise eine JSON-Datei angeben, die eine Dataset-Ressource mit einem aktualisierten
access
-Attribut enthält. Die Datei wird verwendet, um die Zugriffssteuerungen des Datasets zu überschreiben.--split
Bei Verwendung mit dem Flag
--capacity_commitment
wird eine vorhandene Kapazitätszusicherung aufgeteilt. Der Standardwert istfalse
. Weitere Informationen finden Sie unter Zusicherung teilen.--table
oder-t
Aktualisiert eine Tabelle. Der Standardwert ist
false
.--target_dataset
Aktualisiert das Ziel-Dataset für eine Übertragungskonfiguration. Der Standardwert ist
''
.--time_partitioning_expiration
Eine Ganzzahl, die (in Sekunden) aktualisiert wird, wenn eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field
Aktualisiert das Feld, mit dem festgelegt wird, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type
Gibt den Partitionierungstyp an. Mögliche Werte sind
DAY
,HOUR
,MONTH
oderYEAR
. Sie können den Partitionierungstyp einer vorhandenen Tabelle nicht ändern.--transfer_config
Aktualisiert eine Übertragungskonfiguration. Der Standardwert ist
false
.--update_credentials
Aktualisiert die Anmeldedaten einer Übertragungskonfiguration. Der Standardwert ist
false
.--use_legacy_sql
Wenn dieser Wert auf
false
gesetzt ist, wird die SQL-Abfrage für eine Ansicht von Legacy-SQL auf Standard-SQL aktualisiert. Der Standardwert isttrue
, verwendet also Legacy-SQL.--view
Aktualisiert die SQL-Abfrage für eine Ansicht. Der Standardwert ist
''
.--view_udf_resource
Aktualisiert den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource in die SQL-Abfrage einer Ansicht geladen und dort ausgewertet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.
bq wait
Mit dem Befehl wait
wird einige Sekunden gewartet, bis ein Job abgeschlossen ist.
Der Befehl wait
verwendet das globale Flag --job_id
und die folgenden befehlsspezifischen Flags.
SECONDS
- Ein ganzzahliger Wert > = 0, der die Wartezeit angibt (dieser Wert ist kein Flag – Sie geben die Ganzzahl in der Befehlszeile an). Wenn Sie
0
eingeben, fragt der Befehl den Job ab und wird nach dessen Abschluss sofort zurückgegeben. Wenn Sie keinen ganzzahligen Wert angeben, wartet der Befehl für unbegrenzte Zeit. --fail_on_error
- Beendet den Vorgang nach Ablauf der Wartezeit mit einem Fehler, falls der Job noch ausgeführt wird oder aufgrund eines Fehlers abgebrochen wurde. Der Standardwert ist
true
. --wait_for_status
Wartet auf einen bestimmten Jobstatus, bevor der Vorgang beendet wird. Zulässige Werte:
PENDING
RUNNING
DONE
Der Standardwert ist
DONE
.