Referenz zum bq-Befehlszeilentool
In diesem Dokument werden die Syntax, Befehle, Flags und Argumente für das BigQuery-Befehlszeilentool bq
beschrieben.
Es richtet sich an Nutzer, die mit BigQuery vertraut sind, aber wissen möchten, wie ein bestimmter Befehl des bq-Befehlszeilentools verwendet wird.
Allgemeine Informationen zur Verwendung des bq-Befehlszeilentools finden Sie unter bq-Befehlszeilentool verwenden.
Zusammenfassung
Das bq-Befehlszeilentool hat das folgende Format:
bq COMMAND [FLAGS] [ARGUMENTS]
Einige Flags können mit mehreren Befehlen des bq-Befehlszeilentools verwendet werden. Diese Flags werden im Abschnitt Globale Flags beschrieben.
Andere Flags sind befehlsspezifisch – sie können nur mit einem bestimmten Befehl des bq-Befehlszeilentools verwendet werden. Die befehlsspezifischen Flags werden in den Befehlsabschnitten beschrieben.
Boolesche Flags
Einige Flags für das bq-Befehlszeilentool sind boolesch; Sie können den Wert des Flags auf true
oder false
setzen.
Das bq-Befehlszeilentool akzeptiert die folgenden Formate zum Festlegen von booleschen Flags.
Wert | Format | Beispiel |
---|---|---|
true |
--FLAGNAME=true |
--debug_mode=true |
true |
--FLAGNAME |
--debug_mode |
false |
--FLAGNAME=false |
--debug_mode=false |
false |
--noFLAGNAME |
--nodebug_mode |
In diesem Dokument wird für boolesche Flags das Format --FLAGNAME=VALUE
verwendet.
Alle booleschen Flags sind optional. Wenn kein boolesches Flag vorhanden ist, verwendet BigQuery den Standardwert des Flags.
Werte für Flags angeben
Wenn Sie einen Wert für ein Flag festlegen, ist das Gleichheitszeichen (=
) optional. Die folgenden beiden Befehle entsprechen beispielsweise einander:
bq ls --format prettyjson myDataset bq ls --format=prettyjson myDataset
In diesem Dokument wird zur Verdeutlichung das Gleichheitszeichen verwendet.
Onlinehilfe
Dokumentation im bq-Befehlszeilentool ist so verfügbar:
Beschreibung | Format des Hilfebefehls | Beispiel |
---|---|---|
Liste aller Befehle mit Beispielen | bq help |
bq help |
Beschreibung der globalen Flags | bq --help |
bq --help |
Beschreibung eines bestimmten Befehls | bq help COMMAND |
bq help mk |
Ressourcenspezifikation
Das Format für die Angabe einer Ressource hängt vom Kontext ab. In einigen Fällen ist das Trennzeichen zwischen Projekt und Dataset ein Doppelpunkt (:
) und in einigen Fällen ist es ein Punkt (.
). In der folgenden Tabelle wird beschrieben, wie Sie eine BigQuery-Tabelle in verschiedenen Kontexten angeben.
Kontext | Format | Beispiel |
---|---|---|
bq-Befehlszeilentool, also: Befehlszeilentool "bq" | PROJECT:DATASET.TABLE |
myProject:myDataset.myTable |
GoogleSQL-Abfrage | PROJECT.DATASET.TABLE |
myProject.myDataset.myTable |
Legacy-SQL-Abfrage | PROJECT:DATASET.TABLE |
myProject:myDataset.myTable |
Wenn Sie kein Projekt angeben, verwendet BigQuery das aktuelle Projekt. Wenn das aktuelle Projekt beispielsweise myProject
ist, interpretiert BigQuery myDataset.myTable
als myProject:myDataset.myTable
(oder myProject.myDataset.myTable
).
Einige Ressourcen-IDs müssen in Graviszeichen (`
) gesetzt werden. Wenn die Ressourcenkennzeichnung mit einem Buchstaben oder einem Unterstrich beginnt und nur Zeichen enthält, die aus Buchstaben, Ziffern und Unterstrichen bestehen, müssen Sie sie nicht hervorheben. Wenn Ihre Ressourcen-ID jedoch andere Zeichen oder reservierte Schlüsselwörter enthält, müssen Sie die ID (oder den Teil der ID mit den Sonderzeichen oder reservierten Schlüsselwörtern) mit Graviszeichen umschließen. Weitere Informationen finden Sie unter Kennungen.
Globale Flags
Sie können, falls zutreffend, die mit jedem bq
-Befehl die folgenden Flags verwenden:
--api=ENDPOINT
- Gibt den API-Endpunkt an, der aufgerufen werden soll. Der Standardwert ist
https://www.googleapis.com
. --api_version=VERSION
- Gibt die zu verwendende API-Version an. Der Standardwert ist
v2
. --apilog=FILE
Loggt alle API-Anfragen und -Antworten in der von
FILE
angegebenen Datei. Folgende Werte sind möglich:- Der Pfad zu einer Datei – Logs werden in der angegebene Datei erfasst
stdout
: API-Anfragen und -Antworten werden in der Standardausgabe geloggtstderr
: API-Anfragen und -Antworten werden im Standardfehler geloggtfalse
: API-Anfragen und -Antworten werden nicht geloggt (Standard)
--bigqueryrc=PATH
Gibt den Pfad zur Konfigurationsdatei des bq-Befehlszeilentools an. Wenn Sie das Flag
--bigqueryrc
nicht angeben, verwendet der Befehl die UmgebungsvariableBIGQUERYRC
. Wenn die Umgebungsvariable nicht festgelegt ist, wird$HOME/.bigqueryrc
verwendet. Wenn diese Datei nicht vorhanden ist, wird~/.bigqueryrc
verwendet. Weitere Informationen finden Sie unter Standardwerte für Befehlszeilen-Flags festlegen.--ca_certificates_file=PATH
Gibt den Speicherort der CA-Datei (Certificate Authority Service) an.
--dataset_id=DATASET_ID
Gibt das Standard-Dataset an, das mit dem Befehl verwendet werden soll. Dieses Flag wird ignoriert, wenn es nicht anwendbar ist. Sie können das Argument
DATASET_ID
im FormatPROJECT:DATASET
oderDATASET
angeben. Wenn der TeilPROJECT
fehlt, wird das Standardprojekt verwendet. Sie können die Standardprojekteinstellung durch Angabe des Flags--project_id
überschreiben.--debug_mode={true|false}
Wenn auf
true
festgelegt, werden Tracebacks für Python-Ausnahmen angezeigt. Der Standardwert istfalse
.--disable_ssl_validation={true|false}
Wenn auf
true
festgelegt, wird die HTTPS-Zertifikatsprüfung aktiviert. Der Standardwert istfalse
.--discovery_file=PATH
Gibt die JSON-Datei an, die für die Erkennung gelesen werden soll.
--enable_gdrive={true|false}
Wenn auf
false
festgelegt, wird ein neues OAuth-Token ohne Google Drive-Bereich angefordert. Der Standardwert isttrue
, mit dem ein neues OAuth-Token mit dem Drive-Bereich angefordert wird.--fingerprint_job_id={true|false}
Wenn Sie eine Job-ID verwenden möchten, die von einem Fingerabdruck der Jobkonfiguration abgeleitet wird, legen Sie
true
fest. Dadurch wird verhindert, dass derselbe Job versehentlich mehrmals ausgeführt wird. Der Standardwert istfalse
.--format=FORMAT
Gibt das Format der Ausgabe des Befehls an. Verwenden Sie einen der folgenden Werte:
pretty
: Formatierte Tabellenausgabesparse
: Einfachere Tabellenausgabeprettyjson
: Leicht lesbares JSON-Formatjson
: Maximal komprimiertes JSONcsv
: CSV-Format mit Header
pretty
,sparse
undprettyjson
sind für Menschen lesbar.json
undcsv
sind für die Verwendung durch ein anderes Programm vorgesehen. Wennnone
angegeben ist, erzeugt der Befehl keine Ausgabe. Wenn das Flag--format
fehlt, wird basierend auf dem Befehl ein geeignetes Ausgabeformat ausgewählt.--headless={true|false}
Legen Sie
true
fest, um diebq
-Sitzung ohne Nutzerinteraktion auszuführen. So wird beispielsweise der Debugger durchdebug_mode
nicht unterbrochen, und die Häufigkeit des Informationsdrucks verringert sich. Der Standardwert istfalse
.--httplib2_debuglevel=DEBUG_LEVEL
Gibt an, ob HTTP-Informationen zur Fehlerbehebung angezeigt werden sollen. Wenn
DEBUG_LEVEL
größer als0
ist, loggt der Befehl zusätzlich zu Fehlermeldungen HTTP-Serveranfragen und -Antworten an stderr. WennDEBUG_LEVEL
nicht > 0 ist oder wenn das Flag--httplib2_debuglevel
nicht verwendet wird, werden nur Fehlermeldungen angezeigt.Beispiel:
--httplib2_debuglevel=1
--job_id=JOB_ID
Gibt eine Jobkennung für einen neuen Job an. Dieses Flag gilt nur für Befehle, die Jobs erstellen:
cp
,extract
,load
undquery
. Wenn Sie das Flag--job_id
nicht verwenden, generieren die Befehle eine eindeutige Jobkennung. Weitere Informationen finden Sie unter Jobs programmatisch ausführen.--job_property=KEY:VALUE
Ein Schlüssel/Wert-Paar, das in das Feld für Attribute in der Jobkonfiguration aufgenommen werden soll. Definieren Sie dieses Flag wiederholt, um weitere Attribute anzugeben.
--location=LOCATION
Ein String, der Ihrer Region oder Ihrem multiregionalen Standort entspricht. Für den Befehl
bq cancel
und den Befehlbq show
ist das Standort-Flag erforderlich, wenn Sie das Flag--jobs
zum Abrufen von Jobinformationen verwenden. Für die folgenden Befehle ist das Standort-Flag optional:query
cp
load
extract
partition
update
wait
mk
, wenn Sie die Flags--dataset
,--reservation
,--capacity_commitment
oder--reservation_assignment
verwendenls
, wenn Sie das Flag--reservation
,--capacity_commitment
oder--reservation_assignment
verwenden
Alle anderen Befehle ignorieren das Flag
--location
.--max_rows_per_request=MAX_ROWS
Eine Ganzzahl, die die maximale Anzahl von Zeilen angibt, die pro Lesevorgang zurückgegeben werden.
--project_id=PROJECT
Gibt das Projekt an, das für Befehle verwendet werden soll.
--proxy_address=PROXY
Gibt den Namen oder die IP-Adresse des Proxyhosts an, der für die Verbindung mit Google Cloud verwendet werden soll.
--proxy_password=PASSWORD
Gibt das Passwort an, das zur Authentifizierung beim Proxyhost verwendet werden soll.
--proxy_port=PORT
Gibt die Portnummer zum Herstellen der Verbindung mit dem Proxyhost an.
--proxy_username=USERNAME
Gibt den Nutzernamen für die Authentifizierung beim Proxyhost an.
--quiet={true|false}
oder-q={true|false}
Legen Sie
true
fest, um Statusaktualisierungen während der Ausführung von Jobs zu unterdrücken. Der Standardwert istfalse
.--synchronous_mode={true|false}
oder-sync={true|false}
Legen Sie
false
fest, um den Job zu erstellen und sofort einen erfolgreichen Abschlussstatus als Fehlercode zurückzugeben. Wenn dieses Flag auftrue
festgelegt ist, wartet der Befehl mit der Rückgabe, bis der Job abgeschlossen ist, und gibt den Abschlussstatus des Jobs als Fehlercode zurück. Der Standardwert isttrue
.--trace=token:TOKEN
Gibt ein Tracing-Token zur Einbindung in API-Anfragen an.
--use_regional_endpoints={true|false}
In der Vorschau. Wenn Sie eine Verbindung zu einem regionalen Endpunkt herstellen möchten, setzen Sie das Flag
--use_regional_endpoints
auftrue
und das Flag--location
auf die Region, mit der Sie eine Verbindung herstellen möchten. Der Standardwert istfalse
.
Verworfene globale Flags
Das folgende globale Flag zum Angeben von Flags für das bq-Befehlszeilentool aus einer Datei wird verworfen. Verwenden Sie das Flag --bigqueryrc
, um Flags aus einer Datei anzugeben.
--flagfile=PATH
Wenn angegeben, werden Flag-Definitionen aus der übermittelten Datei in das bq-Befehlszeilentool eingefügt. Der Standardwert ist ''
. Weitere Informationen finden Sie unter Standardwerte für Befehlszeilen-Flags festlegen.
Befehle
In den folgenden Abschnitten werden die Befehle des bq-Befehlszeilentools sowie deren befehlsspezifischen Flags und Argumente beschrieben.
bq add-iam-policy-binding
Rufen Sie mit dem Befehl bq add-iam-policy-binding
die IAM-Richtlinie (Identity and Access Management) für eine Tabelle oder Ansicht ab und fügen Sie der Richtlinie in einem Schritt eine Bindung hinzu.
Dieser Befehl ist eine Alternative zum folgenden dreistufigen Prozess:
- Mit dem Befehl
bq get-iam-policy
die Richtliniendatei abrufen (im JSON-Format). - Richtliniendatei bearbeiten.
- Mit dem Befehl
bq set-iam-policy
die Richtlinie mit einer neuen Bindung aktualisieren.
Zusammenfassung
bq add-iam-policy-binding [FLAGS] --member=MEMBER_TYPE:MEMBER --role=ROLE [--table] RESOURCE
Beispiel
bq add-iam-policy-binding --member=user:myAccount@gmail.com \ --role=roles/bigquery.dataViewer myDataset.myTable
Flags und Argumente
Der Befehl bq add-iam-policy-binding
verwendet die folgenden Flags und Argumente:
--member=MEMBER_TYPE:MEMBER
Erforderlich. Verwenden Sie das Flag
--member
, um den Mitgliedsteil der IAM-Richtlinienbindung anzugeben. Das Flag--member
ist zusammen mit dem Flag--role
erforderlich. Eine Kombination aus--member
- und--role
-Flags entspricht einer Bindung.Der Wert
MEMBER_TYPE
gibt den Typ des Mitglieds in der IAM-Richtlinienbindung an. Verwenden Sie einen der folgenden Werte:user
serviceAccount
group
domain
Der Wert
MEMBER
gibt die E-Mail-Adresse oder Domain des Mitglieds in der IAM-Richtlinienbindung an.--role=ROLE
Erforderlich. Gibt den Rollenteil der IAM-Richtlinienbindung an. Das Flag
--role
ist zusammen mit dem Flag--member
erforderlich. Eine Kombination aus--member
- und--role
-Flags entspricht einer Bindung.--table={true|false}
Wenn Sie einen Fehler zurückgeben möchten, wenn das Argument
RESOURCE
keine Tabellen- oder Ansichts-ID ist, setzen Sie das Flag--table
auftrue
. Der Standardwert istfalse
. Dieses Flag wird für die Konsistenz mit anderen Befehlen unterstützt.RESOURCE
Die Tabelle oder Ansicht, deren Richtlinie Sie etwas hinzufügen möchten.
Weitere Informationen finden Sie in der IAM-Richtlinienreferenz.
bq cancel
Verwenden Sie den Befehl bq cancel
, um BigQuery-Jobs abzubrechen.
Zusammenfassung
bq [--synchronous_mode=false] cancel JOB_ID
Beispiele
bq cancel bqjob_12345
bq --synchronous_mode=false cancel bqjob_12345
Flags und Argumente
Der Befehl bq cancel
verwendet die folgenden Flags und Argumente:
--synchronous_mode=false
- Wenn Sie nicht warten möchten, bis der Befehl
bq cancel
ausgeführt wurde, legen Sie das globale Flag--synchronous_mode
auffalse
fest. Die Standardeinstellung isttrue
. JOB_ID
- Der Job, den Sie abbrechen möchten.
Weitere Informationen zur Verwendung des Befehls bq cancel
finden Sie unter Jobs verwalten.
bq cp
Verwenden Sie den bq cp
-Befehl für die folgenden Aufgaben:
- Erstellen Sie eine Kopie einer Tabelle, eines Tabellenklons oder eines Tabellen-Snapshots.
- Einen Tabellenklon erstellen.
- Einen Tabellen-Snapshot erstellen.
Zusammenfassung
bq cp [FLAGS] SOURCE_TABLE DESTINATION_TABLE
Beispiel
bq cp myDataset.myTable myDataset.myTableCopy
Flags und Argumente
Der Befehl bq cp
verwendet die folgenden Flags und Argumente:
--append_table={true|false}
oder-a={true|false}
Um eine Tabelle an eine vorhandene Tabelle anzuhängen, legen Sie
true
fest. Der Standardwert istfalse
.Sie können die Flag-Einstellungen
--append_table=true
und--clone=true
nicht gleichzeitig verwenden.--clone={true|false}
Zum Erstellen eines Tabellenklons legen Sie
true
fest. Die Basistabelle kann eine Tabelle, ein Tabellenklon oder ein Tabellen-Snapshot sein. Die Zieltabelle ist ein Tabellenklon. Der Standardwert istfalse
. Wenn weder--clone=true
noch--snapshot=true
angegeben ist, ist die Zieltabelle derselbe Tabellentyp wie die Basistabelle.Sie können die Flag-Einstellungen
--append_table=true
und--clone=true
nicht gleichzeitig verwenden.--destination_kms_key=KEY
Gibt eine Cloud KMS-Schlüsselressourcen-ID an, um die Zieltabellendaten zu verschlüsseln.
Beispiel:
--destination_kms_key=projects/myProject/locations/global/keyRings/myKeyRing/cryptoKeys/myKey
--expiration=SECONDS
Die Anzahl der Sekunden, bis ein Tabellen-Snapshot abläuft. Wenn nichts angegeben ist, wird die Ablaufzeit des Tabellen-Snapshots auf die Standardablaufzeit des Datasets festgelegt, das den neuen Tabellen-Snapshot enthält. Wird mit dem Flag
--snapshot
verwendet.--force={true|false}
oder-f={true|false}
Wenn Sie die Zieltabelle, falls sie vorhanden ist, ohne Eingabeaufforderung überschreiben möchten, legen Sie
true
fest. Der Standardwert istfalse
; wenn die Zieltabelle vorhanden ist, fordert der Befehl vor dem Überschreiben eine Bestätigung an.--no_clobber={true|false}
oder-n={true|false}
Wenn die Zieltabelle nicht vorhanden sein soll, falls sie vorhanden ist, legen Sie dafür
true
fest. Der Standardwert istfalse
; wenn die Zieltabelle vorhanden ist, wird sie überschrieben.--restore={true|false}
Dieses Flag wird verworfen. Verwenden Sie den Befehl
bq cp
oderbq cp --clone
, um eine schreibende Tabelle aus einem Tabellen-Snapshot zu erstellen.--snapshot={true|false}
Legen Sie einen
true
-Wert fest, um einen Tabellen-Snapshot der Tabelle zu erstellen, die im ArgumentSOURCE_TABLE
angegeben ist. Die Basistabelle kann eine Standardtabelle, ein Tabellenklon oder ein anderer Tabellen-Snapshot sein. Der Standardwert istfalse
. Wenn weder--clone=true
noch--snapshot=true
angegeben ist, ist die Zieltabelle derselbe Tabellentyp wie die Basistabelle. Erfordert das Flag--no_clobber
.SOURCE_TABLE
Die Tabelle, die Sie kopieren möchten.
DESTINATION_TABLE
Die Tabelle, in die Sie kopieren möchten.
Weitere Informationen zur Verwendung des Befehls cp
finden Sie hier:
- Tabelle kopieren
- Tabellenklone erstellen
- Tabellen-Snapshots erstellen
- Tabellen-Snapshots wiederherstellen.
bq extract
Verwenden Sie den Befehl bq extract
, um Tabellendaten in Cloud Storage zu exportieren.
Zusammenfassung
bq extract [FLAGS] RESOURCE DESTINATION
Beispiele
bq extract --compression=GZIP --destination_format=CSV --field_delimiter=tab \ --print_header=false myDataset.myTable gs://my-bucket/myFile.csv.gzip
bq extract --destination_format=CSV --field_delimiter='|' myDataset.myTable \ gs://myBucket/myFile.csv
Flags und Argumente
Der Befehl bq extract
verwendet die folgenden Flags und Argumente:
--compression=COMPRESSION_TYPE
Gibt den Komprimierungstyp an, der für exportierte Dateien verwendet werden soll. Folgende Werte sind möglich:
GZIP
DEFLATE
SNAPPY
NONE
Der Standardwert ist
NONE
.Informationen dazu, welche Formate für die einzelnen Komprimierungstypen unterstützt werden, finden Sie unter Formate und Komprimierungstypen.
--destination_format=FORMAT
Gibt das Format für die exportierten Daten an. Folgende Werte sind möglich:
CSV
NEWLINE_DELIMITED_JSON
AVRO
PARQUET
Der Standardwert ist
CSV
.--field_delimiter=DELIMITER
Gibt für CSV-Exporte das Zeichen an, das die Begrenzung zwischen den Spalten in der Ausgabedatei kennzeichnet. Das Trennzeichen kann ein beliebiges ISO-8859-1-Einzelbytezeichen sein. Sie können
\t
odertab
verwenden, um Tabulatortrennzeichen anzugeben.--print_header={true|false}
Wenn Sie das Drucken von Kopfzeilen für Formate mit Headern unterdrücken möchten, legen Sie
false
fest. Der Standardwert isttrue
; Headerzeilen sind enthalten.RESOURCE
Die Tabelle, aus der Sie exportieren.
DESTINATION
Der Speicherort, an den die exportierten Daten gesendet werden.
Weitere Informationen zur Verwendung des Befehls bq extract
finden Sie unter Tabellendaten exportieren.
bq get-iam-policy
Rufen Sie mit dem Befehl bq get-iam-policy
die IAM-Richtlinie für eine Ressource ab und geben Sie sie in stdout
aus. Die Ressource kann eine Tabelle oder eine Ansicht sein. Die Richtlinie hat das JSON-Format.
Zusammenfassung
bq get-iam-policy [FLAGS] RESOURCE
Beispiel
bq get-iam-policy myDataset.myTable
Flags und Argumente
Der Befehl bq get-iam-policy
verwendet die folgenden Flags und Argumente:
--table={true|false}
oder--t={true|false}
- Wenn Sie einen Fehler zurückgeben möchten, wenn
RESOURCE
keine Tabellen- oder Ansichts-ID ist, setzen Sie das Flag--table
auftrue
. Der Standardwert istfalse
. Dieses Flag wird für die Konsistenz mit anderen Befehlen unterstützt. RESOURCE
- Die Tabelle oder Ansicht, deren Richtlinie Sie abrufen möchten.
Weitere Informationen zum bq get-iam-policy
-Befehl finden Sie unter Zugriff auf Ressourcen mit IAM steuern.
bq head
Verwenden Sie den Befehl bq head
, um die angegebenen Zeilen und Spalten einer Tabelle aufzurufen.
Standardmäßig werden alle Spalten der ersten 100 Zeilen angezeigt.
Zusammenfassung
bq head [FLAGS] [TABLE]
Beispiel
bq head --max_rows=10 --start_row=50 --selected_fields=field1,field3 \ myDataset.myTable
Flags und Argumente
Der Befehl bq head
verwendet die folgenden Flags und Argumente:
--job=JOB or -j=JOB
- Um die Ergebnisse eines Abfragejobs zu lesen, geben Sie dieses Flag mit einer gültigen Job-ID an.
--max_rows=MAX or -n=MAX
- Eine Ganzzahl, die beim Anzeigen von Tabellendaten die maximale Anzahl von auszugebenden Zeilen angibt. Der Standardwert ist
100
. --selected_fields=COLUMN_NAMES or -c=COLUMN_NAMES
- Eine durch Kommas getrennte Liste, die eine Teilmenge von Feldern (einschließlich verschachtelter und wiederkehrender Felder) angibt, die beim Abrufen von Tabellendaten zurückgegeben werden. Wenn dieses Flag nicht angegeben ist, werden alle Spalten zurückgegeben.
--start_row=START_ROW or -s=START_ROW
- Eine Ganzzahl, die die Anzahl der zu überspringenden Zeilen angibt, bevor Tabellendaten angezeigt werden. Der Standardwert ist
0
; die Tabellendaten beginnen bei der ersten Zeile. --table={true|false}
oder-t={true|false}
- Wenn Sie einen Fehler zurückgeben möchten, wenn das Befehlsargument keine Tabelle oder Ansicht ist, legen Sie
true
fest. Der Standardwert istfalse
. Dieses Flag wird für die Konsistenz mit anderen Befehlen unterstützt. TABLE
- Die Tabelle, deren Daten Sie abrufen möchten.
Weitere Informationen zur Verwendung des Befehls bq head
finden Sie unter Tabellendaten verwalten.
bq help
Verwenden Sie den Befehl bq help
, um die Dokumentation des bq-Befehlszeilentools im Tool aufzurufen.
Zusammenfassung
bq help [COMMAND]
Flags und Argumente
Der Befehl bq help
verwendet die folgenden Flags und Argumente:
COMMAND
- Gibt einen bestimmten Befehl des bq-Befehlszeilentools an, mit dem Sie Hilfe abrufen möchten.
bq insert
Verwenden Sie den Befehl bq insert
, um Zeilen mit durch Zeilenumbruch getrennten JSON-formatierten Daten aus einer Datei mithilfe des Streaming-Zwischenpeichers einzufügen. Datentypen werden so konvertiert, dass sie den Spaltentypen der Zieltabelle entsprechen. Dieser Befehl ist nur für Testzwecke vorgesehen. Zum Streamen von Daten in BigQuery verwenden Sie die API-Methode insertAll
.
Zusammenfassung
bq insert [FLAGS] TABLE FILE
Beispiele
bq insert --ignore_unknown_values --template_suffix=_insert myDataset.myTable /tmp/myData.json
echo '{"a":1, "b":2}' | bq insert myDataset.myTable
Flags und Argumente
Der Befehl bq insert
verwendet die folgenden Flags und Argumente:
--ignore_unknown_values={true|false}
oder-i={true|false}
- Wenn
true
festgelegt ist, ignoriert BigQuery alle Schlüssel/Wert-Paare, die nicht mit dem Schema der Tabelle übereinstimmen, und fügt die Zeile mit den Daten ein, die mit dem Schema übereinstimmen. Wenn der Wert auffalse
gesetzt ist, werden Zeilen mit Daten, die nicht mit dem Schema der Tabelle übereinstimmen, nicht eingefügt. Der Standardwert istfalse
. --skip_invalid_rows={true|false}
oder-s={true|false}
- Wenn
true
festgelegt ist, versucht BigQuery, gültige Zeilen einzufügen, auch wenn ungültige Zeilen vorhanden sind. Wennfalse
festgelegt ist, schlägt der Befehl fehl, wenn ungültige Zeilen vorhanden sind. Der Standardwert istfalse
. --template_suffix=SUFFIX or -x=SUFFIX
- Wenn dieses Flag angegeben ist, wird die Zieltabelle TABLE als Basisvorlage behandelt und die Zeilen werden in eine Instanztabelle mit dem Namen
{destination}{templateSuffix}
eingefügt. BigQuery erstellt die Instanztabelle mithilfe des Schemas der Basisvorlage. TABLE
- Die Tabelle, in die Sie Daten einfügen möchten.
FILE
- Die Datei mit den Daten, die Sie einfügen möchten.
Weitere Informationen zur Verwendung des Befehls bq insert
finden Sie unter Daten in BigQuery streamen.
bq load
Verwenden Sie den Befehl bq load
, um Daten in eine Tabelle zu laden.
Zusammenfassung
bq load [FLAGS] DESTINATION_TABLE SOURCE_DATA [SCHEMA]
Beispiel
bq load myDataset.newTable gs://mybucket/info.csv ./info_schema.json
Flags und Argumente
Der Befehl bq load
verwendet die folgenden Flags und Argumente:
--allow_jagged_rows={true|false}
- Um das Fehlen von nachgestellten optionalen Spalten in CSV-Daten zuzulassen, legen Sie
true
fest. --preserve_ascii_control_characters={true|false}
- Um eingebettete ASCII-Steuerzeichen in CSV-Daten zuzulassen, legen Sie auf
true
fest. --allow_quoted_newlines={true|false}
- Um Zeilenumbrüche in CSV-Daten in Anführungszeichen zuzulassen, legen Sie
true
fest. --autodetect={true|false}
- Um die automatische Schemaerkennung für CSV- und JSON-Daten zu aktivieren, legen Sie
true
fest. Die Standardeinstellung istfalse
. Wenn--autodetect
den Wertfalse
hat und mit dem Flag--schema
kein Schema angegeben wurde und die Zieltabelle vorhanden ist, wird das Schema der Zieltabelle verwendet. --clustering_fields=COLUMNS
- Eine durch Kommas getrennte Liste mit bis zu vier Spaltennamen, die die Felder für das Tabellen-Clustering angibt.
--destination_kms_key=KEY
- Gibt eine Schlüsselressourcen-ID für Cloud KMS zum Verschlüsseln der Zieltabellendaten an.
--encoding=ENCODING_TYPE or -E=ENCODING_TYPE
- Die in den Daten verwendete Zeichencodierung. Verwenden Sie einen der folgenden Werte:
ISO-8859-1
(auch bekannt als Latin-1)UTF-8
--field_delimiter=DELIMITER or -F=DELIMITER
- Gibt das Zeichen an, das die Begrenzung zwischen Spalten in den Daten kennzeichnet.
Das Trennzeichen kann ein beliebiges ISO-8859-1-Einzelbytezeichen sein. Sie können entweder
\t
odertab
verwenden, um Tabulatortrennzeichen anzugeben. --ignore_unknown_values={true|false}
- Wenn dieses Flag für CSV- und JSON-Dateien auf
true
festgelegt ist, werden Zeilen mit zusätzlichen Spaltenwerten, die nicht dem Tabellenschema entsprechen, geladen, aber die zusätzlichen Spalten werden ignoriert. Wenn für Avro-, Parquet- und ORC-Dateientrue
festgelegt ist, werden Felder im Dateischema, die im Tabellenschema nicht vorhanden sind, ignoriert und nicht geladen. --json_extension=JSON_TYPE
Gibt den Typ der zu ladenden JSON-Datei an. Gilt nur für JSON-Dateien. Folgende Werte sind möglich:
GEOJSON
: durch Zeilenumbruch getrennte GeoJSON-Datei
Wenn Sie dieses Flag verwenden möchten, muss das Flag
--source_format
aufNEWLINE_DELIMITED_JSON
gesetzt sein.Weitere Informationen finden Sie unter Durch Zeilenumbruch getrennte GeoJSON-Dateien laden.
--max_bad_records=MAX
Eine Ganzzahl, die die Höchstzahl ungültiger Datensätze angibt, bevor der gesamte Job fehlschlägt. Der Standardwert ist
0
. Es werden höchstens fünf Fehler pro Typ zurückgegeben, unabhängig vom Wert--max_bad_records
. Dieses Flag gilt nur für das Laden von CSV-, JSON- und Google Sheets-Daten.--null_marker=STRING
Ein optionaler benutzerdefinierter String, der einen
NULL
-Wert in CSV-Daten darstellt.--projection_fields=PROPERTY_NAMES
Wenn Sie
--source_format
aufDATASTORE_BACKUP
setzen, gibt dieses Flag an, welche Entitätsattribute aus einem Datastore-Export geladen werden sollen. Geben Sie die Attributnamen in einer durch Kommas getrennten Liste an. Bei Attributnamen wird zwischen Groß- und Kleinschreibung unterschieden und sie müssen sich auf Attribute der obersten Ebene beziehen. Sie können dieses Flag auch für Firestore-Exporte verwenden.--quote=CHARACTER
Gibt ein Anführungszeichen zum Hervorheben von Feldern in CSV-Daten an. Das Argument
CHARACTER
kann ein beliebiges Ein-Byte-Zeichen sein. Der Standardwert ist ein doppeltes Anführungszeichen ("
). Wenn Sie angeben möchten, dass kein Anführungszeichen vorhanden ist, verwenden Sie den leeren String""
.--replace={true|false}
Legen Sie
true
fest, um vorhandene Daten und Schemas zu löschen, wenn neue Daten geladen werden. Cloud KMS-Schlüssel werden ebenfalls entfernt, wenn Sie nicht das Flag--destination_kms_key
angeben. Der Standardwert istfalse
.Entspricht dem
WRITE_TRUNCATE
-Wert fürJobConfigurationLoad.writeDisposition
.--schema={SCHEMA_FILE|SCHEMA
}Gibt entweder den Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE, FIELD:DATA_TYPE
usw. an. Wenn Sie eine Schemadatei verwenden, sollten Sie der Datei keine Erweiterung hinzufügen.Beispiel:
--schema=/tmp/tabledef
--schema=Region:STRING,Quarter:STRING,Total_sales:INTEGER
Wenn kein Schema angegeben ist,
--autodetect
den Wertfalse
hat und die Zieltabelle vorhanden ist, wird das Schema der Zieltabelle verwendet.--schema_update_option=OPTION
Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Verwenden Sie einen der folgenden Werte:
ALLOW_FIELD_ADDITION
: Ermöglicht das Einfügen neuer Felder zur SchemadefinitionALLOW_FIELD_RELAXATION
: Ermöglicht das Ändern vonREQUIRED
-Feldern inNULLABLE
Wiederholen Sie dieses Flag, wenn Sie mehrere Optionen für die Schemaaktualisierung angeben möchten.
--skip_leading_rows=NUMBER_OF_ROWS
Eine Ganzzahl, die die Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei angibt. Der Standardwert ist
0
.--file_set_spec_type=FILE_SET_SPEC_TYPE
Gibt an, wie Quell-URIs interpretiert werden.
FILE_SYSTEM_MATCH
: Maximiert die Quell-URIs, indem Dateien aus dem Objektspeicher aufgelistet werden. Dies ist das Standardverhalten, wenn FileSetSpecType nicht festgelegt ist.NEW_LINE_DELIMITED_MANIFEST
: Gibt an, dass die angegebenen URIs Manifestdateien mit Zeilenumbruch mit einem URI pro Zeile sind. Platzhalter-URIs werden in den Manifestdateien nicht unterstützt und alle referenzierten Datendateien müssen sich im selben Bucket wie das Manifest befinden.
Wenn Sie beispielsweise den Quell-URI
"gs://bucket/path/file"
haben undfile_set_spec_type
den WertFILE_SYSTEM_MATCH
hat, wird die Datei direkt als Datendatei verwendet. Wennfile_set_spec_type
den WertNEW_LINE_DELIMITED_MANIFEST
hat, wird jede Zeile in der Datei als URI interpretiert, der auf eine Datendatei verweist.--source_format=FORMAT
Das Format der Quelldaten. Verwenden Sie einen der folgenden Werte:
CSV
NEWLINE_DELIMITED_JSON
AVRO
DATASTORE_BACKUP
(diesen Wert für Filestore verwenden)PARQUET
ORC
--time_partitioning_expiration=SECONDS
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field=COLUMN_NAME
Gibt das Feld an, das bestimmt, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type=INTERVAL
Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Verwenden Sie einen der folgenden Werte:
DAY
HOUR
MONTH
YEAR
Der Standardpartitionstyp für die zeitbasierte Partitionierung ist
DAY
.--use_avro_logical_types={true|false}
Wenn das Flag
--source_format
aufAVRO
gesetzt ist, legen Sie dieses Flag auftrue
fest, um logische Typen in die entsprechenden Typen wieTIMESTAMP
zu konvertieren, anstatt nur deren Rohtypen (z. B.INTEGER
) zu verwenden.--decimal_target_types=DECIMAL_TYPE
Bestimmt, wie ein logischer
Decimal
-Typ konvertiert wird. EntsprichtJobConfigurationLoad.decimalTargetTypes
. Wiederholen Sie dieses Flag, um mehrere Zieltypen anzugeben.--parquet_enum_as_string={true|false}
Wenn das Flag
--source_format
aufPARQUET
festgelegt ist und BigQuery die logischen Typen vonENUM
-Parquet alsSTRING
-Werte ableiten soll, setzen Sie dieses Flag auftrue
. Der Standardwert istfalse
.--parquet_enable_list_inference={true|false}
Wenn das Flag
--source_format
aufPARQUET
festgelegt ist, gibt dieses Flag an, ob Schemainferenz für logische Typen von Parquet-LIST
verwendet werden sollen.--reference_file_schema_uri=URI
Gibt den Pfad zu einer Referenzdatei mit dem erwarteten Tabellenschema zum Erstellen externer Tabellen an. Entspricht
ExternalDataConfiguration.referenceFileSchemaUri
. Dieses Flag ist für Avro-, ORC- und PARQUET-Formate aktiviert.DESTINATION_TABLE
Die Tabelle, in die Sie Daten laden möchten.
SOURCE_DATA
Der Cloud Storage-URI der Datei mit den Daten, die Sie laden möchten.
SCHEMA
Das Schema für die Zieltabelle.
Weitere Informationen zum Laden von Daten aus Cloud Storage mit dem Befehl bq load
finden Sie hier:
- Avro-Daten laden
- CSV-Daten laden
- JSON-Daten laden
- ORC-Daten laden
- Parquet-Daten laden
- Daten aus Datastore-Exporten laden
- Daten aus Firestore-Exporten laden
Weitere Informationen zum Laden von Daten aus einer lokalen Quelle mit dem Befehl bq load
finden Sie unter:
bq ls
Verwenden Sie den Befehl bq ls
, um Objekte in einer Sammlung aufzulisten.
Zusammenfassung
bq ls [FLAGS] [RESOURCE]
Beispiel
bq ls myDataset
Flags und Argumente
Der Befehl bq ls
verwendet die folgenden Flags und Argumente:
--all={true|false}
oder-a={true|false}
- Wenn alle Ergebnisse angezeigt werden sollen, legen Sie
true
fest. Zeigt Jobs von allen Nutzern oder allen Datasets an, auch ausgeblendete Nutzer und Datasets. Dieses Flag wird nicht benötigt, wenn Übertragungskonfigurationen oder Übertragungsausführungen aufgelistet werden. Der Standardwert istfalse
. --capacity_commitment={true|false}
Legen Sie zum Auflisten der Kapazitätszusicherungen den Wert
true
fest und geben Sie den Standort mit dem Flag--location
an. Weitere Informationen finden Sie unter Erworbene Zusicherungen ansehen.Beispiel:
bq ls --capacity_commitment=true --location='us'
--datasets={true|false}
oder-d={true|false}
Zum Auflisten von Datasets setzen Sie das Feld auf
true
. Der Standardwert istfalse
.--filter="FILTER"
Die aufgeführten Ressourcen werden nach dem
FILTER
-Argument gefiltert.Bei Datasets besteht
FILTER
aus einem oder mehreren durch Leerzeichen getrennten Trips im Formatlabels.KEY:VALUE
. Wenn mehr als ein Tripel angegeben wird, gibt der Befehl nur Datasets zurück, die mit allen Tripeln übereinstimmen (d. h., der Befehl verwendet den logischen OperatorAND
, nichtOR
). Wenn Sie mehr als ein Tripel angeben möchten, dann setzen Sie den WertFILTER
in Anführungszeichen.Verwenden Sie zum Filtern basierend auf Dataset-Labels die Schlüssel und Werte, die Sie auf Ihre Datasets angewendet haben.
Beispiel:
--filter "labels.department:marketing labels.team:sales"
Verwenden Sie
dataSourceIds
als Schlüssel und eine der folgenden Datenquellen als Wert, um nach Übertragungskonfigurationen zu filtern:
amazon_s3
– Amazon S3-Datenübertragungazure_blob_storage
– Azure Blob Storage-Datenübertragungdcm_dt
– Campaign Manager-Datenübertragunggoogle_cloud_storage
– Cloud Storage-Datenübertragungcross_region_copy
– Dataset-Kopiedfp_dt
- Google Ad Manager-Datenübertragungadwords
– Google Ads-Datenübertragunggoogle_ads
– Google Ads-Datenübertragung (Vorschau)merchant_center
– Google Merchant Center-Datenübertragungplay
– Google Play-Datenübertragungscheduled_query
– Datenübertragung geplanter Abfragendoubleclick_search
– Search Ads 360-Datenübertragungyoutube_channel
– YouTube-Kanal-Datenübertragungyoutube_content_owner
– Datenübertragung für YouTube-Rechteinhaberredshift
– Amazon Redshift-Migrationon_premises
– Teradata-Migration
Beispiel:
--filter labels.dataSourceIds:dcm_dt
Verwenden Sie für Übertragungsausführungen die states
als Schlüssel und einen der folgenden Übertragungsstatus als Wert:
+SUCCEEDED
+FAILED
+PENDING
+RUNNING
+CANCELLED
For example:
<pre>
--filter labels.states:FAILED
</pre>
Für Jobs wird das Filter-Flag nicht unterstützt.
--jobs={true|false}
oder-j={true|false}
- Wenn Sie Jobs auflisten möchten, legen Sie dieses Flag auf
true
fest. Der Standardwert istfalse
. Es gilt standardmäßig ein Limit von 100.000 Ergebnissen. --max_creation_time=MAX_CREATION_TIME_MS
- Eine Ganzzahl, die einen Unix-Epochenzeitstempel in Millisekunden darstellt.
Bei Angabe mit dem Flag
--jobs
listet dieses Flag nur die Jobs auf, die vor dem Zeitstempel erstellt wurden. --max_results=MAX_RESULTS or -n=MAX_RESULTS
- Eine Ganzzahl, die die maximale Anzahl von Ergebnissen angibt. Der Standardwert ist 50 und der Höchstwert 1.000. Wenn Sie mehr als 1.000 Jobs haben, können Sie das Flag
page_token
verwenden, um alle Jobs mit Paginierung aufzulisten. - --
min_creation_time=MIN_CREATION_TIME_MS
- Eine Ganzzahl, die einen UNIX-Zeitstempel in Millisekunden darstellt. Bei Angabe mit dem Flag
--jobs
listet dieses Flag nur die Jobs auf, die nach dem Zeitstempel erstellt wurden. --message_type=messageTypes:MESSAGE_TYPE
Um nur Logmeldungen für Übertragungsjobs eines bestimmten Typs aufzulisten, geben Sie
messageTypes:MESSAGE_TYPE
an. Folgende Werte sind möglich:INFO
WARNING
ERROR
--models={true|false}
oder-m={true|false}
Legen Sie
true
fest, um BigQuery ML-Modelle aufzulisten. Der Standardwert istfalse
.--page_token=TOKEN
oder-k=TOKEN
Listet Elemente ab dem angegebenen Seitentoken auf.
--projects={true|false}
oder-p={true|false}
Legen Sie
true
fest, um alle Projekte anzeigen zu lassen. Der Standardwert istfalse
.--reservation={true|false}
Um alle Reservierungen für ein bestimmtes Projekt und einen bestimmten Standort aufzulisten, setzen Sie den Wert
true
. Der Standardwert istfalse
. Verwenden Sie ihn mit den Flags--project_id
und--location
.Beispiel:
bq ls --reservation=true --project_id=myProject --location=us
--reservation_assignment={true|false}
Legen Sie
true
fest, um alle Reservierungszuweisungen für ein bestimmtes Projekt und einen Standort aufzulisten. Der Standardwert istfalse
. Wird mit den Flags--project_id
und--location
verwendet.--routines={true|false}
Legen Sie
true
fest, um alle Abläufe im angegebenen Dataset aufzulisten. Der Standardwert istfalse
. Zu den Abläufen gehören nichtflüchtige benutzerdefinierte Funktionen, Tabellenfunktionen (Vorschau) und gespeicherte Prozeduren.--row_access_policies
Listet alle Zugriffsrichtlinien auf Zeilenebene für eine Tabelle auf. Zugriffsrichtlinien auf Zeilenebene werden für die Sicherheit auf Zeilenebene verwendet. Sie müssen den Tabellennamen im Format
dataset.table
angeben.--run_attempt=RUN_ATTEMPT
Wird mit dem Flag
--transfer_run
verwendet. Legen SieRUN_ATTEMPT_UNSPECIFIED
fest, um alle Ausführungsversuche für die angegebene Übertragungsausführung aufzulisten. Legen SieLATEST
fest, um nur den letzten Ausführungsversuch aufzulisten. Der Standardwert istLATEST
.--transfer_config={true|false}
Legen Sie
true
fest, um Übertragungskonfigurationen im angegebenen Projekt und am angegebenen Standort aufzulisten. Wird mit den Flags--transfer_location
und--project_id
verwendet. Der Standardwert istfalse
.--transfer_location=LOCATION
Listet Übertragungskonfigurationen am angegebenen Standort auf. Sie legen den Übertragungsort bei der Erstellung der Übertragung fest.
--transfer_log={true|false}
Wird mit dem Flag
--transfer_run
verwendet. Legen Sietrue
fest, um Übertragungslogmeldungen für die angegebene Übertragungsausführung aufzulisten. Der Standardwert istfalse
.--transfer_run={true|false}
Listet die Übertragungsausführungen für die angegebene Übertragungskonfiguration auf.
Beispiel:
bq ls --transfer_run=true projects/myProject/locations/us/transferConfigs/12345
RESOURCE
Die Sammlung, deren Objekte Sie auflisten möchten. Die Ressource kann ein Dataset, ein Projekt, eine Reservierung oder eine Übertragungskonfiguration sein.
Weitere Informationen zur Verwendung des Befehls bq ls
finden Sie hier:
- Jobs verwalten
- Datasets in einem Projekt auflisten
- Tabellen erstellen und verwenden
- Ansichten in einem Dataset auflisten
- Mit Übertragungen arbeiten
- Tabellen-Snapshots in einem Dataset auflisten
bq mk
Verwenden Sie den Befehl bq mk
, um eine BigQuery-Ressource zu erstellen.
Zusammenfassung
bq mk TYPE_FLAG [OTHER FLAGS] [ARGS]
Flags und Argumente
Der Befehl bq mk
verwendet ein Typ-Flag, das den Typ der zu erstellenden Ressource angibt, sowie andere Flags, die vom Ressourcentyp abhängen.
TYPE_FLAG
: Legen Sie eines der folgenden Flags auf true
fest.
Ihre Auswahl gibt den Ressourcentyp an, der erstellt werden soll.
--capacity_commitment
: Erwerben Sie eine Kapazitätszusicherung.--connection
: Verbindung herstellen.--dataset
oder-d
: Erstellen Sie ein Dataset.--materialized_view
: Erstellen Sie eine materialisierte Ansicht.--reservation
: Erstellen Sie eine Reservierung.--reservation_assignment
: Ordnen Sie einer Reservierung einen Ordner, ein Projekt oder eine Organisation zu.--table
oder-t
: Erstellen Sie eine Tabelle.--transfer_config
: Erstellen Sie eine Übertragungskonfiguration.--transfer_run
: Erstellen Sie eine Übertragungsausführung für einen Zeitraum.--view
: Erstellen Sie eine Ansicht.
Der Befehl bq mk
unterstützt das folgende Flag für alle Ressourcentypen:
--force={true|false}
oder-f={true|false}
- Um Fehler zu ignorieren, wenn eine Ressource mit demselben Namen bereits vorhanden ist, legen Sie
true
fest. Wenn die Ressource bereits vorhanden ist, ist der Exit-Code 0, aber das Festlegen des Flags auftrue
bewirkt nicht, dass der Befehlbq mk
die Ressource überschreibt. Der Standardwert istfalse
.
Der Befehl bq mk
unterstützt je nach erstelltem Ressourcentyp zusätzliche Flags. Dies wird in den folgenden Abschnitten beschrieben.
bq mk --capacity_commitment
Zum Erwerben einer Kapazitätszusicherung setzen Sie --capacity_commitment
auf true
und verwenden die folgenden Flags:
--location=LOCATION
- Gibt den Standort der Zusicherung an.
--plan=PLAN_TYPE
Gibt den Typ des Zusicherungsplans an Dies muss einer der folgenden Werte sein:
ANNUAL
THREE_YEAR
Kunden, die alte Pauschalpreise verwenden, können auch einen der folgenden Werte verwenden:
FLEX
MONTHLY
ANNUAL
--renewal_plan=RENEWAL_TYPE
Gibt den Typ des Verlängerungsplans an. Erforderlich für Zusicherungspläne vom Typ
ANNUAL
oderTHREE_YEAR
. Muss einer der folgenden Werte sein:ANNUAL
THREE_YEAR
NONE
Kunden, die die bisherigen Pauschalpreise nutzen, können auch einen der folgenden Werte verwenden:
FLEX
MONTHLY
ANNUAL
--project_id=PROJECT_ID
Gibt das Projekt an, das die Slots verwaltet.
--slots=NUMBER_OF_BASELINE_SLOTS
Gibt die Anzahl der Referenzslots an, die gekauft werden sollen.
--edition=EDITION
Die mit der Kapazitätszusicherung verknüpfte Version. Dies muss einer der folgenden Datentypen sein:
ENTERPRISE
ENTERPRISE_PLUS
Weitere Informationen finden Sie unter Slots erwerben.
bq mk --connection
Erstellt eine Verbindung. Die folgenden Flags werden unterstützt:
--connection_type=CONNECTION_TYPE
- Der Typ der Verbindung, z. B.
CLOUD_SQL
für Cloud SQL-Verbindungen. --properties=PROPERTIES
Verbindungsspezifische Parameter im JSON-Format.
instanceId
,database
undtype
müssen angegeben werden.Fügen Sie die Paare
"useParallelism":true
und"useDataBoost":true
hinzu, wenn Sie eine Spanner-Verbindung erstellen und Data Boost verwenden möchten.--connection_credential=CONNECTION_CREDENTIAL
Die Anmeldedaten der Verbindung im JSON-Format.
username
undpassword
müssen angegeben werden.--project_id=PROJECT_ID
Gibt die ID des Projekts an, zu dem die Verbindung gehört.
--location=LOCATION
Gibt den Standort an, an dem die Verbindung gespeichert wird.
--display_name=DISPLAY_NAME
Gibt einen optionalen Anzeigenamen für die Verbindung an.
--description=DESCRIPTION
Gibt eine optionale Beschreibung der Verbindung an.
--iam_role_id=ROLE_ID
Gibt für BigQuery Omni auf AWS eine IAM-Rolle an, die den Zugriff auf die Ressource ermöglicht.
Verwenden Sie das folgende Format:
"arn:aws:iam::AWS_ACCOUNT_ID:role/POLICY_NAME"
, wobei:- AWS_ACCOUNT_ID ist die ID-Nummer des AWS IAM-Nutzers der Verbindung.
- POLICY_NAME ist der Name der Richtlinie.
Beispiel:
"arn:aws:iam::0123456789AB:policy/s3-read-role"
--tenant_id=TENANT_ID
Gibt für BigQuery Omni in Azure die Mandanten-ID des Azure-Verzeichnisses an, das das Azure Storage-Konto enthält.
CONNECTION_ID
Gibt eine optionale Verbindungs-ID für die Verbindung an. Wenn keine Verbindungs-ID angegeben wird, wird automatisch eine eindeutige ID generiert. Die Verbindungs-ID kann Buchstaben, Ziffern und Unterstriche enthalten.
Weitere Informationen finden Sie unter Verbindungen erstellen.
bq mk --dataset
Erstellt ein Dataset. Die folgenden Flags werden unterstützt:
--add_tags=TAGS
- Gibt die Tags an, die Sie durch Kommas getrennt an den neuen Datensatz anhängen. Beispiel:
556741164180/env:prod,myProject/department:sales
. Jedes Tag muss den Parameter Kurzname des Namespace-Schlüssels und des Namespace haben. --default_kms_key=KEY
- Gibt die standardmäßige Cloud KMS-Schlüsselressourcen-ID zum Verschlüsseln der Tabellendaten in einem Dataset an, wenn während der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration=SECONDS
- Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert.
Wenn dieses Attribut festgelegt ist, überschreibt dessen Wert die Ablaufzeit der Standardtabelle auf Dataset-Ebene, falls vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag
--time_partitioning_expiration
angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene. --default_table_expiration=SECONDS
- Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset angibt. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert.
--description=DESCRIPTION
- Gibt die Beschreibung des Datasets an.
--external_source=EXTERNAL_SOURCE
- Gibt die externe Datenquelle an, wenn Sie einen föderierten Datensatz erstellen.
--label=KEY:VALUE
- Gibt ein Label für das Dataset an. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--location=LOCATION
oder--data_location=LOCATION
- Gibt den Speicherort des Datasets an. Ziehen Sie das Flag
--location
vor. Das Flag--data_location
ist ein Legacy-Flag. --max_time_travel_hours=HOURS
- Gibt die Dauer des Zeitreisefensters für das neue Dataset in Stunden an. Der Wert
--max_time_travel_hours
muss eine Ganzzahl sein, die als Vielfaches von 24 (48, 72, 96, 120, 144, 168) zwischen 48 (2 Tage) und 168 (7 Tage) ausgedrückt wird. Wenn dieses Flag nicht angegeben ist, wird als Standardeinstellung 168 Stunden verwendet. --storage_billing_model=BILLING_MODEL
Gibt das Speicherabrechnungsmodell für ein Dataset an. Legen Sie den Wert
--storage_billing_model
aufPHYSICAL
fest, um physische Bytes bei der Berechnung der Speichergebühren zu verwenden, oder aufLOGICAL
, um logische Byte zu verwenden. Standardmäßig istLOGICAL
ausgewählt.Wenn Sie das Abrechnungsmodell eines Datasets ändern, dauert es 24 Stunden, bis die Änderung wirksam wird.
Nachdem Sie das Speicherabrechnungsmodell eines Datasets geändert haben, müssen Sie 14 Tage warten, bevor Sie das Speicherabrechnungsmodell wieder ändern können.
Weitere Informationen finden Sie unter Datasets erstellen.
bq mk --materialized_view
Erstellt eine materialisierte Ansicht. Die folgenden Flags werden unterstützt:
--enable_refresh={true|false}
- Wenn Sie die automatische Aktualisierung für eine materialisierte Ansicht deaktivieren möchten, legen Sie
false
fest. Der Standardwert beim Erstellen einer materialisierten Ansicht isttrue
. --refresh_interval_ms=MILLISECONDS
- Gibt die Anzahl der Millisekunden für das Aktualisierungsintervall einer materialisierten Ansicht an. Wenn dieses Flag nicht angegeben ist, beträgt das Standardaktualisierungsintervall für eine materialisierte Ansicht, für die die Aktualisierung aktiviert ist, 1.800.000 Millisekunden, also 30 Minuten.
Weitere Informationen finden Sie unter Materialisierte Ansichten erstellen und verwenden.
bq mk --reservation
Erstellt eine Reservierung mit dedizierten Slots. Die folgenden Flags werden unterstützt:
--target_job_concurrency=CONCURRENCY
- Gibt die Zielanzahl der gleichzeitig ausgeführten Abfragen an. Der Standardwert ist 0, was bedeutet, dass die Gleichzeitigkeit automatisch anhand der Reservierungsgröße berechnet wird. Weitere Informationen finden Sie unter Abfragewarteschlangen verwenden.
--ignore_idle_slots={true|false}
- Wenn Sie Jobs, die in dieser Reservierung ausgeführt werden, auf Slots beschränken möchten, die der Reservierung zugewiesen sind, legen Sie
true
fest. Der Standardwert istfalse
. Jobs in dieser Reservierung können inaktive Slots aus anderen Reservierungen oder Slots verwenden, die keiner Reservierung zugewiesen sind. Weitere Informationen finden Sie unter Inaktive Slots. --location=LOCATION
- Gibt den Standort der Reservierung an.
--project_id=PROJECT_ID
- Gibt das Projekt an, zu dem die Reservierung gehört.
--slots=NUMBER_OF_BASELINE_SLOTS
- Gibt die Anzahl der Referenzslots an, die dieser Reservierung zugewiesen werden sollen.
--edition=EDITION
- Die mit der Kapazitätszusicherung verknüpfte Version. Muss einer der folgenden Datentypen sein:
STANDARD
ENTERPRISE
ENTERPRISE_PLUS
--autoscale_max_slots=NUMBER_OF_AUTOSCALING_SLOTS
- die Anzahl der Autoscaling-Slots, die der Reservierung zugewiesen sind. Dieser Wert entspricht dem Wert der maximalen Reservierungsgröße abzüglich der Anzahl der Referenzslots. Nur mit dem Flag
--edition
verfügbar.
Weitere Informationen finden Sie unter Reservierung mit dedizierten Slots erstellen.
bq mk --reservation_assignment
Weist einer Reservierung ein Projekt, einen Ordner oder eine Organisation zu. Die folgenden Flags werden unterstützt:
--assignee_id=ASSIGNEE_ID
- Gibt die ID des Ordners, der Organisation oder des Projekts an.
--assignee_type=ASSIGNEE_TYPE
- Gibt den Entitätstyp an, der der Reservierung zugewiesen werden soll. Einer der folgenden:
FOLDER
ORGANIZATION
PROJECT
--job_type=JOB_TYPE
- GIbt die Art des Jobs, der der Reservierung zugewiesen werden soll. Einer der folgenden:
QUERY
PIPELINE
ML_EXTERNAL
BACKGROUND
--location=LOCATION
- Gibt den Standort der Reservierung an.
--project_id=PROJECT_ID
- Gibt das Projekt an, zu dem die Reservierung gehört.
--reservation_id=RESERVATION_ID
- Gibt die ID der Reservierung an.
Weitere Informationen finden Sie unter Mit Reservierungszuweisungen arbeiten.
bq mk --table
Erstellt eine Tabelle. Die folgenden Flags werden unterstützt:
--add_tags=TAGS
- Gibt die Tags an, die Sie durch Kommas getrennt an die neue Tabelle anhängen. Beispiel:
556741164180/env:prod,myProject/department:sales
. Jedes Tag muss den Parameter Kurzname des Namespace-Schlüssels und des Namespace haben. --clustering_fields=COLUMNS
- Eine durch Kommas getrennte Liste mit bis zu vier Spaltennamen, die die Felder für das Tabellen-Clustering angeben. Bei der Partitionierung wird die Tabelle zuerst partitioniert und dann werden die Partitionen anhand der bereitgestellten Spalten geclustert.
--description=DESCRIPTION
- Gibt die Beschreibung der Tabelle an.
--destination_kms_key=KEY
- Gibt eine Schlüsselressourcen-ID für Cloud KMS zum Verschlüsseln der Zieltabellendaten an.
--expiration=SECONDS
- Gibt die Lebensdauer der Tabelle an. Wenn Sie das Flag
--expiration
nicht angeben, erstellt BigQuery die Tabelle mit der Standardlebensdauer des Datasets für Tabellen oder die Tabelle läuft nicht ab. --external_table_definition=STRING
Gibt eine Tabellendefinition zum Erstellen einer externen Tabelle an.
Für externe Cloud Storage- und Google Drive-Tabellen:
-
--external_table_definition={PATH_TO_FILE|DEFINITION}
- Der Wert kann ein Pfad zu einer Datei mit einer Tabellendefinitionsdatei (
PATH_TO_FILE
) oder einer Inline-Tabellendefinition (DEFINITION
) sein.
- Das Format für das Feld
DEFINITION
lautetSCHEMA@FORMAT=URI
. Das Format für den Wert
SCHEMA
ist eine durch Kommas getrennte Liste von Spaltendefinitionen im FormatFIELD:DATA_TYPE, FIELD:DATA_TYPE
usw. Sie können den WertSCHEMA
weglassen, wenn das Datenformat selbstbeschreibend ist (z. B. Avro) oder wenn Sie die automatische Schemaerkennung verwenden.Der Wert
FORMAT
gibt das Datenformat an. Beispiele:AVRO
CSV
DATASTORE_BACKUP
(diesen Wert für Filestore verwenden)ICEBERG
NEWLINE_DELIMITED_JSON
ORC
PARQUET
Wenn Sie eine Tabellendefinitionsdatei angeben, verwenden Sie keine Endung.
Beispiel:
--external_table_definition=/tmp/tabledef
--external_table_definition=Region:STRING,Quarter:STRING,Total_sales:INTEGER@CSV=gs://mybucket/sales.csv
Für Bigtable-externe Tabellen und BigLake-Tabellen, die auf AWS und Azure basieren:
--external_table_definition=PATH_TO_FILE
- Der Wert muss ein Pfad zu einer Datei mit einer Tabellendefinition sein.
Für BigLake-Tabellen, die auf Cloud Storage basieren:
--external_table_definition=FORMAT=BUCKET_PATH@REGION.CONNECTION_NAME
:Der Wert
FORMAT
gibt das Datenformat an. Beispiele:AVRO
CSV
NEWLINE_DELIMITED_JSON
ICEBERG
ORC
PARQUET
BUCKET_PATH
ist der Pfad zu einer oder mehreren Dateien in Cloud Storage, die die BigLake-Tabellendaten enthalten. Sie könnenBUCKET_PATH
in folgenden Formaten angeben:- Für eine einzelne Datei:
gs://bucket_name/[folder_name/]file_name
. - Für mehrere Dateien in einem einzelnen Bucket:
gs://bucket_name/[folder_name/]*
. Für mehrere Dateien in mehreren Buckets:
gs://mybucket1/*,gs://mybucket2/folder5/*
.Mit Platzhaltern können Sie die in der BigLake-Tabelle enthaltenen Dateien einschränken. Beispiel: Wenn der Bucket mehrere Datentypen enthält, können Sie bestimmen, dass die Tabelle nur PARQUET-Dateien verwenden soll. Geben Sie dazu
gs://bucket_name/*.parquet
an. Weitere Informationen zur Verwendung von Platzhaltern finden Sie unter URI-Platzhalter.
- Für eine einzelne Datei:
Der
REGION
-Wert gibt die Region oder Multiregion an, die die Verbindung enthält.Der
CONNECTION_NAME
-Wert gibt den Namen der Cloud-Ressourcenverbindung an, die mit dieser externen Tabelle verwendet werden soll. Die Verbindung bestimmt, welches Dienstkonto zum Lesen von Daten aus Cloud Storage verwendet wird.
Für Objekttabellen:
--external_table_definition=BUCKET_PATH@REGION.CONNECTION_NAME
:BUCKET_PATH
ist der Pfad zu dem Cloud Storage-Bucket, das die durch die Objekttabelle dargestellten Objekte im Formatgs://bucket_name/[folder_name/]*
enthält. Um mehrere Buckets anzugeben, stellen Sie mehrere Pfade bereit, z. B.gs://mybucket1/*,gs://mybucket2/folder5/*
.Mit Platzhaltern können Sie die in der Objekttabelle enthaltenen Objekte einschränken. Beispiel: Wenn der Bucket mehrere Arter unstrukturierten Daten enthält, können Sie bestimmen, dass für die Erstellung der Objekttabelle nur PDF-Objekte genutzt werden. Dazu geben Sie
gs://bucket_name/*.pdf
an. Weitere Informationen zur Verwendung von Platzhaltern finden Sie unter URI-Platzhalter.Der
REGION
-Wert gibt die Region oder Multiregion an, die die Verbindung enthält.Der
CONNECTION_NAME
-Wert gibt den Namen der Cloud-Ressourcenverbindung an, die mit dieser externen Tabelle verwendet werden soll. Die Verbindung bestimmt, welches Dienstkonto zum Lesen von Daten aus Cloud Storage verwendet wird.
-
--file_set_spec_type=FILE_SET_SPEC_TYPE
Gibt an, wie Quell-URIs interpretiert werden.
FILE_SYSTEM_MATCH
: Maximiert die Quell-URIs, indem Dateien aus dem Objektspeicher aufgelistet werden. Dies ist das Standardverhalten, wenn FileSetSpecType nicht festgelegt ist.NEW_LINE_DELIMITED_MANIFEST
: Gibt an, dass die angegebenen URIs Manifestdateien mit Zeilenumbruch mit einem URI pro Zeile sind. Platzhalter-URIs werden in den Manifestdateien nicht unterstützt und alle referenzierten Datendateien müssen sich im selben Bucket wie das Manifest befinden.
Wenn Sie beispielsweise den Quell-URI
"gs://bucket/path/file"
haben undfile_set_spec_type
den WertFILE_SYSTEM_MATCH
hat, wird die Datei direkt als Datendatei verwendet. Wennfile_set_spec_type
den WertNEW_LINE_DELIMITED_MANIFEST
hat, wird jede Zeile in der Datei als URI interpretiert, der auf eine Datendatei verweist.--reference_file_schema_uri=URI
Gibt den Pfad zu einer Referenzdatei mit dem erwarteten Tabellenschema zum Erstellen externer Tabellen an. Entspricht
ExternalDataConfiguration.referenceFileSchemaUri
. Dieses Flag ist für Avro-, ORC- und PARQUET-Formate aktiviert.--label=KEY:VALUE
Gibt ein Label für die Tabelle an. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--max_staleness=INTERVAL
Gibt an, ob im Cache gespeicherte Metadaten von Vorgängen für die Tabelle verwendet werden und wie aktuell die im Cache gespeicherten Metadaten sein müssen, damit der Vorgang sie verwenden kann.
Gilt für BigLake-Tabellen und Objekttabellen.
Geben Sie 0 an, um das Caching von Metadaten zu deaktivieren. Das ist die Standardeinstellung.
Geben Sie zum Aktivieren des Metadaten-Cachings einen Intervallwert zwischen 30 Minuten und 7 Tagen unter Verwendung des in der
INTERVAL
-Datentypdokumentation beschriebenen FormatsY-M D H:M:S
. Beispiel: Geben Sie0-0 0 4:0:0
für ein Veralterungsintervall von vier Stunden an. Mit diesem Wert verwenden Vorgänge im Zusammenhang mit der Tabelle im Cache gespeicherte Metadaten, wenn sie innerhalb der letzten vier Stunden aktualisiert wurden. Sind die im Cache gespeicherten Metadaten älter, werden für den Vorgang stattdessen Metadaten aus Cloud Storage abgerufen.--object_metadata=STRING
Legen Sie den Wert dieser Option beim Erstellen einer Objekttabelle auf
SIMPLE
fest.Nur erforderlich, wenn Sie eine Objekttabelle erstellen.
--range_partitioning=COLUMN_NAME,START,END,INTERVAL
Gibt Optionen für eine Partition nach Ganzzahlbereich so an:
column_name
ist die Spalte, die zum Erstellen der Partitionen nach Ganzzahlbereich verwendet wird.start
ist der Anfang der Bereichspartitionierung (einschließlich).end
ist das Ende der Bereichspartitionierung (ausschließlich).interval
ist die Breite des jeweiligen Bereichs in der Partition.
Beispiel:
--range_partitioning=customer_id,0,10000,100
--require_partition_filter={true|false}
Wenn Sie einen Partitionsfilter für Abfragen in der bereitgestellten Tabelle anfordern möchten, legen Sie
true
fest. Es gilt nur für partitionierte Tabellen. Der Standardwert istfalse
.--schema={SCHEMA_FILE|SCHEMA
}Gibt entweder den Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE, FIELD:DATA_TYPE
usw. an. Wenn Sie eine Schemadatei verwenden, sollten Sie der Datei keine Erweiterung hinzufügen.Beispiele:
--schema=/tmp/tabledef
--schema=Region:STRING,Quarter:STRING,Total_sales:INTEGER
--time_partitioning_expiration=SECONDS
Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field=COLUMN_NAME
Gibt das Feld an, mit dem festgelegt wird, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type=INTERVAL
Aktiviert die zeitbasierte Partitionierung für eine Tabelle und legt den Partitionstyp fest. Verwenden Sie einen der folgenden Werte:
DAY
HOUR
MONTH
YEAR
--use_avro_logical_types={true|false}
Wenn der Teil
FORMAT
des Flags--external_table_definition
aufAVRO
gesetzt ist, gibt dieses Flag an, ob logische Typen konvertiert werden sollen. in ihre entsprechenden Typen (z. B.TIMESTAMP
) umwandeln, anstatt nur deren Rohtypen zu verwenden (z. B.INTEGER
).--parquet_enable_list_inference={true|false}
Wenn der
FORMAT
-Teil des--external_table_definition
-Flags aufPARQUET
festgelegt ist, gibt dieses Flag an, obSchemainferenz für Parquet-LIST
logische Typen verwendet werden sollen.--parquet_enum_as_string={true|false}
Wenn der Teil
FORMAT
des--external_table_definition
-Flags aufPARQUET
gesetzt ist, gibt dieses Flag an, ob Parquet fürENUM
logische Typen alsSTRING
-Werte abgeleitet werden soll.
Weitere Informationen finden Sie unter Tabellen erstellen und verwenden.
bq mk --transfer_config
Erstellt eine Übertragungskonfiguration. Die folgenden Flags werden unterstützt:
--data_source=DATA_SOURCE
- Gibt die Datenquelle an. Erforderlich beim Erstellen einer Übertragungskonfiguration. Verwenden Sie einen der folgenden Werte:
amazon_s3
– Amazon S3-Datenübertragungazure_blob_storage
– Azure Blob Storage-Datenübertragungdcm_dt
– Campaign Manager-Datenübertragunggoogle_cloud_storage
– Cloud Storage-Datenübertragungcross_region_copy
– Dataset-Kopiedfp_dt
- Google Ad Manager-Datenübertragungadwords
– Google Ads-Datenübertragunggoogle_ads
– Google Ads-Datenübertragung (Vorschau)merchant_center
– Google Merchant Center-Datenübertragungplay
– Google Play-Datenübertragungscheduled_query
– Datenübertragung geplanter Abfragendoubleclick_search
– Search Ads 360-Datenübertragungyoutube_channel
– YouTube-Kanal-Datenübertragungyoutube_content_owner
– Datenübertragung für YouTube-Rechteinhaberredshift
– Amazon Redshift-Migrationon_premises
– Teradata-Migration
--display_name=DISPLAY_NAME
- Der Anzeigename für die Übertragungskonfiguration.
--no_auto_scheduling={true|false}
- Deaktiviert das automatische Planen von Datenübertragungsausführungen für diese Konfiguration.
Der Standardwert ist
false
. --params={"PARAMETER":"VALUE"}
oder-p={"PARAMETER":"VALUE"}
- Gibt die Parameter für die Übertragungskonfiguration im JSON-Format an. Die Parameter variieren je nach Datenquelle.
--refresh_window_days=DAYS
- Eine Ganzzahl, die das Aktualisierungsfenster für eine Übertragungskonfiguration in Tagen angibt. Der Standardwert ist
0
. --service_account_name=SERVICE_ACCOUNT
- Gibt ein Dienstkonto an, das als Anmeldedaten für die Übertragungskonfiguration verwendet werden soll.
--target_dataset=DATASET
- Gibt das Ziel-Dataset für die Übertragungskonfiguration an.
--table_filter=TABLES
- Wird nur mit der Datenquelle
google_ads
verwendet. Der ParameterTABLES
ist eine durch Kommas getrennte Liste von Tabellen, die in die Übertragung einbezogen werden sollen. Wenn Sie eine Tabelle ausschließen möchten, stellen Sie ihr einen Bindestrich (-
) voran. Der Standardwert umfasst alle Tabellen in der Übertragung.
Informationen zum Verwenden des Befehls bq mk
mit BigQuery Data Transfer Service finden Sie unter:
- Amazon S3-Übertragung einrichten
- Campaign Manager-Übertragung einrichten
- Cloud Storage-Übertragung einrichten
- Google Ad Manager-Übertragung einrichten
- Google Ads-Übertragung einrichten
- Google Merchant Center-Übertragung einrichten (Beta)
- Google Play-Übertragung einrichten
- Search Ads 360-Übertragung einrichten (Beta)
- YouTube-Kanalübertragung einrichten
- Übertragung für einen YouTube-Rechteinhaber einrichten
- Daten von Amazon Redshift migrieren
- Daten aus Teradata migrieren
bq mk --transfer_run
Erstellt mithilfe der angegebenen Datenübertragungskonfiguration die Ausführung einer Datenübertragung zum festgelegten Zeitpunkt oder in dem angegebenen Zeitraum.
Zusammenfassung
bq mk --transfer_run [--run_time=RUN_TIME | --start_time=START_TIME --end_time=END_TIME] CONFIG
Die folgenden Flags werden unterstützt:
--run_time=RUN_TIME
- Ein Zeitstempel, der den Zeitpunkt für die Datenübertragungsausführung angibt.
--start_time=START_TIME
- Ein Zeitstempel, der die Startzeit für eine Reihe von Übertragungsausführungen angibt.
--end_time=END_TIME
- Ein Zeitstempel, der die Endzeit für eine Reihe von Datenübertragungsausführungen angibt.
Das Format für den Zeitstempel ist RFC3339 UTC „Zulu“.
Das Argument CONFIG
gibt eine bereits bestehende Datenübertragungskonfiguration an.
Beispiele
bq mk --transfer_run \ --run_time=2021-01-20T17:00:00.00Z \ projects/p/locations/l/transferConfigs/c
bq mk --transfer_run \ --start_time=2020-12-19T16:39:57-08:00 \ --end_time=2020-12-19T20:39:57-08:00 \ projects/p/locations/l/transferConfigs/c
bq mk --view
Erstellt eine Ansicht. Die folgenden Flags werden unterstützt:
--add_tags=TAGS
- Gibt die Tags an, die Sie durch Kommas getrennt an die neue Ansicht anhängen. Beispiel:
556741164180/env:prod,myProject/department:sales
. Jedes Tag muss den Parameter Kurzname des Namespace-Schlüssels und des Namespace haben. --description=DESCRIPTION
- Gibt die Beschreibung der Ansicht an.
--expiration=SECONDS
- Gibt die Lebensdauer der Ansicht an. Wenn
SECONDS
den Wert0
hat, läuft die Ansicht nicht ab. Wenn Sie das Flag--expiration
nicht angeben, erstellt BigQuery die Ansicht mit der Standardlebensdauer des Datasets für Tabellen. --label=KEY:VALUE
- Gibt ein Label für die Ansicht an. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--use_legacy_sql={true|false}
- Legen Sie
false
fest, um eine Google SQL-Abfrage zum Erstellen einer Ansicht zu verwenden. Der Standardwert isttrue
; verwendet Legacy-SQL. --view_udf_resource=FILE
- Gibt den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei an, die sofort als benutzerdefinierte Funktionsressource geladen und ausgewertet und dann von der SQL-Abfrage einer Ansicht verwendet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.
Weitere Informationen finden Sie unter Ansichten erstellen.
bq mkdef
Verwenden Sie den Befehl bq mkdef
, um eine Tabellendefinition im JSON-Format für Daten zu erstellen, die in Cloud Storage oder Google Drive gespeichert sind.
Zusammenfassung
bq mkdef [FLAGS] URI [ > FILE ]
Flags und Argumente
Der Befehl bq mkdef
verwendet die folgenden Flags und Argumente:
--autodetect={true|false}
- Gibt an, ob die automatische Schemaerkennung für CSV- und JSON-Daten verwendet werden soll. Der Standardwert ist
false
. --connection_id=CONNECTION_ID
- Die ID einer Verbindungsressource, die für die Authentifizierung verwendet werden soll.
--hive_partitioning_mode
Gibt an, wie das Partitionierungsschema bestimmt wird, wenn BigQuery Daten liest. Die folgenden Modi werden unterstützt:
AUTO
: Namen und Typen von Partitionierungsschlüsseln automatisch ableiten.STRINGS
: Namen von Partitionierungsschlüsseln automatisch ableiten. Alle Typen werden als Strings behandelt.CUSTOM
: Geben Sie das Partitionierungsschema im Quell-URI-Präfix an.
Der Standardwert ist
AUTO
.--hive_partitioning_source_uri_prefix
Gibt das gemeinsame Präfix für die Quell-URIs an. Der gemeinsame Präfixwert ist der Teil des URI, der unmittelbar vor der Codierung des Partitionierungsschlüssels steht. Wenn Sie
CUSTOM
für den Modus angegeben haben, müssen Sie außerdem das Partitionierungsschema identifizieren.Nehmen wir als Beispiel Dateien mit der folgenden Struktur:
gs://bucket/path_to_table/dt=2019-06-01/country=USA/id=7/file.avro
gs://bucket/path_to_table/dt=2019-05-31/country=CA/id=3/file.avro
Wenn Sie den
AUTO
- oderSTRINGS
-Modus verwenden, sind die folgenden Werte akzeptabel:gs://bucket/path_to_table
gs://bucket/path_to_table/
Im
CUSTOM
-Modus sind die folgenden Werte zulässig:gs://bucket/path_to_table/{dt:DATE}/{country:STRING}/{id:INTEGER}
gs://bucket/path_to_table/{dt:STRING}/{country:STRING}/{id:INTEGER}
gs://bucket/path_to_table/{dt:DATE}/{country:STRING}/{id:STRING}
Weitere Informationen zur Verwendung des Befehls bq mkdef
finden Sie unter Tabellendefinitionsdatei für eine externe Datenquelle erstellen.
--ignore_unknown_values={true|false}
oder-i={true|false}
- Gibt an, ob Werte in einer Zeile ignoriert werden sollen, die im Schema nicht vorhanden sind. Der Standardwert ist
false
. --metadata_cache_mode=STRING
Gibt an, ob der Metadaten-Cache für die Tabelle automatisch oder manuell aktualisiert wird.
Legen Sie
AUTOMATIC
fest, damit der Metadaten-Cache in einem systemdefinierten Intervall aktualisiert wird, normalerweise zwischen 30 und 60 Minuten.Legen Sie
MANUAL
fest, wenn Sie den Metadaten-Cache nach einem von Ihnen bestimmten Zeitplan aktualisieren möchten. In diesem Fall können Sie den SystemvorgangBQ.REFRESH_EXTERNAL_METADATA_CACHE
aufrufen, um den Cache zu aktualisieren.Sie müssen das Flag
--metadata_cache_mode
festlegen, wenn Sie das Flag--max_staleness
mit dem Befehlbq mk
festlegen.--parquet_enable_list_inference={true|false}
Wenn
source_format
aufPARQUET
gesetzt ist, gibt dieses Flag an, ob Schemainferenz für logische Typen von Parquet-LIST
verwendet werden sollen. Der Standardwert istfalse
.--parquet_enum_as_string={true|false}
Wenn
source_format
aufPARQUET
gesetzt ist, gibt dieses Flag an, ob die logischen Typen von Parquet-ENUM
alsSTRING
-Werte abgeleitet werden sollen. Der Standardwert istfalse
.--file_set_spec_type=FILE_SET_SPEC_TYPE
Gibt an, wie Quell-URIs interpretiert werden.
FILE_SYSTEM_MATCH
: Maximiert die Quell-URIs, indem Dateien aus dem Objektspeicher aufgelistet werden. Dies ist das Standardverhalten, wenn FileSetSpecType nicht festgelegt ist.NEW_LINE_DELIMITED_MANIFEST
: Gibt an, dass die angegebenen URIs Manifestdateien mit Zeilenumbruch mit einem URI pro Zeile sind. Platzhalter-URIs werden in den Manifestdateien nicht unterstützt und alle referenzierten Datendateien müssen sich im selben Bucket wie das Manifest befinden.
Wenn Sie beispielsweise den Quell-URI
"gs://bucket/path/file"
haben undfile_set_spec_type
den WertFILE_SYSTEM_MATCH
hat, wird die Datei direkt als Datendatei verwendet. Wennfile_set_spec_type
den WertNEW_LINE_DELIMITED_MANIFEST
hat, wird jede Zeile in der Datei als URI interpretiert, der auf eine Datendatei verweist.--source_format=FORMAT
Gibt das Format der Quelldaten an. Verwenden Sie einen der folgenden Werte:
AVRO
CSV
DATASTORE_BACKUP
(diesen Wert für Filestore verwenden)GOOGLE_SHEETS
NEWLINE_DELIMITED_JSON
ORC
PARQUET
Der Standardwert ist
CSV
.--use_avro_logical_types={true|false}
Wenn das Flag
--source_format
aufAVRO
gesetzt ist, gibt dieses Flag an, ob logische Typen in die entsprechenden Typen konvertiert werden sollen, z. B.TIMESTAMP
, anstatt nur deren Rohtypen (z. B.INTEGER
) zu verwenden. Der Standardwert istfalse
.
bq partition
Verwenden Sie den Befehl bq partition
, um eine Gruppe von Tabellen mit Zeit-Einheit-Suffixen, z. B. Tabellen, die auf YYYYMMDD
für die Datumspartitionierung enden, in partitionierte Tabellen umzuwandeln.
Zusammenfassung
bq partition [FLAGS] SOURCE_TABLE_BASE_NAME PARTITION_TABLE
Flags und Argumente
Der Befehl bq partition
verwendet die folgenden Flags und Argumente:
--no_clobber={true|false}
oder-n={true|false}
- Wenn Sie das Überschreiben einer vorhandenen Partition verhindern möchten, legen Sie
true
fest. Der Standardwert istfalse
. Wenn die Partition vorhanden ist, wird sie überschrieben. --time_partitioning_expiration=SECONDS
- Eine Ganzzahl, die (in Sekunden) angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_type=INTERVAL
Gibt den Partitionstyp an. Die folgende Tabelle enthält die möglichen Werte für das Flag
INTERVAL
und das erwartete Format für das Zeit-Einheit-Suffix:INTERVAL
Suffix HOUR
YYYYMMDDHH
DAY
YYYYMMDD
MONTH
YYYYMM
YEAR
YYYY
SOURCE_TABLE_BASE_NAME
Der Basisname der Tabellengruppe mit Zeit-Einheit-Suffixen.
PARTITION_TABLE
Der Name der partitionierten Zieltabelle.
Weitere Informationen zur Verwendung des Befehls bq partition
finden Sie unter Datumsfragmentierte Tabellen in nach Aufnahmezeit partitionierte Tabellen konvertieren.
bq query
Verwenden Sie den Befehl bq query
, um einen Abfragejob zu erstellen, der die angegebene SQL-Abfrage ausführt.
Zusammenfassung
bq query [FLAGS] 'QUERY'
Flags und Argumente
Der Befehl bq query
verwendet die folgenden Flags und Argumente:
--allow_large_results={true|false}
- Wenn Sie große Zieltabellengrößen für Legacy-SQL-Abfragen aktivieren möchten, legen Sie
true
fest. Der Standardwert istfalse
. --append_table={true|false}
- Wenn Sie Daten an eine Zieltabelle anfügen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --batch={true|false}
- Wenn Sie die Abfrage im Batchmodus ausführen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --clustering_fields=COLUMNS
- Eine durch Kommas getrennte Liste mit bis zu vier Spaltennamen, die die Felder zum Clustern der Zieltabelle in einer Abfrage angibt. Bei der Partitionierung wird die Tabelle zuerst partitioniert und dann werden die Partitionen anhand der bereitgestellten Spalten geclustert.
--connection_property=KEY:VALUE
Ein Schlüssel/Wert-Paar, mit dem Sie Attribute auf Verbindungsebene angeben können, um das Abfrageverhalten anzupassen. Definieren Sie dieses Flag wiederholt, um weitere Attribute anzugeben.
Folgende Verbindungseigenschaften werden unterstützt:
dataset_project_id
: steht für das Standardprojekt für Datasets, die in der Abfrage verwendet werden, ähnlich der Systemvariable@@dataset_project_id
.query_label
: Verknüpft die Abfrage mit einem bestimmten Joblabel. Wenn diese Option festgelegt ist, haben alle nachfolgenden Abfragen in einem Skript oder einer Sitzung dieses Label. Weitere Informationen zu den Anforderungen an die Formatierung von Abfragelabels finden Sie im Feldlabels
in der RessourceJobConfiguration
.service_account
: Gibt ein Dienstkonto an, das zum Ausführen der Abfrage verwendet werden soll. Beispiel:--connection_property=service_account=myserviceaccount@project.iam.gserviceaccount.com
.session_id
: ordnet die Abfrage einer bestimmten Sitzung zu.time_zone
: Die Standardzeitzone, die für die Ausführung der Abfrage verwendet werden soll.
--continuous={true|false}
Wenn Sie eine kontinuierliche Abfrage (Vorabversion) ausführen möchten, legen Sie
true
fest. Der Standardwert istfalse
.--destination_kms_key=KEY
Gibt eine Cloud KMS-Schlüsselressourcen-ID an, um die Zieltabellendaten zu verschlüsseln.
--destination_schema={PATH_TO_FILE|SCHEMA}
Der Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennten Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE, FIELD:DATA_TYPE
.Schemaänderungen erfolgen in einem anderen Vorgang als der Abfrageausführung. Wenn Sie Abfrageergebnisse mit dem Flag
--destination_table
in eine Tabelle schreiben und die Abfrage anschließend eine Ausnahme auslöst, werden alle Schemaänderungen möglicherweise übersprungen. Prüfen Sie in diesem Fall das Zieltabellenschema und aktualisieren Sie es manuell, falls erforderlich.--destination_table=TABLE
Wenn dieses Flag angegeben ist, werden die Abfrageergebnisse unter
TABLE
gespeichert. Geben SieTABLE
im folgenden Format an:PROJECT
:DATASET
.TABLE
. WennPROJECT
nicht angegeben ist, wird vom aktuellen Projekt ausgegangen. Wenn das Flag--destination_table
nicht angegeben ist, werden die Abfrageergebnisse in einer temporären Tabelle gespeichert.Beispiele:
--destination_table myProject:myDataset.myTable
--destination_table myDataset.myTable
--dry_run={true|false}
Wenn dieses Flag angegeben ist, wird die Abfrage überprüft, aber nicht ausgeführt.
--external_table_definition={TABLE::PATH_TO_FILE|TABLE::DEFINITION}
Gibt den Tabellennamen und die Tabellendefinition für eine externe Tabellenabfrage an. Die Tabellendefinition kann ein Pfad zu einer lokalen JSON-Schemadatei oder eine Inline-Tabellendefinition sein. Das Format für die Bereitstellung der Inline-Tabellendefinition lautet
SCHEMA@SOURCE_FORMAT=CLOUD_STORAGE_URI
. Das Format für den WertSCHEMA
ist eine durch Kommas getrennte Liste von Spaltendefinitionen im FormatFIELD:DATA_TYPE, FIELD:DATA_TYPE
usw. Wenn Sie eine Tabellendefinitionsdatei verwenden, verwenden Sie keine Endung.Beispiel:
--external_table_definition=myTable::/tmp/tabledef
--external_table_definition=myTable::Region:STRING,Quarter:STRING,Total_sales:INTEGER@CSV=gs://mybucket/sales.csv
Wiederholen Sie dieses Flag, um mehrere Tabellen abzufragen.
--flatten_results={true|false}
Wenn verschachtelte und wiederkehrender Felder in den Ergebnissen von Abfragen in Legacy-SQL nicht vereinfacht werden sollen, legen Sie
false
fest. Der Standardwert isttrue
.--label=KEY:VALUE
Gibt ein Label für den Abfragejob an. Wiederholen Sie dieses Flag, um mehrere Labels anzugeben.
--max_rows=MAX_ROWS
oder-n=MAX_ROWS
Eine Ganzzahl, die die Anzahl der Zeilen angibt, die in den Abfrageergebnissen zurückgegeben werden sollen. Der Standardwert ist
100
.--maximum_bytes_billed=MAX_BYTES
Eine Ganzzahl, die die für die Abfrage berechneten Byte begrenzt. Abfragen, die dieses Limit überschreiten, schlagen fehl, ohne dass eine Gebühr anfällt. Wenn dieses Flag nicht angegeben ist, wird die Menge der berechneten Byte auf den Standardwert des Projekts eingestellt.
--max_statement_results=VALUE
Eine Ganzzahl, die die maximale Anzahl von Scriptanweisungen angibt, die für die Abfrageergebnisse angezeigt werden. Der Standardwert ist
100
.--min_completion_ratio=RATIO
[Experimentell] Eine Zahl zwischen 0 und 1, die den Mindestanteil der Daten angibt, die gescannt werden müssen, bevor eine Abfrage zurückgegeben wird. Wenn das Flag nicht angegeben ist, wird der Standardserverwert
1.0
verwendet.--parameter={PATH_TO_FILE|PARAMETER}
Entweder eine JSON-Datei mit einer Liste von Abfrageparametern oder ein Abfrageparameter im Format
NAME:TYPE:VALUE
. Bei fehlender Namensangabe wird ein Positionsparameter erstellt. WennTYPE
weggelassen wird, wird der TypSTRING
angenommen.NULL
gibt einen Nullwert an. Wiederholen Sie dieses Flag, um mehrere Parameter anzugeben.Beispiel:
--parameter=/tmp/queryParams
--parameter=Name::Oscar
--parameter=Count:INTEGER:42
--range_partitioning=COLUMN_NAME,START,END,INTERVAL
Wird mit dem Flag
--destination_table
verwendet. Gibt Optionen für die Partitionierung nach Ganzzahlbereich in der Zieltabelle an. Der Wert ist eine durch Kommas getrennte Liste im Formatcolumn_name,start,end,interval
, wobeicolumn_name
ist die Spalte, die zum Erstellen der Partitionen nach Ganzzahlbereich verwendet wird.start
ist der Anfang der Bereichspartitionierung (einschließlich).end
ist das Ende der Bereichspartitionierung (ausschließlich).interval
ist die Breite des jeweiligen Bereichs in der Partition.
Beispiel:
--range_partitioning=customer_id,0,10000,100
--replace={true|false}
Legen Sie
true
fest, um die Zieltabelle mit den Abfrageergebnissen zu überschreiben. Alle vorhandenen Daten und Schemas werden gelöscht. Cloud KMS-Schlüssel werden ebenfalls entfernt, wenn Sie nicht das Flag--destination_kms_key
angeben. Der Standardwert istfalse
.--require_cache={true|false}
Wenn dieses Flag angegeben ist, wird die Abfrage nur ausgeführt, wenn Ergebnisse aus dem Cache abgerufen werden können.
--require_partition_filter={true|false}
Wenn dieses Flag angegeben wird, ist für Abfragen der bereitgestellten Tabelle ein Partitionsfilter erforderlich. Es kann nur für eine partitionierte Tabelle verwendet werden.
--rpc={true|false}
Wenn Sie die Abfrage-API im RPC-Format anstelle der REST API-Methode
jobs.insert
verwenden möchten, legen Sietrue
fest. Der Standardwert istfalse
.--schedule="SCHEDULE"
Macht aus einer Abfrage eine wiederkehrende geplante Abfrage. Hierfür ist ein Zeitplan erforderlich, der angibt, wie häufig die Abfrage ausgeführt werden soll.
Beispiele:
--schedule="every 24 hours"
--schedule="every 3 hours"
Eine Beschreibung der Zeitplansyntax finden Sie unter Zeitplan formatieren.
--schema_update_option=OPTION
Gibt beim Anfügen von Daten an eine Tabelle (in einem Ladejob oder einem Abfragejob) oder beim Überschreiben einer Tabellenpartition an, wie das Schema der Zieltabelle aktualisiert wird. Verwenden Sie einen der folgenden Werte:
ALLOW_FIELD_ADDITION
: Ermöglicht das Einfügen neuer Felder zur Schemadefinition.ALLOW_FIELD_RELAXATION
: Ermöglicht das Ändern vonREQUIRED
-Feldern inNULLABLE
.
Wiederholen Sie dieses Flag, um mehrere Optionen für die Schemaaktualisierung anzugeben.
--start_row=ROW_NUMBER
oder-s=ROW_NUMBER
Eine Ganzzahl, die die erste Zeile angibt, die im Abfrageergebnis zurückgegeben werden soll. Der Standardwert ist
0
.--target_dataset=DATASET
Bei Angabe dieses Flags mit
--schedule
wird das Ziel-Dataset für eine geplante Abfrage aktualisiert. Die Abfrage muss in DDL oder DML vorliegen.--time_partitioning_expiration=SECONDS
Wird mit dem Flag
--destination_table
verwendet. Eine Ganzzahl, die in Sekunden angibt, wann eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.--time_partitioning_field=COLUMN_NAME
Wird mit dem Flag
--destination_table
verwendet. Gibt die Partitionierungsspalte für eine zeitbasierte Partitionierung an. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Aufnahmezeit partitioniert.--time_partitioning_type=INTERVAL
Wird mit dem Flag
--destination_table
verwendet. Gibt den Partitionstyp für die Zieltabelle an. Verwenden Sie einen der folgenden Werte:DAY
HOUR
MONTH
YEAR
--udf_resource=FILE
Dieses Flag gilt nur für Legacy-SQL-Abfragen. Gibt den Cloud Storage-URI oder den Pfad zu einer lokalen Datei an, die eine benutzerdefinierte Funktionsressource enthält, die von einer Legacy-SQL-Abfrage verwendet werden muss. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.
--use_cache={true|false}
Wenn Sie das Caching von Abfrageergebnissen nicht zulassen möchten, legen Sie
false
fest. Der Standardwert isttrue
.--use_legacy_sql={true|false}
Zum Ausführen einer GoogleSQL-Abfrage legen Sie
false
fest. Der Standardwert isttrue
. Der Befehl verwendet Legacy-SQL.--job_timeout_ms={string (Int64Value)}
Gibt die maximale Zeit für die Ausführung einer Abfrage in Millisekunden an. Wenn dieses Zeitlimit überschritten wird, versucht BigQuery, den Job zu beenden.
QUERY
Die Abfrage, die Sie ausführen möchten. Sie können die Abfrage mit einer der folgenden Methoden angeben:
Geben Sie einen String an, der die Abfrage enthält.
Wenn Sie innerhalb der Abfrage zusätzliche Stringliterale verwenden müssen, folgen Sie den Anführungszeichen für die verwendete Shell, z. B. Bash oder PowerShell.
Das folgende Beispiel zeigt einen typischen Ansatz in Bash, bei dem doppelte Anführungszeichen zur Bezeichnung der Stringliterale in der Abfrage verwendet werden und die Abfrage dann selbst in einfache Anführungszeichen eingeschlossen wird:
'SELECT * FROM mydataset.mytable WHERE column1 = "value";'
Wenn Sie die Abfrage von einem anderen Speicherort kopieren, müssen Sie auch alle Kommentare in der Abfrage entfernen.
Übergeben Sie ein SQL-Skript, das die Abfrage enthält. Das folgende Beispiel zeigt, wie Sie ein SQL-Skript in der Bash-Shell übergeben:
bq query --use_legacy_sql=false < query.sql
Weitere Informationen zur Verwendung des Befehls bq query
finden Sie unter Abfrage ausführen.
bq remove-iam-policy-binding
Rufen Sie mit dem Befehl bq remove-iam-policy-binding
die IAM-Richtlinie für eine Ressource ab und entfernen Sie eine Bindung aus der Richtlinie, in einem Schritt.
Die Ressource kann eine Tabelle oder eine Ansicht sein.
Dieser Befehl ist eine Alternative zum folgenden dreistufigen Prozess:
- Mit dem Befehl
bq get-iam-policy
die Richtliniendatei abrufen (im JSON-Format). - Richtliniendatei bearbeiten.
- Die Richtlinie mit dem Befehl
bq set-iam-policy
ohne die Bindung aktualisieren.
Zusammenfassung
bq remove-iam-policy-binding FLAGS --member=MEMBER_TYPE:MEMBER --role=ROLE RESOURCE
Flags und Argumente
Der Befehl bq remove-iam-policy-binding
verwendet die folgenden Flags und Argumente:
--member=MEMBER_TYPE:MEMBER
Erforderlich. Verwenden Sie das Flag
--member
, um den Mitgliedsteil der IAM-Richtlinienbindung anzugeben. Das Flag--member
ist zusammen mit dem Flag--role
erforderlich. Eine Kombination aus--member
- und--role
-Flags entspricht einer Bindung.Der Wert
MEMBER_TYPE
gibt den Typ des Mitglieds in der IAM-Richtlinienbindung an. Verwenden Sie einen der folgenden Werte:user
serviceAccount
group
domain
Der Wert
MEMBER
gibt die E-Mail-Adresse oder Domain des Mitglieds in der IAM-Richtlinienbindung an.--role=ROLE
Erforderlich. Gibt den Rollenteil der IAM-Richtlinienbindung an. Das Flag
--role
ist zusammen mit dem Flag--member
erforderlich. Eine Kombination aus--member
- und--role
-Flags entspricht einer Bindung.--table={true|false}
oder-t={true|false}
Optional. Wenn Sie eine Bindung aus der IAM-Richtlinie einer Tabelle oder Ansicht entfernen möchten, legen Sie
true
fest. Der Standardwert istfalse
.
RESOURCE
ist die Tabelle oder Ansicht, deren Richtlinienbindung Sie entfernen möchten.
Weitere Informationen finden Sie in der IAM-Richtlinienreferenz.
bq rm
Verwenden Sie den Befehl bq rm
, um eine BigQuery-Ressource zu löschen.
Zusammenfassung
bq rm [FLAGS] RESOURCE
Flags und Argumente
Der Befehl bq rm
verwendet die folgenden Flags und Argumente:
--capacity_commitment={false|true}
- Wenn Sie eine Kapazitätszusicherung löschen möchten, legen Sie
true
fest, geben Sie mit dem Flag--location
den Standort der Zusicherung an, die Sie entfernen möchten, und ersetzen SieRESOURCE
durch die ID der Zusicherung, die Sie entfernen möchten. --dataset={true|false}
oder-d={true|false}
- Wenn Sie ein Dataset löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --force={true|false}
oder-f={true|false}
- Wenn Sie eine Ressource ohne Eingabeaufforderung löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --job={true|false}
oder-j={true|false}
- Wenn Sie einen Job löschen möchten, setzen Sie den Wert auf "true". Der Standardwert ist "false".
--model={true|false}
oder-m={true|false}
- Wenn Sie ein BigQuery ML-Modell löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --recursive={true|false}
oder-r{true|false}
- Wenn Sie ein Dataset und alle darin enthaltenen Tabellen, Tabellendaten oder Modelle löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --reservation={true|false}
- Wenn Sie eine Reservierung löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --reservation_assignment={true|false}
- Wenn Sie eine Reservierungszuweisung löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --routine={true|false}
- Wenn Sie einen Ablauf löschen möchten, setzen Sie auf
true
. Der Standardwert istfalse
. Ein Ablauf kann eine persistente benutzerdefinierte Funktion, eine Tabellenfunktion (Vorschau) oder ein gespeichertes Verfahren sein. --table={true|false}
oder-t={true|false}
- Wenn Sie eine Tabelle oder Ansicht löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --transfer_config={true|false}
- Wenn Sie eine Übertragungskonfiguration löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. RESOURCE
- Die Ressource, die Sie entfernen möchten.
Weitere Informationen zur Verwendung des Befehls bq rm
finden Sie hier:
- Datasets verwalten
- Jobs verwalten
- Tabellen verwalten
- Ansichten verwalten
- Mit Übertragungen arbeiten
- Tabellen-Snapshots löschen
bq set-iam-policy
Verwenden Sie den Befehl bq set-iam-policy
, um die IAM-Richtlinie für eine Ressource anzugeben oder zu aktualisieren. Die Ressource kann eine Tabelle oder eine Ansicht sein.
Nach dem Festlegen der Richtlinie wird die neue Richtlinie in stdout
ausgegeben. Die Richtlinie hat das JSON-Format.
Das Feld etag
in der aktualisierten Richtlinie muss mit dem Wert etag
der aktuellen Richtlinie übereinstimmen. Andernfalls schlägt die Aktualisierung fehl. Diese Funktion verhindert gleichzeitige Aktualisierungen.
Sie können die aktuelle Richtlinie und den etag
-Wert für eine Ressource mit dem Befehl bq get-iam-policy
abrufen.
Zusammenfassung
bq set-iam-policy [FLAGS] RESOURCE FILE_NAME
Flags und Argumente
Der Befehl bq set-iam-policy
verwendet die folgenden Flags und Argumente.
--table={true|false}
oder-t={true|false}
- Optional. Wenn Sie die IAM-Richtlinie einer Tabelle oder Ansicht festlegen möchten, legen Sie
true
fest. Der Standardwert istfalse
.
RESOURCE ist die Tabelle oder Ansicht, deren Richtlinie Sie aktualisieren möchten.
FILE_NAME ist der Name einer Datei, die die Richtlinie im JSON-Format enthält.
Weitere Informationen zum bq set-iam-policy
-Befehl finden Sie unter Zugriff auf Ressourcen mit IAM steuern.
bq show
Verwenden Sie den Befehl bq show
, um Informationen zu einer Ressource aufzurufen.
Zusammenfassung
bq show [FLAGS] [RESOURCE]
Flags und Argumente
Der Befehl bq show
verwendet die folgenden Flags und Argumente:
--assignee_id=ASSIGNEE
- Gibt bei Verwendung mit dem Flag
--reservation_assignment
die ID eines Ordners, einer Organisation oder eines Projekts an. Mit dem Flag--assignee_type
geben Sie an, welche Art von Zuständigen angezeigt werden soll. --assignee_type=TYPE
- Gibt bei Verwendung mit dem Flag
--reservation_assignment
den Typ der abzurufenden Entität an. Verwenden Sie einen der folgenden Werte:FOLDER
ORGANIZATION
PROJECT
--connection={true|false}
- Legen Sie
true
fest, um Informationen zu einer Verbindung anzeigen zu lassen. Der Standardwert istfalse
. Weitere Informationen finden Sie unter Verbindungsressource abrufen. --dataset={true|false}
oder-d={true|false}
- Legen Sie
true
fest, um Informationen zu einer Reservierung abzurufen. Der Standardwert istfalse
. --encryption_service_account={true|false}
- Um das Verschlüsselungsdienstkonto für ein Projekt abzurufen, falls vorhanden, oder ein Dienstkonto zu erstellen, falls nicht vorhanden, legen Sie
true
fest. Der Standardwert istfalse
. Wird mit dem Flag--project_id
verwendet. --job={true|false}
oder-j={true|false}
- Um Informationen zu einem Job aufzurufen, legen Sie
true
fest. Der Standardwert istfalse
. --job_type=JOB_TYPE
- Gibt bei Verwendung mit dem Flag
--reservation_assignment
den Jobtyp der Reservierungszuweisungen an, die angezeigt werden sollen. Verwenden Sie einen der folgenden Werte:QUERY
PIPELINE
ML_EXTERNAL
--model={true|false}
oder-m={true|false}
- Legen Sie
true
fest, um Informationen zu einem BigQuery ML-Modell abzurufen. Der Standardwert istfalse
. --reservation={true|false}
- Legen Sie
true
fest, um Informationen zu einer Reservierung abzurufen. Der Standardwert istfalse
. --reservation_assignment={true|false}
- Wenn dieser Wert auf
true
gesetzt ist, zeigt der Befehl Reservierungszuweisungen für einen bestimmten Ordner, eine bestimmte Organisation oder ein bestimmtes Projekt an. Der Befehl zeigt gegebenenfalls die expliziten Zuweisungen der Zielressource an. Andernfalls werden Zuweisungen angezeigt, die von den übergeordneten Ressourcen übernommen wurden. Ein Projekt kann beispielsweise Zuweisungen vom übergeordneten Ordner übernehmen. Wenn Sie dieses Flag verwenden, werden die Flags--job_type
,--assignee_type
und--assignee_id
angewendet. Der Standardwert istfalse
. --routine={true|false}
- Legen Sie
true
fest, um Informationen zu einem Ablauf anzeigen zu lassen. Der Standardwert istfalse
. Ein Ablauf kann eine persistente benutzerdefinierte Funktion, eine Tabellenfunktion (Vorschau) oder ein gespeichertes Verfahren sein. --schema={true|false}
- Wenn Sie nur das Schema der Tabelle anzeigen lassen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --transfer_config={true|false}
- Legen Sie
true
fest, um Informationen zu einer Übertragungsausführung aufzurufen. Der Standardwert istfalse
. --transfer_run={true|false}
- Legen Sie
true
fest, um Informationen zu einer Übertragungsausführung aufzurufen. Der Standardwert istfalse
. --view={true|false}
- Legen Sie
true
fest, um Informationen zu einer Ansicht aufzurufen. Der Standardwert istfalse
. RESOURCE
- Die Ressource, deren Informationen Sie aufrufen möchten.
Weitere Informationen zur Verwendung des Befehls bq show
finden Sie hier:
- Informationen zu Datasets abrufen
- Tabellen erstellen und verwenden
- Informationen zu Ansichten abrufen
- Mit Übertragungen arbeiten
- Jobs verwalten
- Informationen zu einem Tabellen-Snapshot abrufen
bq update
Verwenden Sie den Befehl bq update
, um eine Ressource zu ändern.
Zusammenfassung
bq update [FLAGS] [RESOURCE]
Flags und Argumente
Der Befehl bq update
verwendet die folgenden Flags und Argumente:
--add_tags=TAGS
- Nur für Datasets und Tabellen verfügbar. Gibt die Tags an, die Sie an die Ressource anhängen, getrennt durch Kommas. Beispiel:
556741164180/env:prod,myProject/department:sales
. Jedes Tag muss den Parameter Kurzname des Namespace-Schlüssels und des Namespace haben. --autoscale_max_slots=NUMBER_OF_AUTOSCALING_SLOTS
- die Anzahl der Autoscaling-Slots, die der Reservierung zugewiesen sind. Dieser Wert entspricht dem Wert der maximalen Reservierungsgröße abzüglich der Anzahl der Referenzslots. Nur mit dem Flag
--reservation
verfügbar und wenn die Reservierung mit einer Version erstellt wurde. --capacity_commitment={true|false}
- Zum Aktualisieren einer Kapazitätszusicherung legen Sie
true
fest. Verwenden Sie dieses Flag mit den Flags--merge
,--plan
,--renewal_plan
,--split
und--slots
. --clear_all_tags={true|false}
- Nur für Datasets und Tabellen verfügbar. Wenn Sie alle Tags aus einer Ressource löschen möchten, legen Sie
true
fest. Der Standardwert istfalse
. --clear_label=KEY:VALUE
- Entfernt ein Label aus der Ressource. Verwenden Sie das Format
KEY:VALUE
, um das zu entfernende Label anzugeben. Verwenden Sie dieses Flag wiederholt, um mehrere Labels zu entfernen. --clustering_fields=COLUMNS
- Aktualisiert die Clustering-Spezifikation einer Tabelle. Der Wert COLUMNS ist eine durch Kommas getrennte Liste von Spaltennamen, die für das Clustering verwendet werden. Zum Entfernen des Clusterings legen Sie für COLUMNS den Wert
""
(leerer String) fest. Weitere Informationen finden Sie unter Clustering-Spezifikation ändern. --target_job_concurrency=CONCURRENCY
- Gibt bei Verwendung mit dem Flag
--reservation
die Zielanzahl der Abfragen an, die gleichzeitig ausgeführt werden. Der Standardwert ist 0, was bedeutet, dass die Gleichzeitigkeit automatisch anhand der Reservierungsgröße festgelegt wird. Weitere Informationen finden Sie unter Abfragewarteschlangen verwenden. --dataset={true|false}
oder-d={true|false}
- Wenn Sie ein Dataset aktualisieren möchten, legen Sie
true
fest. Der Standardwert istfalse
. --default_kms_key=KEY
- Gibt die standardmäßige Cloud KMS-Schlüsselressourcen-ID zum Verschlüsseln von Tabellendaten in einem Dataset an. Der Standardschlüssel wird verwendet, wenn bei der Tabellenerstellung oder -abfrage kein expliziter Schlüssel angegeben wird.
--default_partition_expiration=SECONDS
Eine Ganzzahl, die die Standardablaufzeit in Sekunden für alle Partitionen in neu erstellten partitionierten Tabellen im Dataset angibt. Für dieses Flag gilt kein Mindestwert.
Die Ablaufzeit einer Partition entspricht dem UTC-Datum der Partition plus dem ganzzahligen Wert. Wenn dieses Attribut festgelegt ist, wird der Ablauf der Standardtabelle auf Dataset-Ebene überschrieben, sofern vorhanden. Wenn Sie beim Erstellen oder Aktualisieren einer partitionierten Tabelle das Flag
--time_partitioning_expiration
angeben, hat der Ablauf der Partition auf Tabellenebene Vorrang vor dem Ablaufdatum der Standardpartition auf Dataset-Ebene. Geben Sie0
an, um einen vorhandenen Ablauf zu entfernen.--default_table_expiration=SECONDS
Eine Ganzzahl, die die Standardlebensdauer in Sekunden für neu erstellte Tabellen in einem Dataset aktualisiert. Die Ablaufzeit entspricht der aktuellen UTC-Zeit plus dem ganzzahligen Wert. Geben Sie
0
an, um den vorhandenen Ablauf zu entfernen.--description=DESCRIPTION
Aktualisiert die Beschreibung eines Datasets, einer Tabelle, eines Tabellen-Snapshots, eines Modells oder einer Ansicht.
--destination_reservation_id=RESERVATION_ID
Bei Verwendung mit dem Flag
--reservation_assignment
wird eine vorhandene Reservierungszuweisung in die angegebene Reservierung verschoben. Der Wert ist die ID der Zielreservierung. Weitere Informationen finden Sie unter Zuweisung in eine andere Reservierung verschieben.--display_name=DISPLAY_NAME
Aktualisiert den Anzeigenamen für eine Übertragungskonfiguration.
--etag=ETAG
Fungiert als Filter. Aktualisiert die Ressource nur, wenn die Ressource über ein ETag verfügt, das mit dem im Argument
ETAG
angegebenen String übereinstimmt.--expiration SECONDS
Wenn Sie die Ablaufzeit für die Tabelle, das Modell, den Tabellen-Snapshot oder die Ansicht aktualisieren möchten, fügen Sie dieses Flag ein. Ersetzen Sie
SECONDS
durch die Anzahl der Sekunden von der Aktualisierungszeit bis zur Ablaufzeit. Wenn Sie die Ablaufzeit für eine Tabelle, ein Modell, einen Tabellen-Snapshot oder eine Ansicht entfernen möchten, setzen Sie das ArgumentSECONDS
auf 0.--external_table_definition={TABLE::PATH_TO_FILE|TABLE::DEFINITION}
Aktualisiert eine externe Tabelle mit der angegebenen Tabellendefinition. Die Tabellendefinition kann ein Pfad zu einer lokalen JSON-Tabellendefinitionsdatei oder eine Inline-Tabellendefinition im Format
SCHEMA@SOURCE_FORMAT=CLOUD_STORAGE_URI
sein. Der WertSCHEMA
ist eine durch Kommas getrennte Liste von Spaltendefinitionen im FormatFIELD:DATA_TYPE, FIELD:DATA_TYPE
. Wenn Sie eine Tabellendefinitionsdatei verwenden, verwenden Sie keine Endung.Beispiel:
--external_table_definition=myTable::/tmp/tabledef
--external_table_definition=myTable::Region:STRING,Quarter:STRING,Total_sales:INTEGER@CSV=gs://mybucket/sales.csv
--ignore_idle_slots={true|false}
Wird mit dem Flag
--reservation
verwendet. Legen Sietrue
fest, wenn Sie die Jobs beschränken möchten, die in der angegebenen Reservierung ausgeführt werden, sodass nur Slots verwendet werden, die dieser Reservierung zugewiesen sind. Der Standardwert istfalse
. Jobs in der angegebenen Reservierung können inaktive Slots aus anderen Reservierungen oder Slots verwenden, die keiner Reservierung zugewiesen sind. Weitere Informationen finden Sie unter Inaktive Slots.--max_time_travel_hours=HOURS
Gibt die Dauer des Zeitreisefensters für das neue Dataset in Stunden an. Der Wert
--max_time_travel_hours
muss eine Ganzzahl sein, die als Vielfaches von 24 (48, 72, 96, 120, 144, 168) zwischen 48 (2 Tagen) und 168 (7 Tage) ausgedrückt wird.--merge={true|false}
Wenn Sie zwei Kapazitätszusicherungen zusammenführen möchten, setzen Sie
--merge
auftrue
. Setzen Sie das Flag--capacity_commitment
auftrue
, geben Sie mit dem Flag--location
den Standort der Zusicherungen an, die Sie zusammenführen möchten, und ersetzen SieRESOURCE
durch die IDs der beiden Zusicherungen, die Sie zusammenführen möchten, durch ein Komma getrennt. Weitere Informationen finden Sie unter Zwei Zusicherungen zusammenführen.--model={true|false}
oder-m={true|false}
Legen Sie
true
fest, um Metadaten für ein BigQuery ML-Modell zu aktualisieren. Der Standardwert istfalse
.--params={"PARAMETER":"VALUE"} or -p={"PARAMETER":"VALUE"}
Aktualisiert Parameter für eine Übertragungskonfiguration. Die Parameter variieren je nach Datenquelle. Weitere Informationen finden Sie in der Einführung in BigQuery Data Transfer Service.
--plan=PLAN
Wenn eine Kapazitätszusicherung mit dem Flag
--capacity_commitment
verwendet wird, wird sie in den angegebenen Zusicherungsplan mit längerer Dauer umgewandelt. Ersetzen SiePLAN
durch einen der folgenden Werte:ANNUAL
THREE_YEAR
--refresh_window_days=DAYS
Eine Ganzzahl, die ein aktualisiertes Aktualisierungsfenster (in Tagen) für eine Übertragungskonfiguration angibt.
--remove_tags=TAG_KEYS
Nur für Datasets und Tabellen verfügbar. Gibt die Tags an, die Sie aus der Ressource entfernen, getrennt durch Kommas. Beispiel:
556741164180/env,myProject/department
. Jeder Tag-Schlüssel muss den Namespace-Schlüsselnamen haben.--renewal_plan=PLAN
Bei Verwendung mit dem Flag
--capacity_commitment
wird der Verlängerungstarif für eine jährliche Kapazitätszusicherung aktualisiert. Ersetzen SiePLAN
durch einen der folgenden Werte:ANNUAL
THREE_YEAR
NONE
Kunden, die die bisherigen Pauschalpreise nutzen, können auch einen der folgenden Werte verwenden:
FLEX
MONTHLY
ANNUAL
--reservation={true|false}
Gibt an, ob eine Reservierung aktualisiert werden soll. Der Standardwert ist
false
.--reservation_assignment={true|false}
Gibt an, ob eine Reservierungszuweisung aktualisiert werden soll. Der Standardwert ist
false
.--schema={SCHEMA_FILE|SCHEMA
}Gibt entweder den Pfad zu einer lokalen JSON-Schemadatei oder eine durch Kommas getrennte Liste von Spaltendefinitionen im Format
FIELD:DATA_TYPE, FIELD:DATA_TYPE
usw. an. Wenn Sie eine Schemadatei verwenden, sollten Sie der Datei keine Erweiterung hinzufügen.Beispiel:
--schema=/tmp/tabledef
--schema=Region:STRING,Quarter:STRING,Total_sales:INTEGER
--service_account_name=SERVICE_ACCOUNT
Gibt ein Dienstkonto an, das als Anmeldedaten für eine Übertragungskonfiguration verwendet werden soll.
--set_label=KEY:VALUE
Gibt das zu aktualisierende Label an. Zum Aktualisieren mehrerer Labels wiederholen Sie dieses Flag.
--slots=NUMBER_OF_BASELINE_SLOTS
Gibt bei Verwendung mit den Flags
--capacity_commitment
und--split
die Anzahl der Referenzslots an, die von einer vorhandenen Kapazitätszusicherung in eine neue Zusicherung aufgeteilt werden sollen. Ersetzen SieRESOURCE
durch die ID der Zusicherung, die Sie aufteilen möchten.Bei Verwendung mit dem Flag
--reservation
wird die Anzahl der Slots in einer Reservierung aktualisiert.--source=FILE
Der Pfad zu einer lokalen JSON-Datei, die eine Nutzlast zum Aktualisieren einer Ressource enthält. Mit diesem Flag können Sie beispielsweise eine JSON-Datei angeben, die eine dataset mit einem aktualisierten
access
-Attribut enthält. Die Datei wird verwendet, um die Zugriffssteuerungen des Datasets zu überschreiben. Die JSON-Datei darf keine Bytereihenfolge-Marke (Byte Order Mark, BOM) enthalten.--split={true|false}
Wenn dieser Wert auf
true
gesetzt und mit dem Flag--capacity_commitment
verwendet wird, geben Sie an, dass Sie eine vorhandene Kapazitätszusicherung aufteilen möchten. Verwenden Sie das Flag--location
, um den Standort der Zusicherung anzugeben, die Sie aufteilen möchten, und das Flag--slots
, um die Anzahl der Slots anzugeben, die Sie aufteilen möchten. Ersetzen SieRESOURCE
durch die ID der Zusicherung, die Sie aufteilen möchten. Weitere Informationen finden Sie unter Zusicherung aufteilen.--storage_billing_model=BILLING_MODEL
Gibt das Speicherabrechnungsmodell für ein Dataset an. Legen Sie den Wert
--storage_billing_model
aufPHYSICAL
fest, um physische Bytes bei der Berechnung der Speichergebühren zu verwenden, oder aufLOGICAL
, um logische Byte zu verwenden.Wenn Sie das Abrechnungsmodell eines Datasets ändern, dauert es 24 Stunden, bis die Änderung wirksam wird.
Nachdem Sie das Speicherabrechnungsmodell eines Datasets geändert haben, müssen Sie 14 Tage warten, bevor Sie das Speicherabrechnungsmodell wieder ändern können.
--table={true|false}
oder-t={true|false}
Gibt an, ob eine Tabelle aktualisiert werden soll. Der Standardwert ist
false
.--target_dataset=DATASET
Aktualisiert das Ziel-Dataset für eine Übertragungskonfiguration.
--time_partitioning_expiration=SECONDS
Eine Ganzzahl, die (in Sekunden) aktualisiert wird, wenn eine zeitbasierte Partition gelöscht werden soll. Die Ablaufzeit ergibt sich aus dem UTC-Datum der Partition plus dem ganzzahligen Wert. Eine negative Zahl bedeutet, dass es keine Ablaufzeit gibt.
--time_partitioning_field=COLUMN_NAME
Aktualisiert das Feld, mit dem festgelegt wird, wie eine zeitbasierte Partition erstellt wird. Bei Aktivierung der zeitbasierten Partitionierung ohne Angabe dieses Werts wird die Tabelle basierend auf der Ladezeit partitioniert.
--time_partitioning_type=INTERVAL
Gibt den Partitionierungstyp an. Verwenden Sie einen der folgenden Werte:
DAY
HOUR
MONTH
YEAR
Sie können den Partitionierungstyp einer vorhandenen Tabelle nicht ändern.
--transfer_config={true|false}
Gibt an, ob eine Übertragungskonfiguration aktualisiert werden soll. Der Standardwert ist
false
.--update_credentials={true|false}
Gibt an, ob die Anmeldedaten für die Übertragungskonfiguration aktualisiert werden sollen. Der Standardwert ist
false
.--use_legacy_sql={true|false}
Legen Sie
false
fest, um die SQL-Abfrage für eine Ansicht von Legacy-SQL auf GoogleSQL zu aktualisieren. Der Standardwert isttrue
. Die Abfrage verwendet Legacy-SQL.--vertex_ai_model_id=VERTEX_AI_MODEL_ID
Wenn angegeben, wird die Modell-ID für ein BigQuery ML-Modell aktualisiert, das in der Vertex AI Model Registry registriert ist.
--view=QUERY
Wenn dieses Flag angegeben ist, wird die SQL-Abfrage für eine Ansicht aktualisiert.
--view_udf_resource=FILE
Aktualisiert den Cloud Storage-URI oder den Pfad zu einer lokalen Codedatei, die sofort als benutzerdefinierte Funktionsressource in die SQL-Abfrage einer Ansicht geladen und dort ausgewertet wird. Wiederholen Sie dieses Flag, um mehrere Dateien anzugeben.
RESOURCE
Die Ressource, die Sie aktualisieren möchten.
Weitere Informationen zur Verwendung des Befehls bq update
finden Sie hier:
- Dataset-Attribute aktualisieren
- Tabellen verwalten
- Ansichten aktualisieren
- Labels aktualisieren
- Mit Übertragungen arbeiten
- Metadaten eines Tabellen-Snapshots aktualisieren
bq version
Verwenden Sie den Befehl bq version
, um die Versionsnummer Ihres bq-Befehlszeilentools aufzurufen.
Zusammenfassung
bq version
bq wait
Verwenden Sie den Befehl bq wait
, um eine angegebene Anzahl von Sekunden darauf zu warten, dass ein Job abgeschlossen wird. Wenn kein Job angegeben ist, wartet der Befehl, bis der aktuelle Job abgeschlossen ist.
Zusammenfassung
bq wait [FLAGS] [JOB] [SECONDS]
Beispiele
bq wait
bq wait --wait_for_status=RUNNING 12345 100
Flags und Argumente
Der Befehl bq wait
verwendet die folgenden Flags und Argumente:
--fail_on_error={true|false}
- Um den Job als erfolgreich zurückzugeben, wenn der Job während der Wartezeit abgeschlossen wurde, auch wenn er fehlgeschlagen ist, legen Sie
false
fest. Der Standardwert isttrue
. Nach Ablauf der Wartezeit wird der Befehl mit einem Fehler beendet, wenn der Job noch ausgeführt wird oder abgeschlossen wurde, aber fehlgeschlagen ist. --wait_for_status=STATUS
Wenn angegeben, wird auf einen bestimmten Jobstatus gewartet, bevor der Vorgang beendet wird. Verwenden Sie einen der folgenden Werte:
PENDING
RUNNING
DONE
Der Standardwert ist
DONE
.JOB
Gibt den Job an, auf den gewartet werden soll. Mit dem Befehl
bq ls --jobs myProject
können Sie nach einer Jobkennung suchen.SECONDS
Gibt die maximale Wartezeit in Sekunden dafür an, dass der Job abgeschlossen wird. Wenn Sie
0
eingeben, fragt der Befehl den Job ab und wird nach dessen Abschluss sofort zurückgegeben. Wenn Sie keinen ganzzahligen Wert angeben, wartet der Befehl, bis der Job abgeschlossen ist.