Auf dieser Seite wird gezeigt, wie Sie Daten aus BigQuery-Tabellen exportieren oder extrahieren.
Nach dem Laden der Daten in BigQuery können Sie die Daten in verschiedene Formate exportieren. BigQuery kann bis zu 1 GB Daten in eine einzige Datei exportieren. Wenn Sie mehr als 1 GB Daten exportieren möchten, müssen Sie dafür mehrere Dateien verwenden. Beim Export in mehrere Dateien variiert die Größe der Dateien.
Anstatt Daten manuell zu exportieren, können Sie auch einen Dienst wie Dataflow verwenden, um Daten aus BigQuery zu lesen. Weitere Informationen dazu, wie Sie Dataflow zum Lesen und Schreiben in BigQuery verwenden, finden Sie in der Apache Beam-Dokumentation unter BigQuery-E/A.
Sie können die Ergebnisse einer Abfrage auch mit der Anweisung EXPORT DATA
exportieren.
Erforderliche Berechtigungen
Zum Exportieren von Daten in Cloud Storage benötigen Sie Berechtigungen für den Zugriff auf die BigQuery-Tabelle mit den Daten, für das Ausführen eines Exportjobs und für das Schreiben der Daten in den Cloud Storage-Bucket.
BigQuery-Berechtigungen
Zum Exportieren von Daten müssen Sie mindestens Berechtigungen vom Typ
bigquery.tables.export
haben. Die folgenden vordefinierten IAM-Rollen enthalten Berechtigungen vom Typbigquery.tables.export
:bigquery.dataViewer
bigquery.dataOwner
bigquery.dataEditor
bigquery.admin
Zum Ausführen eines Exportjobs benötigen Sie Berechtigungen vom Typ
bigquery.jobs.create
. Die folgenden vordefinierten IAM-Rollen enthalten Berechtigungen vom Typbigquery.jobs.create
:bigquery.user
bigquery.jobUser
bigquery.admin
Cloud Storage-Berechtigungen
Zum Schreiben von Daten in einen vorhandenen Cloud Storage-Bucket benötigen Sie die Berechtigungen
storage.objects.create
undstorage.objects.delete
. Die folgenden vordefinierten IAM-Rollen gewähren beide Berechtigungen:storage.objectAdmin
storage.admin
Exportbeschränkungen
Wenn Sie Daten aus BigQuery exportieren, sollten Sie Folgendes beachten:
- Tabellendaten können nicht in eine lokale Datei, nicht in Tabellen und nicht in Drive exportiert werden. Der einzige unterstützte Exportspeicherort ist Cloud Storage. Informationen zum Speichern von Abfrageergebnissen finden Sie unter Abfrageergebnisse herunterladen und speichern.
- Sie können bis zu 1 GB Tabellendaten in eine einzige Datei exportieren. Wenn Sie mehr als 1 GB Daten exportieren, verwenden Sie einen Platzhalter, um die Daten in mehrere Dateien zu exportieren. Wenn Sie Daten in mehrere Dateien exportieren, variiert die Größe der Dateien.
- Verschachtelte und wiederkehrende Daten können nicht im CSV-Format exportiert werden. Verschachtelte und wiederkehrende Daten werden für Avro- und JSON-Exporte unterstützt.
- Beim Exportieren von Daten in das JSON-Format werden INT64-Datentypen (Ganzzahl) als JSON-Strings codiert, um die 64-Bit-Genauigkeit beizubehalten, wenn die Daten von anderen Systemen gelesen werden.
- Daten aus mehreren Tabellen können nicht mit einem einzelnen Exportjob exportiert werden.
- Beim Exportieren von Daten mit der Cloud Console können Sie nur den Komprimierungstyp
GZIP
auswählen.
Überlegungen zum Standort
Bei der Auswahl eines Speicherorts für Ihre Daten sollten Sie Folgendes beachten:
- Platzieren Sie die Cloud Storage-Buckets zum Exportieren von Daten am selben Standort wie das Dataset:
- Wenn Sie Daten exportieren, muss sich der regionale oder multiregionale Cloud Storage-Bucket am selben Standort wie das BigQuery-Dataset befinden. Wenn sich Ihr BigQuery-Dataset zum Beispiel am multiregionalen Standort "EU" befindet, muss sich der Cloud Storage-Bucket mit den Daten, die Sie exportieren, an einem regionalen oder multiregionalen Standort in der EU befinden.
- Wenn sich Ihr Dataset an einem regionalen Standort befindet, muss der Cloud Storage-Bucket ein regionaler Bucket am selben Standort sein. Wenn sich Ihr Dataset zum Beispiel in der Region "Tokio" befindet, muss der Cloud Storage-Bucket ein regionaler Bucket in Tokio sein.
- Ausnahme: Wenn sich Ihr Dataset am multiregionalen Standort "US" befindet, können Sie Daten in einen Cloud Storage-Bucket exportieren, der sich an einem beliebigen regionalen oder multiregionalen Standort befindet.
- Entwickeln Sie einen Plan zur Datenverwaltung:
- Wenn Sie eine regionale Speicherressource wie ein BigQuery-Dataset oder einen Cloud Storage-Bucket auswählen, sollten Sie einen Plan für die geografische Verwaltung Ihrer Daten entwickeln.
Weitere Informationen zu Cloud Storage-Standorten finden Sie unter Bucket-Standorte in der Cloud Storage-Dokumentation.
BigQuery-Daten zwischen Standorten verschieben
Sie können den Standort eines Datasets nach seiner Erstellung nicht mehr ändern, aber Sie können eine Kopie des Datasets erstellen. Ein Dataset lässt sich auch nicht von einem Standort an einen anderen verschieben. Sie haben jedoch die Möglichkeit, ein Dataset manuell zu verschieben, d. h. neu zu erstellen.
Datasets kopieren
Unter Datasets kopieren erfahren Sie, wie Sie ein Dataset kopieren, auch regionenübergreifend.
Dataset verschieben
Wenn Sie ein Dataset manuell von einem Standort an einen anderen verschieben möchten, gehen Sie so vor:
-
Exportieren Sie die Daten aus Ihren BigQuery-Tabellen in einen regionalen oder multiregionalen Cloud Storage-Bucket, der sich am selben Standort wie das Dataset befindet. Wenn sich Ihr Dataset zum Beispiel am multiregionalen Standort "EU" befindet, exportieren Sie Ihre Daten in einen regionalen oder multiregionalen Bucket in der EU.
Beim Exportieren von Daten aus BigQuery fallen keine Gebühren an. Dies ist jedoch anders, wenn Sie die exportierten Daten in Cloud Storage speichern. BigQuery-Exporte unterliegen den Limits für Exportjobs.
-
Kopieren oder verschieben Sie die Daten aus Ihrem Cloud Storage-Bucket in einen regionalen oder multiregionalen Bucket am neuen Standort. Wenn Sie zum Beispiel Ihre Daten vom multiregionalen Standort „US“ an den regionalen Standort „Tokio“ verschieben, werden die Daten in einen regionalen Bucket in Tokio übertragen. Weitere Informationen zum Übertragen von Cloud Storage-Objekten finden Sie in der Cloud Storage-Dokumentation unter Objekte kopieren, umbenennen und verschieben.
Beim Übertragen von Daten zwischen Regionen fallen in Cloud Storage Gebühren für ausgehenden Netzwerktraffic an.
-
Nachdem Sie die Daten in einen Cloud Storage-Bucket am neuen Standort übertragen haben, erstellen Sie dort ein neues BigQuery-Dataset. Laden Sie Ihre Daten dann aus dem Cloud Storage-Bucket in BigQuery.
Beim Laden der Daten in BigQuery fallen keine Kosten an. Das gilt jedoch nicht für das Speichern von Daten in Cloud Storage. Hier werden Gebühren berechnet, bis Sie die Daten oder den Bucket löschen. Es fallen außerdem Kosten an, wenn Sie die Daten in BigQuery speichern, nachdem sie geladen wurden. Das Laden von Daten in BigQuery unterliegt den Limits für Ladejobs.
Sie können auch Cloud Composer verwenden, um große Datasets programmatisch zu verschieben und zu kopieren.
Weitere Informationen zur Verwendung von Cloud Storage zum Speichern und Verschieben großer Datasets finden Sie unter Cloud Storage mit Big Data verwenden.
Exportformate und Komprimierungstypen
BigQuery unterstützt die folgenden Datenformate und Komprimierungstypen für exportierte Daten.
Datenformat | Unterstützte Komprimierungstypen | Details |
---|---|---|
CSV | GZIP | Sie können das CSV-Trennzeichen in Ihren exportierten Daten mit dem Flag Verschachtelte und wiederkehrende Daten werden nicht unterstützt. |
JSON | GZIP | Verschachtelte und wiederkehrende Daten werden unterstützt. |
Avro | DEFLATE, SNAPPY | GZIP wird für Avro-Exporte nicht unterstützt. Verschachtelte und wiederkehrende Daten werden unterstützt. |
In BigQuery gespeicherte Daten exportieren
Sie können Tabellendaten mit den folgenden Methoden exportieren:
- Mit der Cloud Console
- Mit dem Befehl
bq extract
imbq
-Befehlszeilentool - Durch Senden eines
extract
-Jobs über die API oder die Clientbibliotheken
Tabellendaten exportieren
So exportieren Sie Daten aus einer BigQuery-Tabelle:
Console
Öffnen Sie in der Cloud Console die Seite „BigQuery“.
Maximieren Sie im Navigationsbereich im Abschnitt Ressourcen Ihr Projekt und klicken Sie dann zum Maximieren auf Ihr Dataset. Klicken Sie auf die Tabelle mit den Daten, die Sie exportieren möchten.
Klicken Sie auf der rechten Seite des Fensters auf Exportieren und wählen Sie Nach Google Cloud Storage exportieren aus
Gehen Sie im Dialogfeld Nach Google Cloud Storage exportieren folgendermaßen vor:
- Wählen Sie für Google Cloud Storage-Speicherort auswählen den Bucket, Ordner oder die Datei aus, in den bzw. die Sie die Daten exportieren möchten.
- Wählen Sie als Exportformat das Format für die exportierten Daten aus: CSV, JSON (durch Zeilenumbruch getrennt) oder Avro.
- Übernehmen Sie unter Komprimierung den Standardwert
None
oder wählen SieGZIP
aus. Das Avro-Format kann nicht in Verbindung mit der GZIP-Komprimierung verwendet werden. Komprimieren Sie Avro-Daten mit dembq
-Befehlszeilentool oder mit der API und geben Sie dafür einen der unterstützten Komprimierungstypen für Avro-Daten an:DEFLATE
oderSNAPPY
. - Klicken Sie auf Exportieren, um die Tabelle zu exportieren.
Für einen Exportjob können Sie unter Jobverlauf oben in der Navigationsleiste den Status des Jobs prüfen.
bq
Führen Sie den Befehl bq extract
mit dem Flag --destination_format
aus.
Optional: Geben Sie das Flag --location
an und legen Sie als Wert Ihren Standort fest.
Andere optionale Flags sind:
--compression
: Der Komprimierungstyp, der für exportierte Dateien verwendet werden soll.--field_delimiter
: Das Zeichen, das die Begrenzung zwischen den Spalten in der Ausgabedatei für CSV-Exporte angibt. Es kann sowohl\t
als auchtab
als Tabulatortrennzeichen verwendet werden.--print_header
: Wenn dieses Flag angegeben ist, werden bei Formaten mit Headern wie CSV entsprechende Kopfzeilen ausgegeben.
bq --location=location extract \ --destination_format format \ --compression compression_type \ --field_delimiter delimiter \ --print_header=boolean \ project_id:dataset.table \ gs://bucket/filename.ext
Wobei:
- location ist der Name Ihres Standorts. Das Flag
--location
ist optional. Wenn Sie BigQuery beispielsweise in der Region Tokio verwenden, können Sie für das Flag den Wertasia-northeast1
festlegen. Mit der Datei ".bigqueryrc" lässt sich für den Standort ein Standardwert angeben. - format ist das Format für die exportierten Daten:
CSV
,NEWLINE_DELIMITED_JSON
oderAVRO
. - compression_type ist ein unterstützter Komprimierungstyp für das Datenformat.
CSV
undNEWLINE_DELIMITED_JSON
unterstützenGZIP
.AVRO
unterstütztDEFLATE
undSNAPPY
. - delimiter ist das Trennzeichen für Spalten in CSV-Exporten.
\t
undtab
sind akzeptierte Namen für das Tabulatorzeichen. - boolean ist
true
oderfalse
. Wenntrue
festgelegt ist, werden Header an die exportierten Daten ausgegeben, sofern das Datenformat Header unterstützt. Der Standardwert isttrue
. - project_id ist die Projekt-ID.
- dataset ist der Name des Quell-Datasets.
- table ist die Tabelle, die Sie exportieren.
- bucket ist der Name des Cloud Storage-Buckets, in den Sie Daten exportieren. Das BigQuery-Dataset und der Cloud Storage-Bucket müssen sich am selben Standort befinden.
- filename.ext ist der Name und die Erweiterung der exportierten Datendatei. Mit einem Platzhalter können Sie in mehrere Dateien exportieren.
Beispiele:
Mit dem folgenden Befehl wird beispielsweise mydataset.mytable
in eine komprimierte GZIP-Datei mit dem Namen myfile.csv
exportiert. Die Datei myfile.csv
wird in einem Cloud Storage-Bucket namens example-bucket
gespeichert.
bq extract \ --compression GZIP \ 'mydataset.mytable' \ gs://example-bucket/myfile.csv
Das Standardzielformat ist CSV. Für Exporte in eine JSON- oder Avro-Datei verwenden Sie das Flag destination_format
und legen dafür NEWLINE_DELIMITED_JSON
oder AVRO
fest.
bq extract \ --destination_format NEWLINE_DELIMITED_JSON \ 'mydataset.mytable' \ gs://example-bucket/myfile.json
Mit dem folgenden Befehl wird mydataset.mytable
in eine mit Snappy komprimierte Avro-Datei exportiert. Der Name der Datei lautet myfile.avro
. myfile.avro
wird in einen Cloud Storage-Bucket namens example-bucket
exportiert.
bq extract \ --destination_format AVRO \ --compression SNAPPY \ 'mydataset.mytable' \ gs://example-bucket/myfile.avro
API
Zum Exportieren von Daten erstellen Sie einen extract
-Job und legen dafür die Jobkonfiguration fest.
Optional: Geben Sie Ihren Standort im Attribut location
im Abschnitt jobReference
der Jobressource an.
Erstellen Sie einen Extrahierungsjob, der auf die BigQuery-Quelldaten und auf das Cloud Storage-Ziel verweist.
Geben Sie die Quelltabelle mithilfe des Konfigurationsobjekts
sourceTable
an, das die Projekt-ID, die Dataset-ID und die Tabellen-ID enthält.Das Attribut
destination URI(s)
muss vollständig qualifiziert sein und das Formatgs://bucket/filename.ext
haben. Jeder URI kann genau ein Platzhalterzeichen (*) enthalten, das nach dem Bucket-Namen stehen muss.Geben Sie das Datenformat an. Legen Sie dazu das Attribut
configuration.extract.destinationFormat
fest. Geben Sie beispielsweise für dieses Attribut für den Export einer JSON-Datei den WertNEWLINE_DELIMITED_JSON
an.Rufen Sie zur Prüfung des Jobstatus jobs.get(job_id) mit der ID des Jobs auf, die von der ursprünglichen Anfrage zurückgegeben wurde.
- Wenn
status.state = DONE
zurückgegeben wird, wurde der Job erfolgreich abgeschlossen. - Wenn das Attribut
status.errorResult
zurückgegeben wird, ist die Anfrage fehlgeschlagen. Das Objekt enthält in diesem Fall Angaben zur Fehlerursache. - Wenn
status.errorResult
nicht zurückgegeben wird, wurde der Job erfolgreich abgeschlossen. Es können aber nichtsdestotrotz einige nicht schwerwiegende Fehler aufgetreten sein. Nicht schwerwiegende Fehler werden im Attributstatus.errors
des Objekts des zurückgegebenen Jobs aufgeführt.
- Wenn
API-Hinweise:
Als Best Practice generieren Sie eine nur einmal vorkommende ID und übergeben sie als
jobReference.jobId
, wenn Siejobs.insert
zum Erstellen eines Ladejobs aufrufen. Diese Vorgehensweise ist weniger anfällig für Netzwerkfehler, da der Client anhand der bekannten Job-ID einen Abruf oder einen neuen Versuch ausführen kann.Das Aufrufen von
jobs.insert
für eine bestimmte Job-ID ist idempotent. Das bedeutet, dass Sie den Aufruf für eine bestimmte Job-ID beliebig oft wiederholen können. Maximal einer dieser Vorgänge wird erfolgreich sein.
C#
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von C# in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery C# API.
Go
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Go API.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Node.js in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Node.js API.
PHP
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von PHP in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery PHP API.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Ruby
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Ruby in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Ruby API.
Avro-Exportdetails
BigQuery drückt Avro-formatierte Daten folgendermaßen aus:
- Bei den resultierenden Exportdateien handelt es sich um Avro-Containerdateien.
- Jede BigQuery-Zeile wird als Avro-Datensatz dargestellt. Verschachtelte Daten werden durch verschachtelte Datensatzobjekte dargestellt.
REQUIRED
-Felder werden als äquivalente Avro-Typen dargestellt. Der TypINTEGER
in BigQuery wird beispielsweise dem TypLONG
in Avro zugeordnet.NULLABLE
-Felder werden als Avro-Union des entsprechenden Typs und als "null" dargestellt.REPEATED
-Felder werden als Avro-Arrays dargestellt.TIMESTAMP
-Datentypen werden als logische Avro-timestamp-micros
-Typen dargestellt.DATE
-Datentypen werden standardmäßig als Avro-INT
-Typen oder logische Avro-date
-Typen dargestellt, wenn das Flag--use_avro_logical_types
angegeben ist.TIME
-Datentypen werden standardmäßig als Avro-LONG
-Typen oder logische Avro-time-micros
-Typen dargestellt, wenn das Flag--use_avro_logical_types
angegeben ist.DATETIME
-Datentypen werden als Avro-STRING
-Typen dargestellt. Die Codierung folgt der Spezifikation RFC 3339 der Internet Engineering Task Force.
Das Avro-Format kann nicht in Verbindung mit der GZIP-Komprimierung verwendet werden. Komprimieren Sie Avro-Daten mit dem bq
-Befehlszeilentool oder der API und geben Sie dabei einen der unterstützten Komprimierungstypen für Avro-Daten an: DEFLATE
oder SNAPPY
.
Daten in eine oder mehrere Dateien exportieren
Das Attribut destinationUris
gibt die Speicherorte der Dateinamen an, in die BigQuery die Dateien exportieren soll.
BigQuery unterstützt einen einzelnen Platzhalteroperator (*) in jedem URI. Der Platzhalter kann an jeder beliebigen Stelle im URI eingefügt werden, darf jedoch nicht Teil des Bucket-Namens sein. Durch Verwendung des Platzhalteroperators wird BigQuery angewiesen, mehrere fragmentierte Dateien gemäß dem bereitgestellten Musters zu erstellen. Der Platzhalteroperator wird durch eine Zahl (beginnend mit 0) ersetzt und nach links auf 12 Stellen aufgefüllt. Ein URI mit einem Platzhalter am Ende des Dateinamens würde Dateien erstellen, bei denen 000000000000
an den Namen der ersten Datei, 000000000001
an den Namen der zweiten Datei usw. angefügt wird.
In der folgenden Tabelle sind mehrere mögliche Optionen für das Attribut destinationUris
beschrieben:
Optionen für "destinationUris" | |
---|---|
Einzelner URI |
Verwenden Sie einen einzelnen URI, wenn Sie Tabellendaten mit einer Größe von maximal 1 GB exportieren. Diese Option ist am gebräuchlichsten, da exportierte Daten im Allgemeinen unter dem Höchstwert von 1 GB liegen. Attributdefinition:
Erstellt: gs://my-bucket/file-name.json |
Einzelner Platzhalter-URI |
Verwenden Sie einen einzelnen Platzhalter-URI, wenn Sie davon ausgehen, dass die exportierten Daten den Höchstwert von 1 GB überschreiten. BigQuery fragmentiert die Daten dann anhand des bereitgestellten Musters in mehrere Dateien. Die Größe der exportierten Dateien variiert. Wenn Sie einen Platzhalter in einer anderen URI-Komponente als dem Dateinamen verwenden, achten Sie vor dem Export der Daten darauf, dass die Pfadkomponente nicht vorhanden ist. Attributdefinition:
Erstellt: gs://my-bucket/file-name-000000000000.json gs://my-bucket/file-name-000000000001.json gs://my-bucket/file-name-000000000002.json ... |
Mehrere Platzhalter-URIs |
Verwenden Sie mehrere Platzhalter-URIs, wenn die Ausgabe des Exports partitioniert werden soll. Dies ist z. B. notwendig, wenn Sie einen parallelen Verarbeitungsjob mit einem Dienst wie Dataproc ausführen. Legen Sie fest, wie viele Worker für die Verarbeitung des Jobs verfügbar sein sollen, und erstellen Sie einen URI pro Worker. BigQuery behandelt jeden URI-Speicherort als eine Partition und nutzt die Parallelverarbeitung, um die Daten in mehrere Dateien pro Speicherort zu fragmentieren. Sie können jedes beliebige Muster im Dateinamen verwenden, solange nur ein Platzhalteroperator pro URI verwendet wird, alle URIs nur einmal vorkommen und die Anzahl der URIs die Kontingentrichtlinie nicht überschreitet. Wenn Sie mehrere Platzhalter-URIs übergeben, erstellt BigQuery am Ende jeder Partition eine spezielle Datei, die die letzte Datei in der Gruppe darstellt. Dieser Dateiname gibt an, wie viele Shards von BigQuery erstellt wurden. Wenn beispielsweise der Platzhalter-URI Beachten Sie, dass die Größe einer Datei mit null Datensätzen je nach Datenformat mehr als 0 Byte betragen kann, wie z. B. beim Export von Daten in das CSV-Format mit einer Spaltenüberschrift. Stringmuster:
Attributdefinition: ['gs://my-bucket/file-name-1-*.json', 'gs://my-bucket/file-name-2-*.json', 'gs://my-bucket/file-name-3-*.json'] Erstellt: Bei diesem Beispiel wird davon ausgegangen, dass BigQuery 80 fragmentierte Dateien in jeder Partition erstellt. gs://my-bucket/file-name-1-000000000000.json gs://my-bucket/file-name-1-000000000001.json ... gs://my-bucket/file-name-1-000000000080.json gs://my-bucket/file-name-2-000000000000.json gs://my-bucket/file-name-2-000000000001.json ... gs://my-bucket/file-name-2-000000000080.json gs://my-bucket/file-name-3-000000000000.json gs://my-bucket/file-name-3-000000000001.json ... gs://my-bucket/file-name-3-000000000080.json |
Komprimierte Tabelle extrahieren
Go
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von Go in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Go API.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Java in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur BigQuery Java API.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Node.js in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Node.js API.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Python in der BigQuery-Kurzanleitung: Clientbibliotheken verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Kontingentrichtlinie
Weitere Informationen zum Exportieren von Jobkontingenten finden Sie auf der Seite "Kontingente und Beschränkungen" unter Jobs exportieren.
Preise
Derzeit ist das Exportieren von BigQuery-Daten kostenlos. Die Exporte unterliegen jedoch den Kontingenten und Limits von BigQuery. Weitere Informationen zu den Preisen von BigQuery finden Sie auf der Seite BigQuery-Preise.
Nachdem die Daten exportiert wurden, wird das Speichern der Daten in Cloud Storage in Rechnung gestellt. Weitere Informationen zu den Preisen von Cloud Storage finden Sie auf der Seite Cloud Storage – Preise.
Nächste Schritte
- Weitere Informationen zur Cloud Console finden Sie unter Cloud Console verwenden.
- Weitere Informationen zum
bq
-Befehlszeilentool finden Sie unterbq
-Befehlszeilentool. - Mehr über das Erstellen einer Anwendung mit den Clientbibliotheken der BigQuery API unter Kurzanleitung: Clientbibliotheken verwenden erfahren