Abfrageergebnisse nach Amazon S3 exportieren
Dieses Dokument beschreibt, wie Sie das Ergebnis einer Abfrage, die auf eine BigLake-Tabelle angewendet wird, in Ihren Amazon S3-Bucket (Amazon Simple Storage Service) exportieren.
Informationen zum Datenfluss zwischen BigQuery und Amazon S3 finden Sie unter Datenfluss beim Exportieren von Daten.
Beschränkungen
Eine vollständige Liste der Beschränkungen, die für BigLake-Tabellen basierend auf Amazon S3 und Blob Storage gelten, finden Sie unter Beschränkungen.
Hinweise
Es müssen die folgenden Ressourcen erstellt sein:
- Eine Verbindung zum Zugriff auf Ihren Amazon S3-Bucket.
- Eine Amazon S3 BigLake-Tabelle.
- Die richtige IAM-Richtlinie (Identity and Access Management) für Amazon Web Services (AWS):
- Sie benötigen die Berechtigung
PutObject
, um Daten in den Amazon S3-Bucket zu schreiben. Weitere Informationen finden Sie unter AWS IAM-Richtlinie für BigQuery erstellen.
- Sie benötigen die Berechtigung
- Wenn Sie das kapazitätsbasierte Preismodell verwenden, prüfen Sie, ob Sie die BigQuery Reservation API für Ihr Projekt aktiviert haben. Informationen zu den Preisen finden Sie unter BigQuery-Omni-Preise.
Abfrageergebnisse exportieren
BigQuery Omni schreibt in den angegebenen Amazon S3-Speicherort, unabhängig davon, ob bereits Inhalte vorhanden sind. Die Exportabfrage kann vorhandene Daten überschreiben oder das Abfrageergebnis mit vorhandenen Daten kombinieren. Wir empfehlen, das Abfrageergebnis in einen leeren Amazon S3-Bucket zu exportieren.
Wählen Sie eine der folgenden Optionen aus, um eine Abfrage auszuführen:
SQL
Geben Sie im Feld Abfrageeditor eine GoogleSQL-Exportabfrage ein. GoogleSQL ist in der Google Cloud Console die Standardsyntax.
Öffnen Sie in der Google Cloud Console die Seite BigQuery.
Geben Sie im Abfrageeditor die folgende Anweisung ein:
EXPORT DATA WITH CONNECTION `CONNECTION_REGION.CONNECTION_NAME` OPTIONS(uri="s3://BUCKET_NAME/PATH", format="FORMAT", ...) AS QUERY
Dabei gilt:
CONNECTION_REGION
: die Region, in der die Verbindung erstellt wurde.CONNECTION_NAME
: der Verbindungsname, den Sie mit der erforderlichen Berechtigung zum Schreiben in den Amazon S3-Bucket erstellt haben.BUCKET_NAME
: der Amazon S3-Bucket, in den Sie die Daten schreiben möchten.PATH
: der Pfad, in den Sie die exportierte Datei schreiben möchten. Er muss genau einen Platzhalter*
im Blattverzeichnis des Pfadstrings enthalten, z. B.../aa/*
,../aa/b*c
,../aa/*bc
oder../aa/bc*
. BigQuery ersetzt*
abhängig von der Anzahl der exportierten Dateien durch0000..N
. BigQuery bestimmt die Anzahl und Größe der Dateien. Wenn BigQuery zwei Dateien exportiert, wird*
im Dateinamen der ersten Datei durch000000000000
und*
im Dateinamen der zweiten Datei durch000000000001
ersetzt.FORMAT
: Unterstützte Formate sindJSON
,AVRO
,CSV
undPARQUET
.QUERY
: Abfrage zur Analyse der Daten, die in einer BigLake-Tabelle gespeichert sind.Klicken Sie auf
Ausführen.
Informationen zum Ausführen von Abfragen finden Sie unter Interaktive Abfrage ausführen.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Java in der BigQuery-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Angaben finden Sie in der Referenzdokumentation zur BigQuery Java API.
Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für Clientbibliotheken einrichten.
Fehlerbehebung
Wenn ein Fehler mit quota failure
angezeigt wird, prüfen Sie, ob Sie für Ihre Abfragen reservierte Kapazität haben. Weitere Informationen zu Slot-Reservierungen finden Sie in diesem Dokument unter Vorbereitung.
Nächste Schritte
- Weitere Informationen zu BigQuery Omni
- Tabellendaten exportieren
- In Amazon S3 gespeicherte Daten abfragen
- VPC Service Controls für BigQuery Omni einrichten