Mengekspor hasil kueri ke Amazon S3
Dokumen ini menjelaskan cara mengekspor hasil kueri yang dijalankan terhadap tabel BigLake ke bucket Amazon Simple Storage Service (Amazon S3).
Untuk mengetahui informasi tentang cara data mengalir antara BigQuery dan Amazon S3, lihat Aliran data saat mengekspor data.
Sebelum memulai
Pastikan Anda memiliki resource berikut:
- Koneksi untuk mengakses bucket Amazon S3.
- Tabel BigLake Amazon S3.
- Kebijakan Amazon Web Services (AWS) Identity and Access Management (IAM)
yang benar:
- Anda memerlukan izin
PutObject
untuk menulis data ke bucket Amazon S3. Untuk informasi selengkapnya, lihat Menghubungkan ke Amazon S3.
- Anda memerlukan izin
- Jika Anda menggunakan model harga berbasis kapasitas, pastikan BigQuery Reservation API telah diaktifkan untuk project Anda. Untuk mengetahui informasi tentang harga, lihat harga BigQuery Omni.
Mengekspor hasil kueri
BigQuery Omni melakukan operasi tulis ke lokasi Amazon S3 yang ditentukan, terlepas dari konten yang sudah ada. Kueri ekspor dapat menimpa data yang sudah ada atau mencampur hasil kueri dengan data yang sudah ada. Sebaiknya ekspor hasil kueri ke bucket Amazon S3 kosong.
Untuk menjalankan kueri, pilih salah satu opsi berikut:
SQL
Di kolom Editor kueri, masukkan kueri ekspor GoogleSQL. GoogleSQL adalah sintaksis default di konsol Google Cloud.
Di konsol Google Cloud, buka halaman BigQuery.
Di editor kueri, masukkan pernyataan berikut:
EXPORT DATA WITH CONNECTION `CONNECTION_REGION.CONNECTION_NAME` OPTIONS(uri="s3://BUCKET_NAME/PATH", format="FORMAT", ...) AS QUERY
Ganti kode berikut:
CONNECTION_REGION
: region tempat koneksi dibuat.CONNECTION_NAME
: nama koneksi yang Anda buat dengan izin yang diperlukan untuk menulis ke bucket Amazon S3.BUCKET_NAME
: bucket Amazon S3 tempat Anda ingin menulis data.PATH
: jalur tempat Anda ingin menulis file yang diekspor. String ini harus berisi tepat satu*
karakter pengganti di mana saja di direktori tanpa turunan dari string jalur, misalnya,../aa/*
,../aa/b*c
,../aa/*bc
, dan../aa/bc*
. BigQuery mengganti*
dengan0000..N
, bergantung pada jumlah file yang diekspor. BigQuery menentukan jumlah dan ukuran file. Jika BigQuery memutuskan untuk mengekspor dua file,*
pada nama file dari file pertama akan diganti dengan000000000000
, dan*
dalam nama file kedua akan diganti dengan000000000001
.FORMAT
: format yang didukung adalahJSON
,AVRO
,CSV
, danPARQUET
.QUERY
: kueri untuk menganalisis data yang disimpan dalam tabel BigLake.Klik
Run.
Untuk informasi selengkapnya tentang cara menjalankan kueri, lihat Menjalankan kueri interaktif.
Java
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Java di Panduan memulai BigQuery menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi BigQuery Java API.
Untuk melakukan autentikasi ke BigQuery, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk library klien.
Pemecahan masalah
Jika Anda mendapatkan error yang terkait dengan quota failure
, periksa apakah Anda telah memesan
kapasitas untuk kueri Anda. Untuk mengetahui informasi selengkapnya tentang pemesanan slot, lihat
Sebelum memulai dalam dokumen ini.
Batasan
Untuk mengetahui daftar lengkap batasan yang berlaku untuk tabel BigLake berdasarkan Amazon S3 dan Blob Storage, lihat Batasan.
Langkah selanjutnya
- Pelajari BigQuery Omni.
- Pelajari cara mengekspor data tabel.
- Pelajari cara meng-kueri data yang tersimpan di Amazon S3.
- Pelajari cara menyiapkan Kontrol Layanan VPC untuk BigQuery Omni.